JP7466251B1 - Learning support system and learning support method - Google Patents

Learning support system and learning support method Download PDF

Info

Publication number
JP7466251B1
JP7466251B1 JP2023204249A JP2023204249A JP7466251B1 JP 7466251 B1 JP7466251 B1 JP 7466251B1 JP 2023204249 A JP2023204249 A JP 2023204249A JP 2023204249 A JP2023204249 A JP 2023204249A JP 7466251 B1 JP7466251 B1 JP 7466251B1
Authority
JP
Japan
Prior art keywords
calling
student
call
timing
topic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023204249A
Other languages
Japanese (ja)
Inventor
浩司 山田
Original Assignee
株式会社フォーサイト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社フォーサイト filed Critical 株式会社フォーサイト
Priority to JP2023204249A priority Critical patent/JP7466251B1/en
Application granted granted Critical
Publication of JP7466251B1 publication Critical patent/JP7466251B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】受講者への効果的な声かけによる学習支援を実現する技術を提供する。【解決手段】講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムは、受講者の属性に関する情報である受講者属性情報を記憶し、受講者に対する講義の提供における特定のタイミングを、アバター講師が映像および音声によって受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定し、受講者属性情報および/または声かけタイミングに基づいて、声かけタイミングに提供する声かけの話題である声かけ話題を特定し、受講者属性情報に基づいて、声かけに用いる態様である声かけ態様を特定し、声かけタイミングに、声かけ話題および声かけ態様による声かけを出力する。【選択図】図1[Problem] To provide a technology that realizes learning support by effectively calling out to students. [Solution] A learning support system that provides students with a lecture consisting of video and audio by an avatar lecturer, which is a virtual person modeled after a lecturer, stores student attribute information that is information about the attributes of the students, identifies specific timing in the provision of a lecture to a student as a calling timing, which is a timing when the avatar lecturer speaks to the student through video and audio, identifies a calling topic that is a topic of calling to be provided at the calling timing based on the student attribute information and/or the calling timing, identifies a calling manner that is a manner to be used for calling based on the student attribute information, and outputs a call based on the calling topic and the calling manner at the calling timing. [Selected Figure] Figure 1

Description

本発明は、計算機システムを利用して学習を支援する技術に関する。 The present invention relates to technology that supports learning using a computer system.

特許文献1には、映像と音声を含む講義を提供する学習システムが開示されている。学習システムは、講義を受講する受講者を撮影するために取得された画像に基づいて、受講者が講義に集中しているか否かに関する判定を行い、その判定の結果に基づく集中判定結果情報を記録し、画像と集中判定結果情報とに基づいて、受講者が講義の内容を理解しているか否かに関する判定を行い、その判定の結果に基づく理解判定結果情報を記録し、集中判定結果情報および理解判定結果情報に基づいて講義を制御する。当該受講者の集中の度合いと理解の度合いに応じて講義を制御するので、各受講者における効果的な学習を支援することが可能となる。 Patent Document 1 discloses a learning system that provides lectures including video and audio. The learning system judges whether or not a student is concentrating on a lecture based on images acquired to film the student attending the lecture, records concentration judgment result information based on the result of the judgment, judges whether or not the student understands the contents of the lecture based on the images and the concentration judgment result information, records understanding judgment result information based on the result of the judgment, and controls the lecture based on the concentration judgment result information and the understanding judgment result information. Since the lecture is controlled according to the student's level of concentration and level of understanding, it is possible to support effective learning for each student.

特開2021-018316号公報JP 2021-018316 A

現実の人間である講師が受講者に対面で授業を行う場合、適切なタイミングで適切な声かけを行うと、受講者のモチベーションや集中の度合いが上がり、学習の効果が向上することが知られている。しかしながら、コンピュータを利用してアバター講師による映像と音声で講義を提供する技術分野においては、効果的な声かけの工夫についてほとんど検討がなされていない。 When a real human instructor teaches face-to-face to students, it is known that if the instructor gives appropriate encouragement at the right time, it can increase the students' motivation and concentration, improving the effectiveness of their learning. However, in the field of technology that uses computers to provide lectures through video and audio from avatar instructors, little research has been done on how to provide effective encouragement.

本開示のひとつの目的は、受講者への効果的な声かけによる学習支援を実現する技術を提供することである。 One objective of this disclosure is to provide technology that provides learning support to students by providing effective encouragement.

本発明のひとつの実施態様による学習支援システムは、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する声かけタイミング特定部と、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、を有する。 A learning support system according to one embodiment of the present invention is a learning support system that provides a lecture consisting of video and audio to a student by an avatar lecturer, which is a virtual person simulating a lecturer, and has a student attribute information storage unit that stores student attribute information, which is information related to the attributes of the student; a call-out timing identification unit that identifies a specific timing in the provision of the lecture to the student as a call-out timing, which is a timing when the avatar lecturer speaks to the student by video and audio; a call-out topic identification unit that identifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or the call-out timing; a call-out mode identification unit that identifies a call-out mode, which is a mode used for the call, based on the student attribute information; and a call-out output unit that outputs the call-out topic and the call-out mode at the call-out timing.

本開示に含まれるひとつの態様によれば、受講者への効果的な声かけによる学習支援が可能にする。 One aspect of the present disclosure makes it possible to provide learning support to students by providing effective encouragement.

第1の実施形態による学習支援システムの機能構成を示すブロック図である。1 is a block diagram showing a functional configuration of a learning support system according to a first embodiment. 学習支援システムのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the learning support system. 受講者属性情報のテーブルを示す図である。FIG. 13 is a diagram showing a table of attendee attribute information. 声かけ処理のフローチャートである。13 is a flowchart of a call process. 声かけ話題特定処理のフローチャートである。13 is a flowchart of a process of identifying a topic to be spoken to; 講義前話題リストを示す図である。FIG. 13 is a diagram showing a pre-lecture topic list. 講義後話題リストを示す図である。FIG. 13 shows a post-lecture topic list. 第2の実施形態による学習支援システムの機能構成を示すブロック図である。FIG. 11 is a block diagram showing a functional configuration of a learning support system according to a second embodiment. 集中判定結果情報の一例を示す図である。FIG. 11 is a diagram showing an example of concentration determination result information.

以下、本発明の実施形態について図面を参照して説明する。 The following describes an embodiment of the present invention with reference to the drawings.

<第1の実施形態>
本実施形態の学習支援システムは、講師を模した姿を有する仮想的な人物(以下「アバター講師」ともいう)により、受講者に、映像および音声で構成された講義コンテンツを提供する計算機システムである。また、学習支援システムは、講義コンテンツの提供における特定のタイミングでアバター講師から受講者に声かけを行い、受講者の学習効果を向上させる。
First Embodiment
The learning support system of this embodiment is a computer system that provides students with lecture content consisting of video and audio by a virtual person (hereinafter also referred to as an "avatar lecturer") who resembles a lecturer. The learning support system also improves the effectiveness of the students' learning by having the avatar lecturer speak to the students at specific times during the provision of the lecture content.

図1は、第1の実施形態による学習支援システムの機能構成を示すブロック図である。 Figure 1 is a block diagram showing the functional configuration of a learning support system according to the first embodiment.

図1を参照すると、学習支援システム10は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、声かけ出力部14、および記憶部15を有している。記憶部15には、サービスを実行するのに必要な予め準備されたデータが記録されている。一例として、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14は、その処理がソフトウェアプログラムにより規定され、プロセッサがそのソフトウェアプログラムを実行することにより実現される。 Referring to FIG. 1, the learning support system 10 has a lecture output unit 19, a call timing identification unit 11, a call topic identification unit 12, a call manner identification unit 13, a call output unit 14, and a memory unit 15. The memory unit 15 stores data prepared in advance that is necessary to execute the service. As an example, the processing of the lecture output unit 19, the call timing identification unit 11, the call topic identification unit 12, the call manner identification unit 13, and the call output unit 14 is defined by a software program, and is realized by the processor executing the software program.

図2は、学習支援システムのハードウェア構成を示すブロック図である。 Figure 2 is a block diagram showing the hardware configuration of the learning support system.

図2を参照すると、学習支援システム10は、サーバ20と、インターネット等の通信ネットワーク経由でサーバ20に接続可能なパーソナルコンピュータやスマートホン等の情報端末とで構成されている。受講者90は、情報端末30上のブラウザ33を用いてサーバ20に接続し、サーバ20から提供されるサービスを利用する。サービスは、学習に関連するコンテンツを提供するサービスである。サービスは図1に示した各部により実現される。 Referring to FIG. 2, the learning support system 10 is composed of a server 20 and an information terminal such as a personal computer or a smartphone that can connect to the server 20 via a communication network such as the Internet. A student 90 connects to the server 20 using a browser 33 on an information terminal 30 and uses a service provided by the server 20. The service is a service that provides content related to learning. The service is realized by the various parts shown in FIG. 1.

図2に示すように、サーバ20は、ハードウェアとして、処理装置21、メインメモリ22、記憶装置23、通信装置24、入力装置25、および表示装置26を有し、それらがバス27に接続されている。 As shown in FIG. 2, the server 20 has, as its hardware, a processing device 21, a main memory 22, a storage device 23, a communication device 24, an input device 25, and a display device 26, which are connected to a bus 27.

記憶装置23は、書込みおよび読み出しが可能にデータを記憶するものである。図1に示した記憶部15はこの記憶装置23によって実現される。処理装置21は、記憶装置23に記憶されたデータをメインメモリ22に読み出し、メインメモリ22を利用してソフトウェアプログラムの処理を実行するプロセッサである。処理装置21によって、図1に示した講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14が実現される。
通信装置24は、処理装置21にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報を処理装置21に伝達する。受信した情報は処理装置21にてソフトウェアの処理に利用される。入力装置25は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報は処理装置21にてソフトウェア処理に利用される。表示装置26は、処理装置21によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。入力装置25および表示装置26は、主には、受講者90ではなく管理者(不図示)が利用するために設けられている。
The storage device 23 stores data in a writable and readable manner. The storage unit 15 shown in Fig. 1 is realized by this storage device 23. The processing device 21 is a processor that reads the data stored in the storage device 23 into the main memory 22 and executes the processing of the software program using the main memory 22. The processing device 21 realizes the lecture output unit 19, the calling timing identification unit 11, the calling topic identification unit 12, the calling manner identification unit 13, and the calling output unit 14 shown in Fig. 1.
The communication device 24 transmits information processed by the processing device 21 via a communication network including wired and/or wireless communication, and also transmits information received via the communication network to the processing device 21. The received information is used for software processing in the processing device 21. The input device 25 is a device that accepts information input by an operator using a keyboard, mouse, etc., and the input information is used for software processing in the processing device 21. The display device 26 is a device that displays image and text information on a display screen in conjunction with software processing by the processing device 21. The input device 25 and display device 26 are provided mainly for use by an administrator (not shown) rather than the students 90.

図1に戻り、記憶部15は、講義コンテンツと、受講者属性情報と、講義前話題リストと、講義後話題リストとを予め記憶している。講義コンテンツとしては、学習すべき内容の単位毎に講義を収めたコンテンツが準備されている。受講者属性情報として、各受講者90のそれぞれの属性に関する情報が記録されている。講義前話題リストは、講義コンテンツを提供する前のタイミングで提供する声かけに用いる話題のリストである。講義後話題リストは、講義コンテンツを提供した後のタイミングで提供する声かけに用いる話題のリストである。 Returning to FIG. 1, the memory unit 15 pre-stores lecture content, student attribute information, a pre-lecture topic list, and a post-lecture topic list. As lecture content, content containing lectures for each unit of content to be learned is prepared. As student attribute information, information on the attributes of each student 90 is recorded. The pre-lecture topic list is a list of topics used in greetings provided before the lecture content is provided. The post-lecture topic list is a list of topics used in greetings provided after the lecture content is provided.

図3は、受講者属性情報のテーブルを示す図である。 Figure 3 shows a table of participant attribute information.

受講者属性情報D01のテーブルには、各受講者90のそれぞれの受講者番号(No.)、氏名、住所、嗜好、生年月日、および希望方言が登録されている。氏名は当該受講者90の氏名を示す。住所は、当該受講者90の住所を示す。嗜好は、当該受講者90の嗜好を示す。生年月日は、当該受講者90の生年月日を示す。希望方言は、当該受講者90がアバター講師に使ってほしいと希望する方言を示す。方言は、特定の地域で用いられている言語体系である。例えば、受講者番号が1である受講者90は、氏名が「特許 一郎」であり、「愛知県名古屋市・・・」に住んでおり、「ネコ」と「中日ドラゴンズ」を嗜好し、2001年10月1日生まれであり、アバター講師に「名古屋弁」を使ってほしいと希望している。 In the table of student attribute information D01, the student number (No.), name, address, preferences, date of birth, and desired dialect of each student 90 are registered. The name indicates the name of the student 90. The address indicates the address of the student 90. The preference indicates the preference of the student 90. The date of birth indicates the date of birth of the student 90. The desired dialect indicates the dialect that the student 90 wishes the avatar instructor to use. A dialect is a language system used in a specific region. For example, a student 90 with student number 1 is named "Patent Ichiro", lives in "Nagoya City, Aichi Prefecture...", likes "cats" and the "Chunichi Dragons", was born on October 1, 2001, and wishes the avatar instructor to use "Nagoya dialect."

講義出力部19は、個々の受講者90の要求および学習の進捗に応じて、記憶部15に記憶されている講義コンテンツを、情報端末30のブラウザ33を通じて受講者90に提供する。 The lecture output unit 19 provides the lecture content stored in the memory unit 15 to the students 90 via the browser 33 of the information terminal 30 according to the requests and learning progress of each student 90.

声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14は、連携して、受講者90に声かけを行う一連の処理を実行する。以下、この一連の処理を声かけ処理ともいう。 The calling timing identification unit 11, the calling topic identification unit 12, the calling manner identification unit 13, and the calling output unit 14 work together to execute a series of processes for calling out to the students 90. Hereinafter, this series of processes is also referred to as the calling process.

図4は、声かけ処理のフローチャートである。 Figure 4 is a flowchart of the call process.

ステップ101にて、声かけタイミング特定部11は、当該受講者90に対する講義コンテンツの提供における特定のタイミングを、アバター講師が映像および音声によって受講者90に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する。声かけタイミング特定部11は、例えば、講義コンテンツの提供を開始前のタイミングである講義前タイミングを、声かけタイミングとして特定する。講義前の声かけは、その後の講義の効果に影響する重要なタイミングである。そのタイミングで適切な声かけを行うことにより、受講者90のモチベーションや集中の度合いが高い状態で講義の提供を開始することがができる。また、声かけタイミング特定部11は、例えば、講義コンテンツの提供を終了した後のタイミングである講義後タイミングを、声かけタイミングとして特定する。講義を聞いただけでなく、その次に講義内容の復習や、講義に関連する問題の演習を行うことで学力を効果的に向上させることができる。そのタイミングで適切な声かけを行うことにより、講義を受けた後の学習に対する受講者90のモチベーションを高めることができる。 In step 101, the call timing specification unit 11 specifies a specific timing in the provision of lecture content to the student 90 as a call timing, which is a timing when the avatar lecturer calls out to the student 90 by video and audio. The call timing specification unit 11 specifies, for example, a pre-lecture timing, which is a timing before the start of the provision of the lecture content, as the call timing. Calling out before the lecture is an important timing that affects the effectiveness of the subsequent lecture. By making an appropriate call at that timing, it is possible to start providing the lecture in a state where the student 90 is highly motivated and focused. In addition, the call timing specification unit 11 specifies, for example, a post-lecture timing, which is a timing after the end of the provision of the lecture content, as the call timing. Not only listening to the lecture, but also reviewing the lecture content and practicing problems related to the lecture can effectively improve academic ability. By making an appropriate call at that timing, it is possible to increase the motivation of the student 90 for learning after receiving the lecture.

ステップ102にて、声かけ話題特定部12は、受講者属性情報D01および/または声かけタイミングに基づいて、当該受講者90に対して、声かけタイミングに提供する声かけの話題である声かけ話題を特定する。以下、この声かけ話題を特定する処理を声かけ話題特定処理ともいう。 In step 102, the call topic identification unit 12 identifies a call topic, which is a topic of call to be provided to the student 90 at the call timing, based on the student attribute information D01 and/or the call timing. Hereinafter, this process of identifying the call topic is also referred to as a call topic identification process.

図5は、声かけ話題特定処理のフローチャートである。 Figure 5 is a flowchart of the process for identifying topics of conversation.

ステップ201にて、声かけ話題特定部12は、特定された声かけタイミングが講義前タイミングか講義後タイミングか判定する。 In step 201, the calling topic identification unit 12 determines whether the identified calling timing is before the lecture or after the lecture.

声かけタイミングが講義前タイミングであれば、ステップ202にて、声かけ話題特定部12は、講義前話題リストから1つ以上の声かけ話題を決定する。 If the call timing is before the lecture, in step 202, the call topic identification unit 12 determines one or more call topics from the pre-lecture topic list.

図6は、講義前話題リストを示す図である。 Figure 6 shows a list of pre-lecture topics.

講義前話題リストD02には、講義コンテンツを開始する前に好適な声かけの話題として、「激励」、「リアルタイム話題」、および「嗜好話題」が設定されている。「激励」は、受講者のモチベーションを直接的に上げるような話題である。「リアルタイム話題」は、当該受講者が興味を示しそうなリアルタイムの話題であり、例えば、当該受講者の地元の天気やニュースや当日のスポーツの結果などが含まれる。実際のリアルタイムの天気、ニュース、スポーツの結果の情報は例えば外部のサイトから取得可能である。「嗜好話題」は、当該受講者が好きな物に関する話題であり、例えば、当該受講者がネコ好きであれば、飼いネコに関する話などが該当する。「リアルタイム話題」および「嗜好話題」には、当該受講者の意識を講義に向かせる効果があると考えられる。 In the pre-lecture topic list D02, "encouragement," "real-time topics," and "interesting topics" are set as suitable topics for encouraging students before starting the lecture content. "Encouragement" is a topic that directly increases the motivation of the students. "Real-time topics" are real-time topics that are likely to interest the students, such as the weather and news in the students' local area and the results of sports for the day. Actual real-time weather, news, and sports results information can be obtained, for example, from external sites. "Interesting topics" are topics related to things that the students like, such as if the students like cats, then talking about pet cats would be appropriate. "Real-time topics" and "interesting topics" are considered to have the effect of directing the students' attention to the lecture.

声かけ話題特定部12が講義前話題リストD02から1つ以上の声かけ話題を決定する方法は特に限定されない。例えば、声かけ話題特定部12は、講義前話題リストD02からランダムに1つ以上の声かけ話題を選択してもよい。あるいは、声かけ話題特定部12は、講義前話題リストD02の話題を巡回するように声かけ話題を順次選択してもよい。 The method by which the call topic identification unit 12 determines one or more call topics from the pre-lecture topic list D02 is not particularly limited. For example, the call topic identification unit 12 may randomly select one or more call topics from the pre-lecture topic list D02. Alternatively, the call topic identification unit 12 may sequentially select call topics by cycling through the topics in the pre-lecture topic list D02.

声かけタイミングが講義後タイミングであれば、ステップ203にて、声かけ話題特定部12は、講義後話題リストから1つ以上の声かけ話題を決定する。 If the call timing is post-lecture, in step 203, the call topic identification unit 12 determines one or more call topics from the post-lecture topic list.

図7は、講義後話題リストを示す図である。 Figure 7 shows the post-lecture topic list.

講義後話題リストD03には、講義コンテンツを終えた後に好適な声かけの話題として、「労い」および「嗜好話題」が設定されている。「労い」は、講義の受講を労って、その後の学習のモチベーションを上げるような話題である。「嗜好話題」は、当該受講者が好きな物に関する話題であり、当該受講者の疲れを取り、その後の学習に向かうモチベーションを上げる効果があると考えられる。 In the post-lecture topic list D03, "appreciation" and "interesting topics" are set as suitable topics for encouraging students after finishing the lecture content. "Appreciation" is a topic that expresses appreciation for attending the lecture and increases motivation for future learning. "Interesting topics" are topics related to things that the student likes, and are thought to have the effect of relieving the student's fatigue and increasing motivation for future learning.

声かけ話題特定部12が講義後話題リストD03から1つ以上の声かけ話題を決定する方法は特に限定されない。例えば、声かけ話題特定部12は、講義後話題リストD03からランダムに1つ以上の声かけ話題を選択してもよい。あるいは、声かけ話題特定部12は、講義後話題リストD03の話題を巡回するように声かけ話題を順次選択してもよい。 The method by which the call-out topic identification unit 12 determines one or more call-out topics from the post-lecture topic list D03 is not particularly limited. For example, the call-out topic identification unit 12 may randomly select one or more call-out topics from the post-lecture topic list D03. Alternatively, the call-out topic identification unit 12 may sequentially select call-out topics by cycling through the topics in the post-lecture topic list D03.

図4に戻り、ステップ103にて、声かけ態様特定部13は、受講者属性情報D01に基づいて、当該受講者90への声かけに用いる態様である声かけ態様を特定する。本実施形態における声かけ態様は、一例として、声かけに用いる言語体系である声かけ言語体系である。例えば、声かけ態様特定部13は、受講者属性情報D01に、希望方言(言語体系)が登録されていれば、その言語体系を、当該受講者90への声かけ言語体系として特定してもよい。また、受講者属性情報D01に、希望方言(言語体系)が登録されていなければ、声かけ態様特定部13は、受講者属性情報D01に登録されている住所が示す地域の方言を、当該受講者90への声かけ言語体系として特定してもよい。あるいは、受講者属性情報D01に、希望方言(言語体系)が登録されていなければ、声かけ態様特定部13は、日本の標準語を、当該受講者90への声かけ言語体系として特定してもよい。 Returning to FIG. 4, in step 103, the addressing manner identification unit 13 identifies an addressing manner that is a manner used to address the student 90 based on the student attribute information D01. In the present embodiment, the addressing manner is, as an example, an addressing language system that is a language system used to address the student 90. For example, if a desired dialect (language system) is registered in the student attribute information D01, the addressing manner identification unit 13 may identify the language system as the addressing language system for the student 90. Also, if a desired dialect (language system) is not registered in the student attribute information D01, the addressing manner identification unit 13 may identify the dialect of the area indicated by the address registered in the student attribute information D01 as the addressing language system for the student 90. Alternatively, if a desired dialect (language system) is not registered in the student attribute information D01, the addressing manner identification unit 13 may identify standard Japanese as the addressing language system for the student 90.

また、声かけ態様特定部13は、声かけ言語体系として、いずれかひとつの言語体系を選択してもよいが、複数の言語体系を組み合わせて声かけ言語体系としてもよい。例えば、図3の受講者属性情報D01において、受講者番号が「1」の受講者「特許 一郎」は、「名古屋弁」を希望し、「ネコ」を嗜好しているので、声かけ態様特定部13は、「名古屋弁」と「ネコ」を模擬する言葉(動物言葉)とを合成した声かけ態様を特定してもよい。一例として、「こんにちは。特許一郎くん。今日は名古屋はどえりゃー暑いですね。体調大丈夫ですか? 特許一郎くんの好きな中日ドラゴンズは昨夜も勝ちましたニャン。特許一郎くんもしっかり勉強しましょう。それでは講義を開始しますニャン。」といった声かけが可能となる。 The calling style specification unit 13 may select one of the language systems as the calling language system, or may combine multiple language systems to form the calling language system. For example, in the student attribute information D01 of FIG. 3, the student "Patent Ichiro" with student number "1" desires "Nagoya dialect" and has a preference for "cats," so the calling style specification unit 13 may specify a calling style that combines "Nagoya dialect" and a word (animal language) that imitates "cats." As an example, it is possible to call out, "Hello, Patent Ichiro. It's really hot in Nagoya today. Are you feeling okay? Your favorite team, the Chunichi Dragons, won last night, meow. Let's study hard, Patent Ichiro. Let's start the lecture, meow."

続いて、ステップ104にて、声かけ出力部14は、当該声かけタイミングに、当該声かけ話題および当該声かけ態様による声かけの映像および音声を、情報端末30のブラウザ33を通じて、当該受講者90に出力する。 Next, in step 104, the call output unit 14 outputs the video and audio of the call based on the call topic and the call manner at the call timing to the student 90 via the browser 33 of the information terminal 30.

<第2の実施形態>
第2の実施形態の学習支援システムは、第1の実施形態のものと同等の機能に加え、講義を受講している受講者の画像および音声から受講者の状態を取得し、取得した受講者の状態の情報を、その後の声かけの制御に利用することにより、声かけの効果の向上を図るものである。
Second Embodiment
The learning support system of the second embodiment has the same functions as the first embodiment, and in addition, it acquires the status of students attending a lecture from images and audio of the students, and uses the acquired information on the students' status to control subsequent encouragement, thereby improving the effectiveness of encouragement.

第2の実施形態の学習支援システムは、第1の実施形態のものと同様の構成および動作を有するので、以下では、主に第2の実施形態における第1の実施形態と異なる部分について説明する。 The learning support system of the second embodiment has the same configuration and operation as that of the first embodiment, so the following mainly describes the differences between the first embodiment and the second embodiment.

図8は、第2の実施形態による学習支援システムの機能構成を示すブロック図である。第2の実施形態の学習支援システムのハードウェア構成は図2に示した第1の実施形態のものと同様である。 Figure 8 is a block diagram showing the functional configuration of the learning support system according to the second embodiment. The hardware configuration of the learning support system of the second embodiment is similar to that of the first embodiment shown in Figure 2.

第2の実施形態では、学習支援システム10は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、声かけ出力部14、および記憶部15に加え、集中判定部16を有している。集中判定部16は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、および声かけ態様特定部13と同様に、ソフトウェアプログラムの処理を実行するプロセッサである処理装置21によってが実現される。 In the second embodiment, the learning support system 10 has a concentration determination unit 16 in addition to a lecture output unit 19, a call-out timing determination unit 11, a call-out topic determination unit 12, a call-out manner determination unit 13, a call-out output unit 14, and a memory unit 15. The concentration determination unit 16, like the lecture output unit 19, the call-out timing determination unit 11, the call-out topic determination unit 12, and the call-out manner determination unit 13, is realized by a processing device 21, which is a processor that executes the processing of a software program.

集中判定部16は、情報端末30のカメラ31によって受講者90を撮影するために取得された画像に基づいて、受講者90が講義に集中しているか否かに関する判定を行い、その判定の結果に基づく集中判定結果情報を記録する。集中判定の方法は特に限定されないが、例えば、受講者90が端末の前におり、良好な体勢をとっており、眼が開いており、画面を見ているという条件が揃っていれば、集中していると判定することにしてもよい。 The concentration determination unit 16 determines whether the student 90 is concentrating on the lecture based on an image captured by the camera 31 of the information terminal 30 to photograph the student 90, and records concentration determination result information based on the result of the determination. There are no particular limitations on the method of concentration determination, but for example, if the following conditions are met: the student 90 is in front of the terminal, has a good posture, has his/her eyes open, and is looking at the screen, he/she may be determined to be concentrating.

図9は、集中判定結果情報の一例を示す図である。ここでは講義前の声かけに関する集中判定結果情報およびその算出方法について説明するが、講義後の声かけに関する集中判定結果情報およびその算出方法も同様にしてもよい。講義前の声かけの場合、声かけ後の講義における受講者の画像を基に集中判定を行うが、講義後の声かけの場合、講義後の復習や問題演習における受講者の画像を基に集中判定を行えばよい。 Figure 9 is a diagram showing an example of concentration judgment result information. Here, concentration judgment result information related to calling out before a lecture and a method for calculating the same will be described, but concentration judgment result information related to calling out after a lecture and a method for calculating the same may also be used. In the case of calling out before a lecture, concentration judgment is made based on an image of the student in the lecture after the calling out, but in the case of calling out after a lecture, concentration judgment can be made based on an image of the student in the review or practice questions after the lecture.

集中判定結果情報D04には、講義コンテンツを開始する声かけの各話題に対応付けて、当該話題の各回集中度と話題別集中度とが記録されている。話題別集中度の算出方法は特に限定されないが、例えば、集中判定部16は、当該話題の声かけが行われる毎に、その後の講義に対する集中度である各回集中度を算出して蓄積し、蓄積された各回集中度の話題別の平均値を算出し、話題別集中度とすることにしてもよい。また、その中の各回集中度の算出方法も特に限定されないが、例えば、集中判定部16は、一定時間毎に画像を基に受講者が集中しているか否か判定し、集中か非集中かを示す集中フラグを記録し、講義中の集中と非集中の回数比によって5段階評価し、評価結果を各回集中度とすることにしてもよい。また、集中判定部14は、声かけが行われる毎に話題別集中度を更新してもよいし、所定期間毎に更新してもよい。 In the concentration determination result information D04, the concentration level for each time of the topic and the concentration level by topic are recorded in association with each topic of the call to start the lecture content. The method of calculating the concentration level by topic is not particularly limited, but for example, the concentration determination unit 16 may calculate and accumulate the concentration level for each time, which is the concentration level for the subsequent lecture, each time a call is made on the topic, and calculate the average value of the accumulated concentration levels for each time by topic to set it as the concentration level by topic. In addition, the method of calculating the concentration level for each time is also not particularly limited, but for example, the concentration determination unit 16 may determine whether the students are concentrating or not based on the image at regular intervals, record a concentration flag indicating whether they are concentrating or not, and perform a five-level evaluation based on the ratio of the number of times of concentration and non-concentration during the lecture, and set the evaluation result as the concentration level for each time. In addition, the concentration determination unit 14 may update the concentration level by topic each time a call is made, or may update it at a specified period of time.

図9の例では、「激励」という話題については、各回集中度が4,5,5,5,4,4,5・・・であり、話題別集中度が4.5である。本例では、各回集中度は「1」から「5」までの5段階で表されている。「5」が最も集中していることを示し、「1」が最も集中していないことを示す。「リアルタイム話題」という話題については、各回集中度が4,3,3,3,4,3,3・・・であり、話題別集中度が3.2である。「嗜好話題」という話題については、各回集中度が3,4,4,4,3,4・・・であり、話題別集中度が3.8である。 In the example of Figure 9, for the topic "encouragement", the concentration levels for each episode are 4, 5, 5, 5, 4, 4, 5..., and the concentration level by topic is 4.5. In this example, the concentration level for each episode is expressed on a five-level scale from "1" to "5". "5" indicates the highest concentration and "1" indicates the lowest concentration. For the topic "real-time topics", the concentration levels for each episode are 4, 3, 3, 3, 4, 3, 3..., and the concentration level by topic is 3.2. For the topic "preference topics", the concentration levels for each episode are 3, 4, 4, 4, 3, 4..., and the concentration level by topic is 3.8.

声かけ話題特定部12は、声かけの後の受講者90の講義に対応する集中判定結果情報に基づいて、講義前タイミングの声かけ話題および講義後タイミングの声かけ話題を選択する。声かけ話題の選択方法は特に限定されないが、例えば、声かけ話題特定部12は、話題別集中度の高い話題の比率が高く、話題別集中度の低い話題の比率が低くなるように、それ以降の話題を選択していけばよい。例えば、声かけ話題特定部12は、各話題の比率を、話題別集中度の合計値に対する各話題の集中度の割合と一致させるように、話題を選択してもよい。これにより、過度に同じ話題が集中することなくまた話題別集中度の更新も可能にしながら、受講者に効果の高い声かけを多く与えることが可能となる。 The calling topic identification unit 12 selects a calling topic for the pre-lecture timing and a calling topic for the post-lecture timing based on the concentration judgment result information corresponding to the lecture of the student 90 after the calling. The method of selecting the calling topic is not particularly limited, but for example, the calling topic identification unit 12 may select subsequent topics so that the ratio of topics with high topic-specific concentration is high and the ratio of topics with low topic-specific concentration is low. For example, the calling topic identification unit 12 may select topics so that the ratio of each topic matches the ratio of the concentration of each topic to the total topic-specific concentration. This makes it possible to provide students with many effective calls without excessive concentration on the same topic and while allowing the topic-specific concentration to be updated.

講義前タイミングについては、声かけ話題特定部12は、受講者90に提供された声かけの声かけ話題と、その声かけ話題による声かけの後の受講者90の講義に対応する集中判定結果情報とを集計してそれらの相関関係を算出し、その相関関係に基づいて、講義前タイミングに提供する声かけ話題を選択する。 For the pre-lecture timing, the call topic identification unit 12 aggregates the call topic provided to the student 90 and the concentration judgment result information corresponding to the lecture of the student 90 after the call based on the call topic, calculates the correlation between them, and selects the call topic to be provided for the pre-lecture timing based on the correlation.

例えば、嗜好話題として、講義前に野球の時事ネタの声かけをしたら、講義への集中度が高かったら、その後、講義前に野球の時事ネタの声かけの頻度を高めてもよい。また、講義前にネコに関する声かけをしたら、講義への集中度が高かったら、その後、講義前にネコに関する声かけの頻度を高めてもよい。講義前に食べ物に関する声かけをしたら、講義への集中度が高かったら、その後、講義前に食べ物に関する声かけの頻度を高めてもよい。 For example, if a student is asked about current events in baseball before a lecture as a topic of interest, and the student's level of concentration during the lecture is high, then the frequency of asking about current events in baseball before the lecture may be increased. Also, if a student is asked about cats before a lecture, and the student's level of concentration during the lecture is high, then the frequency of asking about cats before the lecture may be increased. If a student is asked about food before a lecture, and the student's level of concentration during the lecture is high, then the frequency of asking about food before the lecture may be increased.

講義後タイミングについては、声かけ話題特定部12は、受講者90の講義に対応する集中判定結果情報に基づいて、その講義の講義後タイミングに提供する声かけ話題を選択する。 For the post-lecture timing, the call topic identification unit 12 selects a call topic to be provided at the post-lecture timing of a lecture based on the concentration judgment result information corresponding to the lecture of the student 90.

<第3の実施形態>
第3の実施形態の学習支援システムは、アバター講師に対して受講者に合わせた人柄を設定し、その人柄に基づく声かけを行う。現実世界では、受講者が講師に好感や親近感を持っていると、受講者の講義への集中度や学習へのモチベーションが高まることが知られているが、アバター講師は現実の人間である講師とは異なるので、受講者がアバター講師に対する好感や親近感を持ちにくい。本実施形態では、アバター講師に人柄(パーソナリティ)を持たせることにより、受講者がアバター講師に好感や親近感を持ちやすやすくすることができる。
Third Embodiment
The learning support system of the third embodiment sets a personality for the avatar instructor that matches the student, and talks to the student based on that personality. It is known that in the real world, if a student likes or feels close to the instructor, the student's concentration in the lecture and motivation to study increases, but since an avatar instructor is different from an instructor who is a real person, it is difficult for the student to like or feel close to the avatar instructor. In this embodiment, by giving the avatar instructor a personality, it is possible to make the student more likely to like or feel close to the avatar instructor.

第3の実施形態の学習支援システムは、第1の実施形態のものと同様の構成および動作を有するので、以下では、主に第3の実施形態における第1の実施形態と異なる部分について説明する。 The learning support system of the third embodiment has the same configuration and operation as that of the first embodiment, so the following mainly describes the parts of the third embodiment that are different from the first embodiment.

第3の実施形態による学習支援システムの機能構成およびハードウェア構成は、それぞれ図1および図2に示した第1の実施形態のものと同様である。 The functional and hardware configurations of the learning support system according to the third embodiment are similar to those of the first embodiment shown in Figures 1 and 2, respectively.

第3の実施形態では、声かけ態様特定部13は、当該受講者90の受講者属性情報に基づいて、アバター講師に人柄を設定し、その人柄に基づく声かけ態様を特定する。それにより、声かけ出力部14から受講者90に提供される声かけは、設定された人柄のアバター講師による声かけとなる。人柄は、例えば、嗜好、性格、態度、しゃべり方などによって設定することができる。 In the third embodiment, the calling style identification unit 13 sets a personality for the avatar instructor based on the student attribute information of the student 90, and identifies a calling style based on the personality. As a result, the calling provided to the student 90 from the calling output unit 14 is a call from the avatar instructor with the set personality. The personality can be set, for example, based on preferences, character, attitude, speaking style, etc.

例えば、声かけ態様特定部13は、受講者90の受講者属性情報に基づいて、アバター講師に受講者90と類似する嗜好をもった人柄を設定し、その人柄に基づく声かけ態様を特定してもよい。これにより、受講者がアバター講師に対する親近感を感じやすくなる。 For example, the speaking style identification unit 13 may set the avatar instructor to have a personality with similar tastes to the student 90 based on the student attribute information of the student 90, and identify the speaking style based on that personality. This makes it easier for the student to feel a sense of closeness to the avatar instructor.

例えば、受講者がイヌ好きだったらアバター講師の人柄としてイヌ好きという嗜好を設定することが考えられる。そうすると、例えば、嗜好話題の声かけにおいては、イヌ好きのアバター講師がイヌの話題の声かけを行うこととなり、受講者はアバター講師に好感や親近感を持ちやすくなる。 For example, if a student is a dog lover, then it is conceivable to set a dog-loving preference as the personality of the avatar instructor. Then, when speaking to students about topics related to their preferences, the dog-loving avatar instructor will speak about dogs, and students will be more likely to feel a good impression and affinity towards the avatar instructor.

<付記>
以上、本発明の実施形態について述べてきたが、本発明は、これらの実施形態だけに限定されるものではなく、本発明の技術思想の範囲内において、これらの実施形態を組み合わせて使用したり、一部の構成を変更したりしてもよい。
<Additional Notes>
Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and these embodiments may be used in combination or some of the configurations may be changed within the scope of the technical concept of the present invention.

また、上述した実施形態には以下に示す事項が含まれている。ただし、上述した実施形態に含まれる事項が以下に示すものだけに限定されることはない。 The above-described embodiment also includes the following items. However, the items included in the above-described embodiment are not limited to those listed below.

(事項1)
講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する声かけタイミング特定部と、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、を有する学習支援システム。
(Item 1)
A learning support system in which a lecture consisting of video and audio is provided to students by an avatar lecturer, which is a virtual character modeled after a lecturer, comprising: a student attribute information storage unit which stores student attribute information, which is information relating to the attributes of the students; a call-out timing identification unit which identifies a specific timing in the provision of the lecture to the student as a call-out timing, which is a timing when the avatar lecturer speaks to the student by video and audio; a call-out topic identification unit which identifies a call-out topic, which is a topic of call to be provided at the call-out timing, based on the student attribute information and/or the call-out timing; a call-out style identification unit which identifies a call-out style, which is a style used for the call, based on the student attribute information; and a call-out output unit which outputs the call-out topic and the call-out style at the call-out timing.

これによれば、講義の提供に伴って、適切なタイミングに適切な態様によって適切な話題の声かけを行うので、受講者の学習効果を高める効果的な声かけが可能になる。 This allows for prompts on appropriate topics at appropriate times and in appropriate ways as the lecture is delivered, making it possible to provide effective prompts that improve the learning outcomes of students.

(事項2)
事項1に記載の学習支援システムにおいて、前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系である。これによれば、方言など特定の言語体系の言葉遣いで声かけが行われるので、効果的な声かけが可能となる。
(Item 2)
In the learning support system described in item 1, the calling style is a calling language system that is a language system used for calling. According to this, calling is performed in a language of a specific language system such as a dialect, so that effective calling can be performed.

(事項3)
事項2に記載の学習支援システムにおいて、前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、前記声かけ態様特定部は、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する。これによれば、受講者の地元の方言や好感を持った言葉遣いで声かけが行われるので、効果的な声かけが可能となる。
(Item 3)
In the learning support system described in item 2, the student attribute information includes information on the address of the student and information on a desired language system that is a language system desired by the student, and the calling style specification unit specifies the calling language system based on the address and the desired language system. This allows the student to be called out in a local dialect or in a favorable manner, making it possible to call out effectively.

(事項4)
事項2に記載の学習支援システムにおいて、前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、前記声かけ態様特定部は、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する。
(Item 4)
In the learning support system described in item 2, the student attribute information includes information on the student's address and information on the student's favorite animal, which is the student's favorite animal, and the calling language system is a combination of a dialect, which is a language system unique to each region, and animal words that add onomatopoeia that imitate animal sounds or mimetic words that imitate animal behavior to the end of words, and the calling manner identification unit identifies the calling language system based on the dialect determined from the address and the animal words determined from the student's favorite animal.

(事項5)
事項1に記載の学習支援システムにおいて、前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に人柄を設定し、前記人柄に基づく声かけ態様を特定する。これによれば、アバター講師に人柄(パーソナリティ)を持たせることにより、受講者がアバター講師に好感や親近感を持ちやすやすくすることができる。
(Item 5)
In the learning support system described in item 1, the addressing style specification unit sets a personality for the avatar instructor based on the student attribute information of the student, and specifies an addressing style based on the personality. By providing the avatar instructor with a personality, the student can easily feel a good impression and affinity for the avatar instructor.

(事項6)
事項5に記載の学習支援システムにおいて、前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する。これによれば、受講者がアバター講師に対する親近感を感じや少なる。
(Item 6)
In the learning support system described in item 5, the addressing style specification unit sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies an addressing style based on the personality. This makes the student feel closer to the avatar instructor.

(事項7)
事項1に記載の学習支援システムにおいて、前記声かけタイミング特定部は、前記講義の提供を開始する前のタイミングである講義前タイミングを、前記声かけタイミングとして特定する。これによれば、講義前のタイミングで適切な声かけを行うことにより、受講者のモチベーションや集中の度合いが高い状態で講義の提供を開始することがができる。
(Item 7)
In the learning support system described in item 1, the call timing specification unit specifies a pre-lecture timing, which is a timing before the start of the lecture, as the call timing. According to this, by making an appropriate call to the student at the pre-lecture timing, it is possible to start the lecture in a state where the student's motivation and concentration are high.

(事項8)
事項7に記載の学習支援システムにおいて、前記声かけ話題特定部は、前記講義前タイミングに提供する声かけ話題として、その後に提供される前記講義への前記受講者のモチベーションが高い声かけ話題を選択する。これによれば、講義前に受講者のモチベーションを効果的に高めることができる。
(Item 8)
In the learning support system described in item 7, the call topic identification unit selects, as the call topic to be provided at the pre-lecture timing, a call topic that highly motivates the students for the lecture to be provided thereafter. This makes it possible to effectively increase the motivation of the students before the lecture.

(事項9)
事項8に記載の学習支援システムにおいて、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部を更に有し、前記声かけ話題特定部は、前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する。これによれば、実際に測定された結果に基づいて効果の高い声かけを選択することが可能になる。
(Item 9)
The learning support system described in item 8 further comprises a concentration judgment unit that judges whether the student is concentrating on the lecture based on an image acquired to photograph the student attending the lecture and records concentration judgment result information based on the result of the judgment, and the calling topic identification unit selects a calling topic to be provided at the pre-lecture timing based on the relationship between the calling topic and the concentration judgment result information corresponding to the lecture after the calling based on the calling topic. This makes it possible to select a highly effective calling based on an actually measured result.

(事項10)
事項1に記載の学習システムにおいて、前記集中判定部は、前記声かけ話題のそれぞれについて声かけ後の講義に対する前記受講者の集中度を示す話題別集中度を算出し、前記声かけ話題特定部は、前記話題別集中度が高い話題の比率が前記話題別集中度が低い話題の比率よりも低くなるように、声かけ話題を選択する。これによれば、過度に同じ話題が集中することなくまた話題別集中度の更新も可能にしながら、受講者に効果の高い声かけを多く与えることが可能となる。
(Item 10)
In the learning system described in item 1, the concentration determination unit calculates a topic-specific concentration degree indicating the degree of concentration of the student on the lecture after the call for each of the call topics, and the call topic identification unit selects the call topic such that the ratio of topics with a high topic-specific concentration degree is lower than the ratio of topics with a low topic-specific concentration degree. This makes it possible to give the student many effective calls without excessive concentration on the same topic and while enabling the topic-specific concentration degree to be updated.

(事項11)
事項10に記載の学習システムにおいて、前記声かけ話題特定部は、前記声かけ話題のそれぞれの比率が、前記話題別集中度の合計値に対する前記声かけ話題の集中度の割合と一致させるように、声かけ話題を選択する。
(Item 11)
In the learning system described in item 10, the call-out topic identification unit selects call-out topics such that the ratio of each of the call-out topics matches the ratio of the concentration degree of the call-out topic to the total value of the concentration degrees by topic.

(事項12)
事項1に記載の学習支援システムにおいて、前記声かけタイミング特定部は、前記講義の提供を終了した後のタイミングである講義後タイミングを、前記声かけタイミングとして特定する。これによれば、講義後に適切な声かけを行うことにより、講義を受けた後の学習に対する受講者のモチベーションを高めることができる。
(Item 12)
In the learning support system described in item 1, the call-out timing specification unit specifies a post-lecture timing, which is a timing after the provision of the lecture, as the call-out timing. According to this, by making an appropriate call to the student after the lecture, it is possible to increase the student's motivation for learning after the lecture.

(事項13)
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、前記処理装置が、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定し、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する。
(Item 13)
A learning support method in which a lecture consisting of video and audio is provided to students by an avatar lecturer, which is a virtual character modeled after a lecturer, using a computer having a processing device and a storage device, wherein the storage device stores student attribute information, which is information relating to the attributes of the students, and the processing device identifies a specific timing in the provision of the lecture to the students as a calling timing, which is a timing at which the avatar lecturer speaks to the students using video and audio, identifies a calling topic, which is a topic of the calling to be provided at the calling timing, based on the student attribute information and/or the calling timing, identifies a calling manner, which is a manner to be used for the calling, based on the student attribute information, and outputs the calling topic and the calling manner at the calling timing.

10:学習支援システム、11:タイミング特定部、12:話題特定部、13:態様特定部、14:出力部、15:記憶部、16:集中判定部、19:講義出力部、20:サーバ、21:処理装置、22:メインメモリ、23:記憶装置、24:通信装置、25:入力装置、26:表示装置、27:バス、30:情報端末、31:カメラ、33:ブラウザ、90:受講者、D01:受講者属性情報、D02:講義前話題リスト、D03:講義後話題リスト 10: Learning support system, 11: Timing identification unit, 12: Topic identification unit, 13: Behavior identification unit, 14: Output unit, 15: Memory unit, 16: Concentration judgment unit, 19: Lecture output unit, 20: Server, 21: Processing device, 22: Main memory, 23: Storage device, 24: Communication device, 25: Input device, 26: Display device, 27: Bus, 30: Information terminal, 31: Camera, 33: Browser, 90: Student, D01: Student attribute information, D02: Pre-lecture topic list, D03: Post-lecture topic list

Claims (10)

講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、
前記声かけ態様特定部は、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する
習支援システム。
A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The calling style is a calling language system that is a language system used for calling,
The student attribute information includes address information of the student and information on a desired language system, which is a language system desired by the student,
the addressing style specification unit specifies the addressing language system based on the address and the desired language system .
Learning support system.
講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、
前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、
前記声かけ態様特定部は、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する
習支援システム。
A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The calling style is a calling language system that is a language system used for calling,
The student attribute information includes address information of the student and information on a favorite animal of the student, which is a favorite animal of the student,
The voice language system is a combination of a dialect, which is a language system peculiar to each region, and an animal language, which adds an onomatopoeia that imitates the sound of an animal or an onomatopoeia that imitates the action of an animal to the end of a word,
the calling style specification unit specifies the calling language system based on a dialect determined from the address and an animal word determined from the favorite animal ;
Learning support system.
講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する
習支援システム。
A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
the addressing style specification unit sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies an addressing style based on the personality .
Learning support system.
講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけタイミングは、前記講義の提供を開始する前のタイミングである講義前タイミングであり、
前記学習支援システムは、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部を更に有し、
前記声かけ話題特定部は、前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する
習支援システム。
A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The timing for calling out is a pre-lecture timing, which is a timing before the start of providing the lecture,
The learning support system further includes a concentration judgment unit that judges whether the student is concentrating on the lecture based on an image acquired to photograph the student attending the lecture, and records concentration judgment result information based on the result of the judgment,
The calling topic specification unit selects a calling topic to be provided at the pre-lecture timing based on a relationship between the calling topic and concentration determination result information corresponding to the lecture after the calling by the calling topic .
Learning support system.
前記集中判定部は、前記声かけ話題のそれぞれについて声かけ後の講義に対する前記受講者の集中度を示す話題別集中度を算出し、
前記声かけ話題特定部は、前記話題別集中度が高い話題の比率が前記話題別集中度が低い話題の比率よりも低くなるように、声かけ話題を選択する、
請求項に記載の学習支援システム。
the concentration determination unit calculates a topic-specific concentration degree indicating a concentration degree of the student on the lecture after the calling for each of the called topics,
the calling topic identification unit selects the calling topic such that a ratio of topics having a high topic-specific concentration degree is lower than a ratio of topics having a low topic-specific concentration degree.
The learning support system according to claim 4 .
前記声かけ話題特定部は、前記声かけ話題のそれぞれの比率が、前記話題別集中度の合計値に対する前記声かけ話題の集中度の割合と一致させるように、声かけ話題を選択する、
請求項に記載の学習支援システム。
the calling topic identification unit selects a calling topic such that a ratio of each of the calling topics matches a ratio of a concentration degree of the calling topic to a total value of the concentration degrees by topic.
The learning support system according to claim 5 .
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、A learning support method for providing a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer, using a computer having a processing device and a storage device, comprising:
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、The calling style is a calling language system that is a language system used for calling,
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、The student attribute information includes address information of the student and information on a desired language system, which is a language system desired by the student,
前記処理装置が、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する、the processing device identifies the speech language system based on the address and the desired language system;
学習支援方法。Learning support methods.
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、A learning support method for providing a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer, using a computer having a processing device and a storage device, comprising:
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、The calling style is a calling language system that is a language system used for calling,
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、The student attribute information includes address information of the student and information on a favorite animal of the student, which is a favorite animal of the student,
前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、The voice language system is a combination of a dialect, which is a language system peculiar to each region, and an animal language, which adds an onomatopoeia that imitates the sound of an animal or an onomatopoeia that imitates the action of an animal to the end of a word,
前記処理装置が、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する、the processing device specifies the voice-calling language system based on a dialect determined from the address and an animal word determined from the favorite animal;
学習支援方法。Learning support methods.
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、A learning support method for providing a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer, using a computer having a processing device and a storage device, comprising:
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記処理装置が、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する、the processing device sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies a manner of speaking to the student based on the personality;
学習支援方法。Learning support methods.
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、A learning support method for providing a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer, using a computer having a processing device and a storage device, comprising:
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information relating to attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけタイミングは、前記講義の提供を開始する前のタイミングである講義前タイミングであり、The timing for calling out is a pre-lecture timing, which is a timing before the start of providing the lecture,
前記処理装置が、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録し、The processing device judges whether the students are concentrating on the lecture based on an image acquired to photograph the students attending the lecture, and records concentration judgment result information based on the result of the judgment.
前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する、selecting a calling topic to be provided at the pre-lecture timing based on a relationship between the calling topic and concentration determination result information corresponding to the lecture after the calling by the calling topic;
学習支援方法。Learning support methods.
JP2023204249A 2023-12-01 2023-12-01 Learning support system and learning support method Active JP7466251B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023204249A JP7466251B1 (en) 2023-12-01 2023-12-01 Learning support system and learning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023204249A JP7466251B1 (en) 2023-12-01 2023-12-01 Learning support system and learning support method

Publications (1)

Publication Number Publication Date
JP7466251B1 true JP7466251B1 (en) 2024-04-12

Family

ID=90622449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023204249A Active JP7466251B1 (en) 2023-12-01 2023-12-01 Learning support system and learning support method

Country Status (1)

Country Link
JP (1) JP7466251B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220169A (en) 2003-01-10 2004-08-05 Omron Corp Learning community formation system
JP2007011389A (en) 2006-07-10 2007-01-18 Nova:Kk Education service system using communication channel and method of providing education service
WO2018147435A1 (en) 2017-02-09 2018-08-16 株式会社博報堂 Learning assistance system and method, and computer program
JP2022163854A (en) 2021-04-15 2022-10-27 大日本印刷株式会社 Education support device, education support method, and program
JP2023089080A (en) 2019-10-18 2023-06-27 株式会社フォーサイト Learning system, learning class providing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220169A (en) 2003-01-10 2004-08-05 Omron Corp Learning community formation system
JP2007011389A (en) 2006-07-10 2007-01-18 Nova:Kk Education service system using communication channel and method of providing education service
WO2018147435A1 (en) 2017-02-09 2018-08-16 株式会社博報堂 Learning assistance system and method, and computer program
JP2023089080A (en) 2019-10-18 2023-06-27 株式会社フォーサイト Learning system, learning class providing method and program
JP2022163854A (en) 2021-04-15 2022-10-27 大日本印刷株式会社 Education support device, education support method, and program

Similar Documents

Publication Publication Date Title
Van Weelden Relationships between perceptions of conducting effectiveness and ensemble performance
WO2021196614A1 (en) Information interaction method, interaction apparatus, electronic device and storage medium
CN107391521A (en) Expand message exchange topic automatically based on message category
JP2003514257A (en) Method and apparatus for language training
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
Pickel et al. A cross-modal weapon focus effect: The influence of a weapon's presence on memory for auditory information
TW202145775A (en) Online meeting system
US20120070808A1 (en) Teaching system combining live and automated instruction
JP2003216564A (en) Communication supporting method, communication server using therefor and communication supporting system
JP7466251B1 (en) Learning support system and learning support method
JP2002530724A (en) Apparatus and method for training with an interpersonal interaction simulator
Ribble et al. Teaching digital citizenship: when will it become a priority for 21st century schools
CN112364478A (en) Virtual reality-based testing method and related device
Rajagopalan Misogyny, solidarity and postfeminism on social media: The work of being Diana Shurygina, survivor-celebrity
JP2006235671A (en) Conversation device and computer readable record medium
Roux et al. The commodification of women’s empowerment: The case of Vagina Varsity
JP7072761B2 (en) Pseudo-chat device, pseudo-chat execution method and program
WO2013156828A1 (en) Method and system for creating and sharing interactive video portraits
KR20120031373A (en) Learning service system and method thereof
JP7495699B1 (en) Learning support system and learning support method
WO2021064947A1 (en) Interaction method, interaction system, interaction device, and program
CN116741143B (en) Digital-body-based personalized AI business card interaction method and related components
JP7458528B1 (en) Information processing device, information processing method, and program
JP7496128B2 (en) Virtual person dialogue system, image generation method, and image generation program
US20170124889A1 (en) Management apparatus, method, and computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231204

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7466251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150