JP2022120500A - Learning support system, learning support method, and program - Google Patents
Learning support system, learning support method, and program Download PDFInfo
- Publication number
- JP2022120500A JP2022120500A JP2021017427A JP2021017427A JP2022120500A JP 2022120500 A JP2022120500 A JP 2022120500A JP 2021017427 A JP2021017427 A JP 2021017427A JP 2021017427 A JP2021017427 A JP 2021017427A JP 2022120500 A JP2022120500 A JP 2022120500A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- information
- display screen
- unit
- learner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、学習支援システム、学習支援方法、及びプログラムに関するものである。 The present invention relates to a learning support system, a learning support method, and a program.
従来、タブレット端末を用いて、小学生等の学習対象者の自立した学習を支援する学習支援端末が提案されている(例えば、特許文献1参照)。
また、近年、学校等の教育機関において、ICT(Information and Communication Technology)化が進み、ノートPCやタブレット端末などの情報処理装置を用いた学習環境が急速に整備されつつある。
BACKGROUND ART Conventionally, a learning support terminal has been proposed that uses a tablet terminal to support independent learning of a student such as an elementary school student (see, for example, Patent Literature 1).
Moreover, in recent years, educational institutions such as schools have become increasingly ICT (Information and Communication Technology), and learning environments using information processing devices such as notebook PCs and tablet terminals are being rapidly established.
ドリル教材などの学習では、正解よりもむしろ不正解の問題が重要であり、児童が問題にどのように取り組んだのかを保護者や教師がチェックすることで学習効果が高まる。しかしながら、自習では、教師や保護者が児童の勉強の場にいないため、不正解の問題に対してどのように児童が苦労したのかをチェックすることが難しい。
また、自習の後に、児童が教師や保護者に対して、不正解だった問題のどのような点が難しかったのかをうまく説明できればよいが、未就学児や小学生などは言語能力が十分でない場合があり、そのような説明が難しい可能性がある。
In learning materials such as drills, the problem of incorrect answers is more important than the correct answer, and the learning effect increases when parents and teachers check how children dealt with problems. However, in self-study, it is difficult to check how the children struggled with the incorrect answers because the teachers and parents were not present when the children were studying.
Also, after self-study, it would be nice if the child could explain to the teacher or guardian what aspects of the questions that were answered incorrectly were difficult, but preschoolers and elementary school students may not have sufficient language skills. , and such an explanation may be difficult.
本発明は、このような事情に鑑みてなされたものであって、児童等の学習者の自習効果を高めることのできる学習支援システム、学習支援方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and aims to provide a learning support system, a learning support method, and a program that can enhance the self-study effect of learners such as children.
本発明の第1態様は、学習コンテンツが表示画面に表示された状態で学習者が発話した音声データを取得する音声データ取得部と、発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する学習情報作成部と、前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる表示制御部とを備える学習支援システムである。 A first aspect of the present invention includes a speech data acquisition unit that acquires speech data uttered by a learner while learning content is displayed on a display screen; a learning information creation unit that creates learning information in which the learning content, a specific position on the learning content, and the audio data of the utterance are associated with each other; A learning support system comprising: a display control unit for displaying learning content on the display screen and for displaying an icon for reproducing the audio data at a position on the display screen corresponding to a specific position based on the learning information. .
本発明の第2態様は、学習コンテンツが表示画面に表示された状態で学習者が発話した音声データを取得する工程と、発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する工程と、前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる工程とをコンピュータが実行する学習支援方法である。 A second aspect of the present invention includes a step of acquiring voice data uttered by a learner while learning content is displayed on a display screen, and a learning content displayed on the display screen when the utterance is performed. creating learning information in which a specific position on the learning content and the audio data of the utterance are associated with each other; and displaying the learning content based on the learning information on the display screen when an instruction to request the learning information is received. and displaying an icon for reproducing the audio data at a position on the display screen corresponding to the specific position based on the learning information.
本発明の第3態様は、コンピュータを上記学習支援システムとして機能させるためのプログラムである。 A third aspect of the present invention is a program for causing a computer to function as the learning support system.
本発明の第4態様は、学習コンテンツが表示画面に表示された状態で学習者が発話した音声データを取得する音声データ取得部と、発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する学習情報作成部とを備える情報処理装置である。 A fourth aspect of the present invention is a voice data acquisition unit that acquires voice data uttered by a learner while learning content is displayed on a display screen, and a voice data acquisition unit that acquires voice data uttered by a learner while the learning content is displayed on the display screen. a learning content, a specific position on the learning content, and a learning information creation unit that creates learning information in which the audio data of the utterance are associated with each other.
本発明の第5態様は、他の情報処理装置又はサーバと接続可能に構成された情報処理装置であって、学習コンテンツが表示画面に表示された状態で学習者が発話した音声データ、該学習コンテンツ、及び該学習コンテンツ上における特定位置が互いに関連付けた学習情報を、前記他の情報処理装置又は前記サーバから取得する学習情報取得部と、前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる表示制御部とを備える情報処理装置である。 A fifth aspect of the present invention is an information processing apparatus configured to be connectable to another information processing apparatus or a server, wherein speech data uttered by a learner while learning content is displayed on a display screen; a learning information acquisition unit that acquires content and learning information in which specific positions on the learning content are associated with each other from the other information processing device or the server; a display control unit for displaying learning content based on the information on the display screen and displaying an icon for reproducing the audio data at a position on the display screen corresponding to a specific position based on the learning information. It is a device.
本発明によれば、学習者の自習効果を高めることができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, there exists an effect that a learner's self-study effect can be improved.
以下に、本発明に係る学習支援システム、学習支援方法、及びプログラムの一実施形態について、図面を参照して説明する。図1は、本発明の一実施形態に係る学習支援システム1の全体構成を概略的に示したシステム構成図である。
An embodiment of a learning support system, a learning support method, and a program according to the present invention will be described below with reference to the drawings. FIG. 1 is a system configuration diagram schematically showing the overall configuration of a
図1に示すように、学習支援システム1は、学習支援サーバ10、学習者用端末2、及び教師用端末3を備えている。以下の説明において、学習者用端末2は、児童等の学習者が使用する装置であり、教師用端末3は、学習者の学習を支援する者、例えば、教師や保護者等が使用する装置である。
As shown in FIG. 1 , the
図1において、1台の学習者用端末2及び1台の教師用端末3が図示されているが、台数はこの例に限定されるものではない。
Although one learner's
学習者用端末2及び教師用端末3は、ネットワーク5を介して学習支援サーバ10と互いに通信可能に接続され、情報の送受信が可能な構成とされている。ネットワーク5の一例としてインターネット回線が挙げられるが、他のネットワーク回線であってもよい。
The learner's
図2は、本発明の一実施形態に係る学習支援サーバ10のハードウェア構成の一例を示した概略構成図である。図2に示すように、学習支援サーバ10は、例えば、CPU11、CPU11が実行するプログラム及びこのプログラムにより参照されるデータ等を記憶するための記憶部12、各プログラム実行時のワーク領域として機能するメインメモリ13、ネットワークに接続するための通信部14を主な構成として備えている。また、学習支援サーバ10は、更に、入力部15、表示部16等を備えていてもよい。これら各部は、例えば、バスを介して接続されている。記憶部12の一例として、HDD(Hard Disk Drive)などの磁気ディスク、光磁気ディスク、SSD(Solid State Drive)等の半導体メモリ等が挙げられる。
FIG. 2 is a schematic configuration diagram showing an example of the hardware configuration of the
後述する各種機能を実現するための一連の処理は、一例として、プログラム(例えば、授業支援プログラム)の形式で記憶部12に記憶されており、このプログラムをCPU11がメインメモリ13に読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。なお、プログラムは、記憶部12に予めインストールされている形態や、他のコンピュータ読み取り可能な記憶媒体に記憶された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等が適用されてもよい。コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等である。
A series of processes for realizing various functions to be described later are stored in the
学習者用端末2は、例えば、ノートPC、デスクトップ型PC、タブレット端末、スマートフォン等の情報処理装置である。図3に学習者用端末2のハードウェア構成の一例を示す。
The learner's
図3に示すように、学習者用端末2は、例えば、CPU21、メインメモリ22、記憶部23、通信部24、入力部25、表示部26、マイクロフォン(以下「マイク」という。)27、スピーカ28等を備えている。これら各部は直接的にまたはバスを介して間接的に相互に接続されており互いに連携して各種処理を実行する。
As shown in FIG. 3, the learner's
CPU21は、例えば、バスを介して接続された記憶部23に格納されたOS(Operating System)により学習者用端末2全体の制御を行うとともに、記憶部23に格納された各種プログラムを実行することにより各種処理を実行する。
For example, the
メインメモリ22は、キャッシュメモリ、RAM(Random Access Memory)等の書き込み可能なメモリで構成され、CPU21の実行プログラムの読み出し、実行プログラムによる処理データの書き込み等を行う作業領域として利用される。
The
記憶部23は、例えば、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等であり、例えば、Windows(登録商標)、Android(登録商標)、iOS(登録商標)等の学習者用端末2全体の制御を行うためのOS、周辺機器類をハードウェア操作するための各種デバイスドライバ、特定業務に向けられたアプリケーション、及び各種データやファイル等を格納する。また、記憶部23には、後述する学習支援システム1を実現するためのプログラムや、各種処理を実現するために必要とされる各種データが格納されている。
The
すなわち、後述する各種機能を実現するための一連の処理は、一例として、プログラム(例えば、学習支援プログラム)の形式で記憶部23に記憶されており、このプログラムをCPU21がメインメモリ22に読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。なお、プログラムは、記憶部23に予めインストールされている形態や、他のコンピュータ読み取り可能な記憶媒体に記憶された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等が適用されてもよい。コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等である。
That is, a series of processes for realizing various functions to be described later are stored in the
通信部24は、例えば、ネットワーク5に接続して他の装置と通信を行い、情報の送受信を行うためのインターフェースとして機能する。
入力部25は、例えば、キーボード、マウス、タッチパネル等、ユーザが学習者用端末2に対して指示を与えるためのユーザインターフェースである。
表示部26は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)等で構成される表示画面を有し、学習者用端末2によって実行されたアプリケーションソフトウェアプログラムの結果等を表示するものである。
The
The
The
マイク27は、音声を電気信号に変換して出力する。スピーカ28は、音声データを音として出力する。
The
教師用端末3は、上述した学習者用端末2と同様に、例えば、ノートPC、デスクトップ型PC、タブレット端末、スマートフォン等の情報処理装置である。図4に教師用端末3のハードウェア構成の一例を示す。図4に示すように、教師用端末3は、上述した学習者用端末2とほぼ同様の構成とされている。すなわち、教師用端末3は、例えば、CPU31、メインメモリ32、記憶部33、通信部34、入力部35、表示部36、マイク37、及びスピーカ38等を備えている。これら各部は直接的にまたはバスを介して間接的に相互に接続されており互いに連携して各種処理を実行する。なお、各部の詳細については、上述した通りであるから、ここでの説明は省略する。
The teacher's
図5は、本実施形態に係る学習支援システム1が備える機能のうち、学習者用端末2が備える機能の一例を示した機能ブロック図である。
FIG. 5 is a functional block diagram showing an example of functions provided in the learner's
図5に示すように、学習者用端末2は、例えば、表示制御部41、音声データ取得部42、位置特定部43、音声データ解析部44、音声出力部45、学習情報作成部46、リスト作成部47、及び学習情報記憶部48等を備えている。
As shown in FIG. 5, the
表示制御部41は、例えば、ユーザが所望する学習コンテンツを表示画面に表示させる。学習コンテンツは、例えば、学習支援サーバ10から所定のタイミングでダウンロードすることにより取得する。なお、学習コンテンツの取得方法や表示方法については公知の技術であるので、詳細な説明は省略する。
The
音声データ取得部42は、学習コンテンツが表示画面に表示された状態で、学習者が発話した音声データを取得する。例えば、学習者が発話した音は、マイク27(図3参照)によって音声信号に変換され、音声データ取得部42に入力される。
The voice
位置特定部43は、学習者による発話が行われたときに、その発話が表示画面に表示されている学習コンテンツのうちのどの箇所に関連するものかを特定する。そして、その箇所を特定位置として特定する。
The
例えば、学習者が問題を解いているときに、問題が難しくて解けない場合などには、「うーん」、「えーっと」、「難しいな」などの言葉を発することがある。このような発話は、現在解いている問題に関連する発話である可能性が高い。したがって、例えば、位置特定部43は、表示画面に表示されている学習コンテンツの学習進捗状態に基づいて特定位置を特定する。これにより、現在解いている問題が表示されている位置が特定位置として特定される。なお、位置特定部43による特定位置の特定手法についてはこの例に限定されない。
For example, when a learner is solving a problem, if the problem is too difficult to solve, the learner may utter words such as "hmm", "um", "that's difficult". Such utterances are likely to be utterances related to the problem currently being solved. Therefore, for example, the
例えば、問題を解いている際、学習者はわからない箇所をペンで指している可能性が高い。そのため、例えば、位置特定部43は、発話が行われたときに、ペン等の入力部25(図3参照)によって指示されている表示画面上の位置を特定位置として特定することとしてもよい。
For example, when solving a problem, there is a high possibility that the learner points with a pen to a part that they do not understand. Therefore, for example, the
また、例えば、学習者の視線を検知する視線検知部(図示略)を備え、学習者の発話が行われたときに、表示画面上における視線位置を特定位置として特定することとしてもよい。 Further, for example, a line-of-sight detection unit (not shown) that detects the line-of-sight of the learner may be provided, and the line-of-sight position on the display screen may be specified as the specific position when the learner speaks.
音声データ解析部44は、音声データ取得部42によって取得された音声データを解析して、学習者が発話した内容を区分けする。例えば、音声データ解析部44は、音声データを解析し、学習者が発した言葉が質問か、質問以外の内容かを区分けする。また、質問以外の内容については、質問以外の何らかの意味のある内容なのか、それとも意味を持たない内容なのかを更に区分けすることとしてもよい。
The speech
質問か否かは、例えば、質問としてよく用いられる語尾や言葉の特徴を予め登録しておき、それらの言葉と音声認識結果とをマッチングすることにより、判定することが可能である。また、このような発話の内容の区分けについては、音声認識等の公知の技術を採用することで実現することが可能である。 Whether or not a question is a question can be determined by, for example, registering in advance the endings of words and the characteristics of words that are often used as questions, and matching those words with the speech recognition result. In addition, it is possible to realize such classification of the contents of the utterance by adopting a known technology such as speech recognition.
また、例えば、発話の音声データをテキスト化し、所定の文字数内(例えば、5文字以内)であれば質問以外の内容であると判定することとしてもよい。
また、質問を行うときに学習者が操作するボタン等を学習者用端末2に設けておき、そのボタンが操作されている期間に発話された場合には、その発話に対応する音声データは、質問の内容であると判定することとしてもよい。上記「ボタン」は、物理的に学習者用端末2に設けられていてもよいし、表示画面に表示されるボタンであってもよい。
Further, for example, voice data of utterance may be converted into text, and if it is within a predetermined number of characters (for example, within 5 characters), it may be determined that the content is other than a question.
In addition, if a button or the like that the learner operates when asking a question is provided on the learner's
音声出力部45は、音声データ解析部44によって発話の内容が質問以外の内容であると区分けされた場合に、学習者に対して問いかけの音声を出力する。例えば、学習者が「うーん」、「むずかしいな」、「わからないな」等の発話を行った場合には、音声出力部45は、「何かわからないことはありますか?」などの問いかけを行う定型の音声をスピーカ28(図3参照)から出力するようにしてもよい。
The
また、音声出力部45は、問題を解くのに予め設定されている基準時間以上の時間を要している場合に、上述したような問いかけのメッセージをスピーカ28から出力するようにしてもよい。
このように、学習者に対して問いかけを行うことにより、更なる発話を促すことができ、学習者の考えをより深いところまで引き出すことが可能となる。
In addition, the
By asking questions to the learner in this way, it is possible to encourage further utterances and draw out the learner's thoughts more deeply.
学習情報作成部46は、学習者によって発話が行われたときに、表示画面に表示されていた学習コンテンツの情報、該学習コンテンツ上における特定位置、及び発話の音声データを互いに関連付けた学習情報を作成する。
The learning
例えば、学習情報作成部46は、学習者によって発話が行われたときの表示画面を静止画像として保存し、更に、その静止画像における特定位置、及び発話の音声データを関連付けた学習情報を作成する。なお、表示画面の静止画像に代えて、表示画面に表示されている学習コンテンツを特定する情報を用いて学習情報を作成することとしてもよい。
For example, the learning
また、学習情報作成部46は、学習情報に、音声データ解析部44による発話の区分け結果である区分情報を更に含めることとしてもよい。また、学習情報作成部46は、学習情報に、学習を行った日時情報、場所情報等を含めることとしてもよい。
学習情報作成部46は、作成した学習情報を学習情報記憶部48に保存する。
Further, the learning
The learning
また、学習情報作成部46によって学習情報が作成されると、表示制御部41は、作成された学習情報に基づいて現在表示中の表示画面の特定位置に音声データを再生するためのアイコンを表示させてもよい。この表示画面は、例えば、後述する図8に示すようなものとなる。
また、この場合、学習者によって所定の入力操作が行われた場合には、アイコンを削除できる構成としてもよい。更に、学習者によってアイコンが削除された場合には、そのアイコンに関連する学習情報を学習情報記憶部48から削除することとしてもよい。
Further, when learning information is created by the learning
In this case, the icon may be deleted when the learner performs a predetermined input operation. Furthermore, when an icon is deleted by a learner, learning information related to that icon may be deleted from the learning
リスト作成部47は、学習情報作成部46によって作成された学習情報の一覧情報を作成する。例えば、一覧情報には、学習情報が作成された日時、学習コンテンツを特定するための情報、当該学習情報を特定するための情報(例えば、当該学習情報へのリンク情報)等が登録される。リスト作成部47によって作成された一覧情報は、学習情報記憶部48に格納される。また、既に、学習情報記憶部48に一覧情報が保存されていた場合には、リスト作成部47は、保存されている一覧情報に新たな学習情報の情報を追加することにより、一覧情報を更新する。
The
次に、上述した学習者用端末2によって実行される学習支援処理について簡単に説明する。
例えば、図6に示すような学習コンテンツが表示画面に表示されている場合に、学習者が「うーん」と発話した場合には、マイク27(図3参照)によってその発話が音声データに変換され、音声データ取得部42によって取得される。音声データ解析部44は、この「うーん」という音声データを解析し、区分けを行う。この結果、音声データ解析部44によって質問以外の内容であると判定された場合には、音声出力部45によって、「何かわからないことはありますか?」などの定型の音声が出力され、学習者に対して問いかけが行われる。
Next, the learning support processing executed by the learner's
For example, when the learning content as shown in FIG. 6 is displayed on the display screen, if the learner utters "hmm", the utterance is converted into voice data by the microphone 27 (see FIG. 3). , is acquired by the voice
この問いかけに対して、学習者が「4本あたりってなに?」と発話した場合には、上述した同様の処理が行われるとともに、音声データ解析部44によって質問と区分けされる。
学習情報作成部46は、音声データ解析部44によって質問と区分けされた場合に、当該発話に互いに関連する一連の発話に関する音声データ、すなわち、「うーん」及び「4本あたりってなに?」という音声データ、図6に示される学習コンテンツの情報、並びに表示画面における特定位置(例えば、ペンが指し示している入力位置)が関連付けられた学習情報が学習情報作成部46によって作成され、学習情報記憶部48に保存される。
In response to this question, when the learner utters "What is 4 hits?"
When the speech
上記のように、発話の内容が互いに関連している場合、例えば、「うーん」、「むずかしいな」、「わからないな」等の発話を行った場合に、音声出力部45から定型の問いかけ音声、例えば、「何かわからないことはありますか?」が発せられ、その問いかけに回答する形で発話(特に、質問)が再び行われた場合には、これらの発話は関連性があるとみなすことがある。このように、例えば、定型の音声を挟んで前後に入力された発話は互いに関連するとみなして、一つの学習情報にこれら複数の音声データを含めることとしてもよい。
As described above, when the contents of the utterances are related to each other, for example, when uttering "Hmm", "It's difficult", "I don't understand", etc., the
また、上記のように、発話の関連付けを行わずに、発話が行われる毎に、それぞれ学習情報を作成することとしてもよい。 Further, as described above, learning information may be created each time an utterance is made without associating the utterances.
なお、学習情報に含まれる音声データには、学習者に対する問いかけの定型の音声である「何かわからないことはありますか?」との音声データが含まれてもよい。
このようにして、学習情報が作成されると、リスト作成部47によって、当該学習情報が学習情報記憶部48に保存されている一覧情報に追加され、一覧情報が更新される。
The speech data included in the learning information may include speech data of "Is there anything you don't understand?"
When the learning information is created in this manner, the learning information is added to the list information stored in the learning
学習者用端末2は、例えば、所定のタイミングで、学習情報記憶部48に保存された学習情報及び一覧情報をネットワーク5を介して学習支援サーバ10へ送信する。このとき、学習者用端末2は、学習者用端末2の学習者を識別するための情報、例えば、アカウント情報を学習情報及び一覧情報に付加して送信する。これにより、学習支援サーバ10は、アカウント情報毎に、学習情報及び一覧情報を管理することが可能となる。
The learner's terminal 2 transmits the learning information and the list information stored in the learning
次に、学習支援サーバ10について図7を参照して説明する。図7は、学習支援システム1のうち、学習支援サーバ10及び教師用端末3が備える機能の一例を示した機能ブロック図である。
図7に示すように、学習支援サーバ10は、例えば、学習コンテンツデータベース51、学習コンテンツ配信部52、学習情報記憶部53、学習情報管理部54等を備えている。
学習コンテンツデータベース51には、多数の学習コンテンツが格納されている。
学習コンテンツ配信部52は、所定のタイミング又は学習者用端末2からの要求に応じて、学習コンテンツデータベース51に格納されている学習コンテンツをネットワーク5を介して学習者用端末2に送信する。また、学習コンテンツ配信部52は、同様に、学習コンテンツをネットワーク5を介して教師用端末3に送信してもよい。
Next, the
As shown in FIG. 7, the
The learning
The learning
学習情報記憶部53には、学習者用端末2から受信した学習情報及び一覧情報が関連付けられて格納されている。
学習情報管理部54は、ネットワーク5を介して学習者用端末2から受信した学習情報及び一覧情報を学習情報記憶部53に格納する。各学習情報及び一覧情報には、アカウント情報が付加されているため、学習情報管理部54は、アカウント情報に基づいて学習情報を管理することが可能となる。
The learning
The learning
また、学習情報管理部54は、教師用端末3から学習情報の配信要求を受信すると、配信要求に該当する学習情報を学習情報記憶部53から抽出し、抽出した学習情報を教師用端末3へ送信する。例えば、配信要求には、アカウント情報及び学習コンテンツを特定するためのコンテンツ情報が含まれている。また、配信要求には、コンテンツ情報に代えて、学習期間が含まれていてもよい。例えば、令和2年12月25日から令和3年1月7日が指定された場合には、学習情報管理部54は、アカウント情報で特定される学習情報のうち、その期間に該当する日時情報を有する学習情報を学習情報記憶部53から抽出し、抽出した学習情報を教師用端末3へ送信する。
Further, upon receiving a learning information distribution request from the
また、学習情報管理部54は、教師用端末3から一覧情報の配信要求を受信すると、配信要求に該当する一覧情報を学習情報記憶部53から抽出し、抽出した一覧情報を教師用端末3へ送信する。例えば、一覧情報の送信要求には、アカウント情報が含まれている。また、一覧情報の配信要求に、学習期間及び学習コンテンツを特定するための情報の少なくともいずれか一方が含まれていた場合には、一覧情報の中から配信要求に該当する情報のみを抽出し、抽出した情報からなる一覧情報を教師用端末3に送信する。
Further, upon receiving a list information distribution request from the
次に、図7を参照して教師用端末3が備える機能について説明する。図7に示すように、教師用端末3は、学習情報要求部61、学習情報取得部62、表示制御部63、及び音声再生部64等を備える。
Next, functions of the teacher's
学習情報要求部61は、入力部35(図4参照)から学習情報の要求指示が入力された場合に、入力情報に基づいて学習情報の配信要求を作成し、これを学習支援サーバ10に送信する。入力部35からは、例えば、アカウント情報、学習期間に関する情報、学習コンテンツを特定するための情報等が学習情報の要求指示とともに入力される。
When an instruction to request learning information is input from the input unit 35 (see FIG. 4), the learning
また、学習情報要求部61は、入力部35から一覧情報の要求指示が入力された場合に、入力情報に基づいて一覧情報の配信要求を作成し、これを学習支援サーバ10に送信する。入力部35からは、例えば、アカウント情報が一覧情報の要求指示とともに入力される。また、学習期間に関する情報や学習コンテンツを特定するための情報等が更に入力されてもよい。
Further, when a list information request instruction is input from the
学習情報取得部62は、学習支援サーバ10から送信された学習情報や一覧情報を受信する。
表示制御部63は、学習情報取得部62によって受信された学習情報や一覧情報に基づく表示を行う。例えば、学習情報取得部62によって学習情報が取得された場合には、学習情報に含まれる学習コンテンツを表示部36の表示画面に表示させる。この学習コンテンツは、学習情報に含まれていた学習コンテンツの静止画であってもよい。また、教師用端末3内に学習情報に含まれている学習コンテンツと同一の学習コンテンツが保存されている場合には、教師用端末3内に保存されている学習コンテンツを読み出して、表示画面に表示させてもよい。また、教師用端末3は、学習情報に含まれている学習コンテンツの配信を学習支援サーバ10に対して要求することにより、学習支援サーバ10から当該学習コンテンツの配信を受け、これを表示画面に表示することとしてもよい。
The learning
The
また、表示制御部63は、学習情報に基づく特定位置に対応する表示画面上の位置に、学習情報に含まれる音声データを再生させるためのアイコンを表示させる。例えば、表示制御部63は、表示画面に表示されている学習コンテンツにおいて、学習者によって発話が行われたときの特定位置に対応する位置にアイコンを表示させる。
Also, the
このとき、表示制御部63は、学習情報に含まれる音声データの区分情報に基づいて、アイコンの表示態様を変えてもよい。これにより、教師用端末3のユーザである保護者や教師等は、アイコンを見ただけで、質問が録音されているのか、質問以外の音声が録音されているのかを容易に確認することができる。また、一つの学習情報に、質問の音声データと質問以外の音声データとが関連付けられている場合には、例えば、質問に対応する表示態様でアイコンを表示させることとしてもよいし、上記以外の他の表示態様でアイコンを表示させることとしてもよい。
異なる表示態様の一例として、例えば、アイコンの色を変えたり、アイコン自体を変えたりすることが挙げられる。
At this time, the
Examples of different display modes include changing the color of the icon and changing the icon itself.
図8は、学習情報に基づく表示画面の一例を示した図である。このように、表示制御部63は、学習情報の要求指示を受け付けた場合に、要求指示を受けた学習情報で特定される学習コンテンツを表示部36の表示画面に表示するとともに、学習情報に含まれる特定位置に相当する表示画面上の位置にアイコン70を表示させる。
FIG. 8 is a diagram showing an example of a display screen based on learning information. In this way, when receiving an instruction to request learning information, the
なお、同じ学習コンテンツに対して複数の学習情報が存在する場合には、表示画面上に複数のアイコン70が表示されることとなる。このような場合、アイコン70が重畳して表示されたりする可能性があったり、アイコン70に邪魔されて問題文が見えづらいなどの不都合が生じる場合がある。このような場合を想定して、例えば、表示画面にアイコン70を非表示にする機能(例えば、ボタン)を設け、この機能が操作された場合に(例えば、ボタンがクリックされた場合に)、アイコン70を非表示にするような構成としてもよい。また、音声データの区分毎に非表示/表示を切り替えることが可能な構成としてもよい。これにより、例えば、質問に関するアイコン70のみを表示させることが可能となる。
In addition, when a plurality of pieces of learning information exist for the same learning content, a plurality of
また、例えば、学習情報取得部62(図7参照)によって一覧情報が取得された場合には、表示制御部63は、一覧情報を表示部36の表示画面に表示させる。このとき、一覧情報に記載された各学習情報に対応する位置には、その学習情報に含まれている音声データを再生するためのアイコンを表示させる。
Further, for example, when list information is acquired by the learning information acquisition unit 62 (see FIG. 7), the
また、表示制御部63は、学習情報に含まれる音声データの区分情報に基づいて、アイコンの表示態様を変えてもよい。これにより、教師用端末3のユーザである保護者や教師等は、アイコンを見ただけで、質問が録音されているのか、質問以外の音声が録音されているのかを容易に確認することができる。
Moreover, the
また、一覧情報として表示されている学習情報を指定することで、自動的に指定された学習情報の要求指示が入力されるような構成としてもよい。これにより、教師用端末3のユーザは、一覧情報として表示されているいずれかの学習情報を指定することで、その学習情報に基づく表示を表示画面にさせることが可能となる。
Further, by designating learning information displayed as list information, a configuration may be adopted in which a request instruction for the designated learning information is automatically input. As a result, the user of the teacher's
音声再生部64は、表示画面において、アイコン70がクリックされたときに、そのアイコンに関連付けられている学習情報に含まれる音声データを再生する。これにより、例えば、図8におけるアイコン70がクリックされた場合には、例えば、「うーん」、「何かわからないことはありますか?」、「4本あたりってなに?」との音声が出力されることとなる。これにより、教師用端末3のユーザは、この学習コンテンツにおいて、学習者がどのような点が難しかったのかを理解することができる。
When the
次に、上述した学習支援サーバ10及び教師用端末3によって実行される学習支援処理について簡単に説明する。
例えば、教師用端末3において、ユーザが入力部35(図4参照)を操作して、所望の学習情報を要求するために必要となる各種情報を入力し、学習情報の要求指示を行うと、その入力情報に基づく学習情報の配信要求がネットワーク5を介して学習支援サーバ10に送信される。
Next, the learning support processing executed by the
For example, in the teacher's
学習支援サーバ10において、学習情報管理部54は、学習情報の配信要求を受信すると、該当する学習情報を学習情報記憶部53から抽出し、抽出した学習情報を教師用端末3に送信する。
In the
学習情報は、教師用端末3の学習情報取得部62によって取得され、取得した学習情報に基づく表示が表示制御部63によりなされる。これにより、例えば、図8に示すような画面が表示部36に表示される。この表示画面において、アイコン70がクリックされると、音声再生部64によってアイコンに関連付けられた音声データが再生される。
The learning information is acquired by the learning
また、教師用端末3において、ユーザが入力部35を操作して、所望の一覧情報を要求するために必要となる各種情報を入力し、一覧情報の要求指示を行うと、その入力情報に基づく一覧情報の配信要求がネットワーク5を介して学習支援サーバ10に送信される。
In the teacher's
学習支援サーバ10において、学習情報管理部54は、一覧情報の配信要求を受信すると、該当する一覧情報を学習情報記憶部53から抽出し、抽出した一覧情報を教師用端末3に送信する。
In the
一覧情報は、教師用端末3の学習情報取得部62によって取得され、取得した一覧情報に基づく表示が表示制御部63によりなされる。これにより、例えば、表示部36の表示画面には、一覧情報が表示される。この表示画面において、アイコンがクリックされると、音声再生部64によってアイコンに関連付けられた音声データが再生される。
The list information is acquired by the learning
また、この一覧情報が表示された場面において、入力部35(図4参照)が操作され、学習情報が指定されて、要求指示が行われた場合には、指定された学習情報の配信要求がネットワーク5を介して学習支援サーバ10に送信されることとなる。
Further, when the input unit 35 (see FIG. 4) is operated in the scene where the list information is displayed, learning information is specified and a request instruction is issued, a distribution request for the specified learning information is issued. It will be transmitted to the
以上説明してきたように、本実施形態に係る学習支援システム1、学習支援方法、及びプログラムによれば、以下のような効果を奏する。
As described above, the
本実施形態に係る学習支援システム1によれば、学習者用端末2において、例えば、学習コンテンツが表示画面に表示された状態で、学習者による発話が行われた場合には、その発話の音声データ、表示部26の表示画面に表示されている学習コンテンツ、及び該学習コンテンツ上における特定位置が互いに関連付けた学習情報が作成され、保存される。また、この学習情報は、所定のタイミングで学習支援サーバ10へ送信され、学習支援サーバ10において保存、管理される。
According to the
また、教師用端末3において、学習情報の要求指示が入力された場合には、要求指示を受けた学習情報を学習支援サーバ10から取得し、取得した学習情報に基づく表示が表示部36になされる。この表示画面では、例えば、図8に示すように、取得した学習情報に基づく学習コンテンツが表示されるとともに、表示画面上において、特定位置に相当する位置に音声データを再生させるためのアイコン70が表示される。そして、このアイコン70がクリックされると、アイコン70に関連付けられた音声が出力される。
Further, in the
これにより、教師や保護者等の学習支援者が、児童等の学習者の自習の場にいない場合でも、どの問題の解き方がどのようにわからなかったのかを事後的に理解することができる。これにより、学習支援者は、学習者がわからなかった箇所を学習者と共有することができ、学習者に教えることが可能となる。この結果、学習者の自習効果を高めることが可能となる。 As a result, even when learning supporters such as teachers and parents are not present at the self-study site of the learners such as children, it is possible to understand after the fact which problems they did not know how to solve. As a result, the learning supporter can share with the learner what the learner did not understand, and can teach it to the learner. As a result, it is possible to enhance the learner's self-study effect.
また、本実施形態に係る学習支援システム1によれば、学習者による発話の音声データを解析し、発話内容に応じた区分けを行う音声データ解析部44(図5参照)を備える。これにより、例えば、質問以外であると区分けされた場合には、学習者に対して問いかけを行う定型の音声を出力することにより、学習者に更なる発話を促すことが可能となる。これにより、学習者の考えをより深いところまで引き出すことが可能となる。
Further, according to the
また、本実施形態に係る学習支援システム1によれば、音声データ解析部44による区分結果である区分情報を学習情報に含め、更に、教師用端末3の表示画面に学習情報に基づく表示を行う場合には、アイコンの表示態様を区分情報に応じて異ならせる。
これにより、教師用端末3のユーザは、アイコンを確認することによって、どのような内容の発話がなされたのかを容易に把握することが可能となる。
In addition, according to the
As a result, the user of the teacher's
また、複数の学習情報に基づいて一覧情報を作成するリスト作成部47を備えるので、教師用端末3のユーザは、一覧情報を確認することによって、学習者が学習中において解くのに苦労したと推測できる問題を容易に確認することが可能となる。
In addition, since the
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。また、上記実施形態を適宜組み合わせてもよい。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above-described embodiments without departing from the gist of the invention, and forms with such changes or improvements are also included in the technical scope of the present invention. Also, the above embodiments may be combined as appropriate.
例えば、学習者用端末2は、学習者のストレス度を評価するストレス評価部(図示略)を更に備え、学習情報作成部46は、ストレス評価部によるストレス度を学習情報に含めることとしてもよい。また、この学習情報を教師用端末3の表示画面に表示させる際には、学習情報に含まれるストレス度に基づいてアイコンの表示態様を変えることとしてもよい。例えば、学習者用端末2に赤外線カメラを設け、赤外線カメラを用いて学習者の体温や脈拍の情報を取得し、取得したこれらの情報を解析することにより、学習者のストレス度を評価することとしてもよい。また、ストレス度は、学習者が発話した音声データの声のトーン等を解析することにより、評価してもよい。また、上記以外の公知の技術を適宜採用してもよい。
For example, the
また、上述した実施形態に係る学習支援システム1は、学習者用端末2において作成された学習情報を学習支援サーバ10を介して教師用端末3に提供するシステム構成を例示して説明したが、この構成に限定されない。例えば、学習支援サーバ10を介さずに、学習者用端末2から教師用端末3に直接的に学習情報が提供されるようなシステム構成にしてもよい。この場合、学習支援サーバ10における学習情報記憶部53及び学習情報管理部54は省略可能となる。
Further, the
また、学習支援システム1全体として上述した各機能を備えていればよく、一部の機能については、他の装置に設けられてもよい。例えば、学習者用端末2に教師用端末3が備える学習情報要求部61、学習情報取得部62、表示制御部63、音声再生部64の機能を設けることとしてもよい。例えば、家庭では、一つの情報処理装置を子供と保護者が共有する場合がある。この場合、学習者用端末2に教師用端末3の機能を設けておくことにより、共通の情報処理装置を用いて、学習情報の作成と、学習情報の出力とを行うことが可能となる。また、この場合、学習者用端末2の学習情報記憶部48には、学習情報等が保存されている。従って、学習情報取得部62は、学習情報記憶部48から所望の情報を取得すればよく、学習支援サーバ10に接続する必要はない。したがって、学習者用端末2に教師用端末3の機能を持たせた場合には、学習支援サーバ10における学習情報記憶部53及び学習情報管理部54の機能は、省略可能である。
Further, the
1 :学習支援システム
2 :学習者用端末
3 :教師用端末
10 :学習支援サーバ
41 :表示制御部
42 :音声データ取得部
43 :位置特定部
44 :音声データ解析部
45 :音声出力部
46 :学習情報作成部
47 :リスト作成部
48 :学習情報記憶部
51 :学習コンテンツデータベース
52 :学習コンテンツ配信部
53 :学習情報記憶部
54 :学習情報管理部
61 :学習情報要求部
62 :学習情報取得部
63 :表示制御部
64 :音声再生部
70 :アイコン
1: Learning support system 2: Learner terminal 3: Teacher terminal 10: Learning support server 41: Display control unit 42: Voice data acquisition unit 43: Position specifying unit 44: Voice data analysis unit 45: Voice output unit 46: Learning information creation unit 47 : List creation unit 48 : Learning information storage unit 51 : Learning content database 52 : Learning content distribution unit 53 : Learning information storage unit 54 : Learning information management unit 61 : Learning information request unit 62 : Learning information acquisition unit 63: Display control unit 64: Audio playback unit 70: Icon
Claims (15)
発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する学習情報作成部と、
前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる表示制御部と
を備える学習支援システム。 a speech data acquisition unit that acquires speech data spoken by the learner while the learning content is displayed on the display screen;
a learning information creation unit that creates learning information in which learning content displayed on the display screen, a specific position on the learning content, and the audio data of the utterance are associated with each other when an utterance is made;
When an instruction to request the learning information is received, the learning content based on the learning information is displayed on the display screen, and the audio data is reproduced at a position on the display screen corresponding to a specific position based on the learning information. A learning support system comprising a display control unit that displays an icon for
前記学習情報作成部は、前記学習情報に区分けの結果である区分情報を含める請求項1に記載の学習支援システム。 A speech data analysis unit that analyzes the speech data and classifies the content uttered by the learner,
2. The learning support system according to claim 1, wherein said learning information creating unit includes classification information as a result of classification in said learning information.
前記表示制御部は、前記学習情報の一覧情報の要求指示を受け付けた場合に、前記一覧情報を前記表示画面に表示させるとともに、前記区分情報に応じてアイコンの表示態様を変える請求項2から4のいずれかに記載の学習支援システム。 A list creation unit that creates list information based on a plurality of the learning information when a plurality of the learning information is created,
5. The display control unit displays the list information on the display screen when receiving an instruction requesting the list information of the learning information, and changes the display mode of the icon according to the classification information. The learning support system according to any one of
前記表示制御部は、前記ストレス度に応じて前記アイコンの表示態様を変える請求項1から7のいずれかに記載の学習支援システム。 The learning information includes an evaluation value for evaluating the stress level of the learner,
8. The learning support system according to any one of claims 1 to 7, wherein the display control unit changes a display mode of the icon according to the stress level.
前記学習者の発話が行われたときに、表示画面上における視線位置を前記特定位置として特定する位置特定部を備える請求項1から8のいずれかに記載の学習支援システム。 Equipped with a line-of-sight detection unit that detects the line of sight,
9. The learning support system according to any one of claims 1 to 8, further comprising a position specifying unit that specifies a line-of-sight position on the display screen as the specific position when the learner speaks.
発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する工程と、
前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる工程と
をコンピュータが実行する学習支援方法。 Acquiring audio data spoken by a learner while learning content is displayed on a display screen;
creating learning information in which the learning content displayed on the display screen when the utterance is made, a specific position on the learning content, and the audio data of the utterance are associated with each other;
When an instruction to request the learning information is received, the learning content based on the learning information is displayed on the display screen, and the audio data is reproduced at a position on the display screen corresponding to a specific position based on the learning information. A learning support method in which a computer executes a step of displaying an icon for
発話が行われたときに、前記表示画面に表示されていた学習コンテンツ、該学習コンテンツ上における特定位置、及び発話の前記音声データを互いに関連付けた学習情報を作成する学習情報作成部と
を備える情報処理装置。 a speech data acquisition unit that acquires speech data spoken by the learner while the learning content is displayed on the display screen;
a learning information creation unit that creates learning information in which learning content displayed on the display screen, a specific position on the learning content, and the audio data of the utterance are associated with each other when an utterance is made; processing equipment.
学習コンテンツが表示画面に表示された状態で学習者が発話した音声データ、該学習コンテンツ、及び該学習コンテンツ上における特定位置が互いに関連付けた学習情報を、前記他の情報処理装置又は前記サーバから取得する学習情報取得部と、
前記学習情報の要求指示を受け付けた場合に、前記学習情報に基づく学習コンテンツを前記表示画面に表示させるとともに、前記学習情報に基づく特定位置に対応する表示画面上の位置に前記音声データを再生させるためのアイコンを表示させる表示制御部と
を備える情報処理装置。
An information processing device configured to be connectable to another information processing device or server,
Acquiring from the other information processing device or the server the audio data uttered by the learner while the learning content is displayed on the display screen, the learning content, and the learning information in which the specific position on the learning content is associated with each other. a learning information acquisition unit that
When an instruction to request the learning information is received, the learning content based on the learning information is displayed on the display screen, and the audio data is reproduced at a position on the display screen corresponding to a specific position based on the learning information. an information processing apparatus comprising a display control unit that displays an icon for
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017427A JP7331025B2 (en) | 2021-02-05 | 2021-02-05 | LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017427A JP7331025B2 (en) | 2021-02-05 | 2021-02-05 | LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022120500A true JP2022120500A (en) | 2022-08-18 |
JP7331025B2 JP7331025B2 (en) | 2023-08-22 |
Family
ID=82849228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021017427A Active JP7331025B2 (en) | 2021-02-05 | 2021-02-05 | LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7331025B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010067104A (en) * | 2008-09-12 | 2010-03-25 | Olympus Corp | Digital photo-frame, information processing system, control method, program, and information storage medium |
JP2018126209A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンクロボティクス株式会社 | Control device, control method, and control program |
JP2019023805A (en) * | 2017-07-24 | 2019-02-14 | シャープ株式会社 | Display control equipment, display control method and program |
JP2019219465A (en) * | 2018-06-18 | 2019-12-26 | 株式会社ジャストシステム | Learning support program, and device and method for supporting learning |
JP2020067585A (en) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | Communication device and control program for communication device |
JP2020126195A (en) * | 2019-02-06 | 2020-08-20 | トヨタ自動車株式会社 | Voice interactive device, control device for voice interactive device and control program |
WO2020214844A1 (en) * | 2019-04-19 | 2020-10-22 | Magic Leap, Inc. | Identifying input for speech recognition engine |
-
2021
- 2021-02-05 JP JP2021017427A patent/JP7331025B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010067104A (en) * | 2008-09-12 | 2010-03-25 | Olympus Corp | Digital photo-frame, information processing system, control method, program, and information storage medium |
JP2018126209A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンクロボティクス株式会社 | Control device, control method, and control program |
JP2019023805A (en) * | 2017-07-24 | 2019-02-14 | シャープ株式会社 | Display control equipment, display control method and program |
JP2019219465A (en) * | 2018-06-18 | 2019-12-26 | 株式会社ジャストシステム | Learning support program, and device and method for supporting learning |
JP2020067585A (en) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | Communication device and control program for communication device |
JP2020126195A (en) * | 2019-02-06 | 2020-08-20 | トヨタ自動車株式会社 | Voice interactive device, control device for voice interactive device and control program |
WO2020214844A1 (en) * | 2019-04-19 | 2020-10-22 | Magic Leap, Inc. | Identifying input for speech recognition engine |
Also Published As
Publication number | Publication date |
---|---|
JP7331025B2 (en) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rogerson-Revell | Computer-assisted pronunciation training (CAPT): Current issues and future directions | |
US9058751B2 (en) | Language phoneme practice engine | |
Campoy-Cubillo et al. | Assessing multimodal listening | |
US20210005097A1 (en) | Language-adapted user interfaces | |
KR20120006154A (en) | 3-d image education system and method | |
KR20190142907A (en) | Language study supporting apparatus using video publicated on the internet | |
Stefanov et al. | Mobile Devices Supporting People with Special Needs | |
JP7331025B2 (en) | LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM | |
KR20030065259A (en) | Apparatus and method of learnning languages by sound recognition and sotring media of it | |
KR101681673B1 (en) | English trainning method and system based on sound classification in internet | |
TWM467143U (en) | Language self-learning system | |
KR20120027647A (en) | Learning contents generating system and method thereof | |
KR20120031373A (en) | Learning service system and method thereof | |
KR20200108261A (en) | Speech recognition correction system | |
JP6494002B2 (en) | Abstract writing learning support system, abstract writing learning support device, abstract writing learning support method, and program | |
KR20140115900A (en) | System for producing teaching plan content and method therefor | |
JP6953825B2 (en) | Data transmission method, data transmission device, and program | |
JP2019008419A (en) | Data transmission method, data transmission device, and program | |
Durski et al. | Practising reading fluency with virtual voice assistants: theoretical perspectives and experiences | |
JP2656402B2 (en) | Information processing device and English conversation learning system using information processing device | |
Liao | CADNCI—Connected-Audio Digital Note-Taking for Consecutive Interpretation: Optimal Setup for Practice and Assessment | |
TWM626428U (en) | Interactive learning system | |
Waloyo | English Foreign Language (EFL) Students' Listening Strategies and the Challenges in the Digital Era | |
Udoh | ICT IN LISTENING AS A LANGUAGE SKILL | |
Valencia et al. | Activity Design for Students With Visual Disabilities Through an Auditive Notification and Voice Response Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7331025 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |