JP2022117805A - Pronunciation training program and terminal device - Google Patents
Pronunciation training program and terminal device Download PDFInfo
- Publication number
- JP2022117805A JP2022117805A JP2021014510A JP2021014510A JP2022117805A JP 2022117805 A JP2022117805 A JP 2022117805A JP 2021014510 A JP2021014510 A JP 2021014510A JP 2021014510 A JP2021014510 A JP 2021014510A JP 2022117805 A JP2022117805 A JP 2022117805A
- Authority
- JP
- Japan
- Prior art keywords
- pronunciation
- test
- listening
- word
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 claims abstract description 105
- 239000000284 extract Substances 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 description 38
- 238000000034 method Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 34
- 238000012549 training Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 239000000470 constituent Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/638—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、発音トレーニングプログラム及び端末装置に関する。 The present invention relates to a pronunciation training program and a terminal device.
電子辞書等の端末装置の中には、英語等の発音トレーニングアプリケーションプログラムがインストールされているものがある。この種の発音トレーニングプログラムでは、ユーザに対して英単語等を実際に発音させる発音テストが実施され、その発音が正しいか否かが判定される。この正誤の結果が正しい発音とともにユーザに対して通知されることでユーザの英語等の発音能力の向上が期待される。 Some terminal devices such as electronic dictionaries are installed with a pronunciation training application program for English or the like. In this type of pronunciation training program, a pronunciation test is conducted in which the user actually pronounces English words, etc., and it is determined whether or not the pronunciation is correct. By notifying the user of the correct/incorrect result together with the correct pronunciation, it is expected that the user's pronunciation ability in English or the like will be improved.
一方、電子辞書等の端末装置の中には、英語等のリスニングトレーニングアプリケーションプログラムがインストールされているものもある。この種のリスニングトレーニングプログラムでは、ユーザに対して英単語等を聞かせるリスニングテストが実施され、英単語が正しく聞き取れたか否かが判定される。この正誤の結果が正解とともにユーザに対して通知されることでユーザの英語等のリスニング能力の向上が期待される。 On the other hand, some terminal devices such as electronic dictionaries are installed with a listening training application program for English or the like. In this type of listening training program, a listening test is conducted in which the user listens to English words, etc., and it is determined whether or not the English words have been correctly heard. By notifying the user of the correct/wrong result together with the correct answer, it is expected that the user's listening ability in English or the like will be improved.
ここで、英語等の発音能力とリスニング能力とには相関があると考えられる。このため、リスニングテストの結果が発音テストに利用されることでさらなる発音能力の向上が期待される。 Here, it is considered that there is a correlation between the pronunciation ability of English and the like and the listening ability. Therefore, it is expected that the results of the listening test will be used in the pronunciation test to further improve the pronunciation ability.
本発明は、リスニングテストの結果を効果的に発音テストに利用できる発音トレーニングプログラム及び端末装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a pronunciation training program and a terminal device that can effectively use the results of a listening test for a pronunciation test.
本発明の第1の態様の発音トレーニングプログラムは、ユーザに対して実施されたリスニングテストの結果に基づいて単語又は単語を含む文章を発音問題のデータベースから抽出することと、ユーザに対し、抽出された単語又は文章に基づく発音テストを実施することとをコンピュータに実行させる。 A pronunciation training program according to the first aspect of the present invention extracts words or sentences containing words from a database of pronunciation problems based on the results of a listening test conducted on the user; and conducting a pronunciation test based on the words or sentences.
本発明の第2の態様の端末装置は、ユーザに対して実施されたリスニングテストの結果に基づいて単語又は単語を含む文章を発音問題のデータベースから抽出する抽出部と、ユーザに対し、抽出された単語又は前記文章に基づく発音テストを実施するテスト部とを具備する。 A terminal device according to a second aspect of the present invention includes an extraction unit that extracts words or sentences containing words from a database of pronunciation questions based on the results of a listening test conducted on the user; and a test unit for performing a pronunciation test based on the words or said sentences.
本発明によれば、リスニングテストの結果を効果的に発音テストに利用できる発音トレーニングプログラム及び端末装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the pronunciation training program and terminal device which can utilize the result of a listening test effectively for a pronunciation test can be provided.
本発明の一実施形態について図面を参照して説明する。図1は、本発明の一実施形態に係るシステム1の構成の一例を示す図である。システム1は、サーバ10と、端末20とを含む。サーバ10と端末20とは、ネットワーク30を介して通信可能に接続される。ネットワーク30は、例えばインターネットである。なお、図1には、1台の端末20のみが示されているが、端末20の台数は1台に限定されない。すなわち、端末20は2台以上であってもよい。
An embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an example of the configuration of a
サーバ10は、プロセッサ11と、ROM12と、RAM13と、ストレージ14と、通信装置15とを有している端末装置である。これらの各々は、システムバス19を介して互いに接続されている。
The
プロセッサ11は、CPU(Central Processing Unit)等を含む集積回路であってよい。プロセッサ11として、CPU以外のプロセッサ、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphic Processing unit)等が用いられてもよい。
The
ROM12は、プロセッサ11等の動作に用いられる情報を記録している。RAM13は、プロセッサ11等の動作のための主記憶装置である。
The
ストレージ14には、プロセッサ11で用いられるサーバ制御プログラム、各種演算を実行するための演算プログラム等の各種プログラム、パラメータ等が記憶されている。このプログラムは、英語等のトレーニングプログラム141を含む。トレーニングプログラム141は、英単語等のリスニングトレーニングプログラムと、発音トレーニングプログラムとを含む。プロセッサ11は、ストレージ14に記憶されたトレーニングプログラム141に従って処理を実行することで、抽出部と、テスト部として動作し得る。なお、抽出部と、テスト部は、同様の動作を実現する専用の回路によって実現されてもよい。
The
また、ストレージ14には、リスニングデータベース(DB)142と、発音データベース(DB)143とが記憶されている。
The
リスニングDB142は、リスニングトレーニングに関わる各種のデータを記憶するデータベースである。リスニングDB142は、属性値DBと、リスニング問題文DBと、リスニング答えDBとを含む。
The listening
属性値DBは、問題の属性値を記憶したデータベースである。図2は、属性値DBの一例を示す図である。図2に示すように、属性値DBは、L_IDと、属性値と、ステータスとを要素として含む。L_IDは、リスニング問題毎に一意に割り当てられたリスニングIDである。属性値は、問題の属性を示す数値である。図2に示すように、属性値は、例えば1、2、3の数値を含む。属性値1は、例えば対応するリスニング問題が音声を正確に聞き取れているか否かを確認する問題であることを示す。属性値2は、例えば対応するリスニング問題が会話音声の中で重要なポイントを理解できているか否かを確認する問題であることを示す。属性値3は、例えば対応するリスニング問題が長文音声の中から必要な内容を抽出して理解できているか否かを確認する問題であることを示す。ここで、属性値DBにおける属性値は、リスニング問題の作成時にリスニング問題の作成者によって適宜に設定され得る。ステータスは、ユーザが対応する問題に正答しているか否かを示す。図2に示すように、ステータスは、例えば”OK”、”NG”、”未実施”のデータを含む。”OK”は、ユーザが対応する問題に正答していることを示す。”NG”は、ユーザが対応する問題に誤答していることを示す。”未実施”は、対応する問題のリスニングテストがユーザに対して実施されておらず、”OK”、”NG”の何れにも確定できないことを示す。ここで、ステータスの初期値は、”未実施”である。また、ステータスは、ユーザ毎に記憶されるデータである。 The attribute value DB is a database that stores problem attribute values. FIG. 2 is a diagram illustrating an example of an attribute value DB; As shown in FIG. 2, the attribute value DB includes L_ID, attribute value, and status as elements. L_ID is a listening ID uniquely assigned to each listening question. The attribute value is a numeric value that indicates the attribute of the problem. As shown in FIG. 2, the attribute values include numerical values of 1, 2, and 3, for example. An attribute value of 1 indicates, for example, that the corresponding listening question is a question of whether or not the speech is heard correctly. An attribute value of 2 indicates, for example, that the corresponding listening question is a question to confirm whether or not the key points in the speech are understood. An attribute value of 3, for example, indicates that the corresponding listening question is a question to check whether or not the necessary content is extracted from the long speech and understood. Here, the attribute values in the attribute value DB can be appropriately set by the creator of the listening question when creating the listening question. The status indicates whether or not the user has answered the corresponding question correctly. As shown in FIG. 2, the status includes data such as "OK", "NG", and "not yet implemented". "OK" indicates that the user has answered the corresponding question correctly. "NG" indicates that the user has answered the corresponding question incorrectly. "Not performed" indicates that the listening test for the corresponding question has not been performed on the user and neither "OK" or "NG" can be determined. Here, the initial value of the status is "unimplemented". Also, the status is data stored for each user.
リスニング問題文DBは、リスニングテストの問題文の内容を記憶したデータベースである。図3は、リスニング問題文DBの一例を示す図である。図3に示すように、リスニング問題文DBは、L_IDと、質問文と、選択肢とを要素として含む。L_IDは、属性値DBと共通で用いられるリスニングIDである。質問文は、リスニングテストで出題される質問文のテキストデータ及び音声データである。選択肢は、質問文に対してユーザがする回答の選択肢のテキストデータ及び音声データである。図3では、選択肢は4つである。しかしながら、選択肢は2つ以上であればよい。 The listening question sentence DB is a database that stores the contents of the question sentences of the listening test. FIG. 3 is a diagram showing an example of a listening question sentence DB. As shown in FIG. 3, the listening question sentence DB includes L_IDs, question sentences, and options as elements. L_ID is a listening ID used in common with the attribute value DB. The question sentence is text data and voice data of the question sentence given in the listening test. The options are text data and voice data of options for the user's answer to the question. In FIG. 3, there are four options. However, there may be more than two options.
リスニング答えDBは、リスニング問題に対する回答を記憶したデータベースである。図4は、リスニング答えDBの一例を示す図である。図4に示すように、リスニング答えDBは、L_IDと、答えと、キーフレーズとを要素として含む。L_IDは、属性値DB及び質問文DBと共通で用いられるリスニングIDである。答えは、対応するL_IDの質問文に対する答えの選択肢のデータである。キーフレーズは、答えの選択肢に含まれるキーフレーズのテキストデータである。キーフレーズは、問題の出題意図に関連した重要な単語又は文章である。例えば、属性値1の問題は、キーフレーズに対応する単語又は文章を正確に聞き取れているか否かを問う問題である。ここで、図4の”null"は、対応するセルにおけるキーフレーズがないことを意味している。例えば、図4のL_ID1では、2つのキーフレーズがあることが示されている。リスニング答えDBにおけるキーフレーズは、リスニング問題の作成時にリスニング問題の作成者によって適宜に設定され得る。 The listening answer DB is a database that stores answers to listening questions. FIG. 4 is a diagram showing an example of a listening answer DB. As shown in FIG. 4, the listening answer DB includes L_IDs, answers, and key phrases as elements. L_ID is a listening ID used in common with the attribute value DB and the question sentence DB. The answer is data of answer options for the question sentence of the corresponding L_ID. A keyphrase is text data of a keyphrase included in an answer option. Key phrases are important words or sentences related to the intent of the question. For example, a question with an attribute value of 1 is a question of whether or not the word or sentence corresponding to the key phrase is correctly heard. Here, "null" in FIG. 4 means that there is no keyphrase in the corresponding cell. For example, L_ID1 in FIG. 4 indicates that there are two keyphrases. The key phrases in the listening answer DB can be appropriately set by the creator of the listening question when creating the listening question.
発音DB143は、発音トレーニングに関わる各種のデータを記憶するデータベースである。発音DB143は、優先度DBと、発音問題DBとを含む。
The
優先度DBは、発音問題DBから抽出される問題の優先度に関わるデータを記憶したデータベースである。図5は、優先度DBの一例を示す図である。図5に示すように、優先度DBは、S_IDと、属性と、点数と、L_IDと、優先度とを要素として含む。S_IDは、発音問題毎に一意に割り当てられた発音IDである。属性は、問題の属性を示す。図5に示すように、属性値は、例えば”単語”、”文章”のデータを含む。”単語”は、例えば対応する発音問題が単語の発音の問題であることを示す。”文章”は、例えば対応する発音問題が文章の発音の問題であることを示す。点数は、対応するS_IDの発音テストにおけるユーザの点数を示す。ここで、点数の初期値は、”未実施”である。L_IDは、S_IDと関連付けられたL_IDである。実施形態では、共通のキーフレーズを含むS_IDとL_IDとが関連付けられる。優先度は、後で説明するおすすめモードにおいて、対応するS_IDの発音問題を優先的に出題するか否かを示す。図5に示すように、優先度は、”高”、”低”のデータを含む。”高”は、対応するS_IDの発音問題の出題優先度が高いことを示す。”低”は、対応するS_IDの発音問題の出題優先度が低いことを示す。ここで、優先度は、必ずしも”高”、”低”の2値のデータである必要はない。優先度は、3値以上のデータであってもよい。また、点数と、優先度とは、ユーザ毎に記憶されるデータである。 The priority DB is a database that stores data relating to the priority of questions extracted from the pronunciation question DB. FIG. 5 is a diagram illustrating an example of a priority DB; As shown in FIG. 5, the priority DB includes S_ID, attribute, score, L_ID, and priority as elements. S_ID is a pronunciation ID uniquely assigned to each pronunciation problem. Attribute indicates the attribute of the problem. As shown in FIG. 5, the attribute value includes, for example, "word" and "sentence" data. "Word" indicates, for example, that the corresponding pronunciation problem is a word pronunciation problem. "Sentence" indicates, for example, that the corresponding pronunciation problem is a sentence pronunciation problem. The score indicates the user's score in the pronunciation test of the corresponding S_ID. Here, the initial value of the score is "unimplemented". L_ID is the L_ID associated with the S_ID. In embodiments, S_IDs and L_IDs that contain a common keyphrase are associated. The priority indicates whether or not the pronunciation problem of the corresponding S_ID should be given priority in the recommendation mode, which will be described later. As shown in FIG. 5, the priority includes "high" and "low" data. "High" indicates that the pronunciation problem of the corresponding S_ID is given a high priority. "Low" indicates that the pronunciation problem of the corresponding S_ID has a low question setting priority. Here, the priority does not necessarily have to be binary data of "high" and "low". The priority may be data of three or more values. Also, the score and priority are data stored for each user.
発音問題DBは、発音テストの問題の内容を記憶したデータベースである。図6は、発音問題DBの一例を示す図である。図6に示すように、発音問題DBは、S_IDと、トレーニングテキストと、キーフレーズとを要素として含む。S_IDは、優先度DBと共通で用いられる発音IDである。トレーニングテキストは、発音テストで出題される問題の単語又は文章のテキストデータ及び音声データである。キーフレーズは、発音テストの問題に含まれるキーフレーズのテキストデータである。リスニングと同様、発音の場合のキーフレーズも、問題の出題意図に関連した重要な単語又は文章である。ここで、図6の”null"は、対応するセルにおけるキーフレーズがないことを意味している。例えば、図6のS_ID1では、1つのキーフレーズがあることが示されている。ここで、発音問題DBにおけるキーフレーズは、発音問題の作成時に発音問題の作成者によって適宜に設定され得る。そして、リスニング問題と発音問題とで共通のキーフレーズがあるときには、優先度DBにおいてS_IDとL_IDとが関連付けられる。例えば、図4のリスニング答えDBと図6の発音問題DBとを比較すると、L_ID1とS_ID3とが共通するキーフレーズ”ride"を含んでいる。したがって、優先度DBにおいて、S_ID3とL_ID1とが関連付けられる。 The pronunciation question DB is a database that stores the content of pronunciation test questions. FIG. 6 is a diagram showing an example of a pronunciation problem DB. As shown in FIG. 6, the pronunciation problem DB includes S_IDs, training texts, and key phrases as elements. S_ID is a pronunciation ID used in common with the priority DB. The training texts are text data and voice data of words or sentences that are given in the pronunciation test. A key phrase is text data of a key phrase included in a pronunciation test question. As with listening, key phrases for pronunciation are important words or sentences that relate to the intent of the question. Here, "null" in FIG. 6 means that there is no keyphrase in the corresponding cell. For example, S_ID1 in FIG. 6 indicates that there is one keyphrase. Here, key phrases in the pronunciation question DB can be appropriately set by the creator of the pronunciation question when creating the pronunciation question. Then, when there is a common key phrase in the listening question and the pronunciation question, S_ID and L_ID are associated in the priority DB. For example, comparing the listening answer DB of FIG. 4 and the pronunciation problem DB of FIG. 6, L_ID1 and S_ID3 contain the common key phrase "ride". Therefore, S_ID3 and L_ID1 are associated in the priority DB.
通信装置15は、ネットワーク30等の外部の通信ネットワークと通信するための回路を含む。
端末20は、CPU21と、ROM22と、RAM23と、ストレージ24と、入力装置25と、表示装置26と、スピーカ27と、通信装置28とを有している。これらの各々は、システムバス29を介して互いに接続されている。端末20は、パーソナルコンピュータ(PC)、タブレット端末、スマートフォン等の電子機器であってよい。また、端末20は、通信機能を備えた電子辞書等であってもよい。
The terminal 20 has a
CPU21は、端末20の各種動作を制御するプロセッサである。ROM22は、端末20の起動プログラム等を記録している。RAM23は、CPU21等のための主記憶装置である。ストレージ24には、CPU21で用いられる端末制御プログラム等の各種プログラム、パラメータ等が記憶されている。CPU21は、入力装置25からの入力信号や通信装置28による受信信号に応じて各種プログラムを実行することで端末20の動作を制御する。各種プログラムは、不図示のウェブサーバからネットワーク30、通信装置28を介してストレージ24にダウンロードされてもよい。通信装置28は、ネットワーク30等の外部の通信ネットワークと通信するための回路を含む。
The
入力装置25は、キーボード、マウス、タッチパネル等を含む。また、入力装置25は、マイクロホン等の音声入力装置を含む。入力装置25を介したユーザ操作に応じて、そのユーザ操作の内容を示す信号がシステムバス29を介してCPU21に入力される。
The
表示装置26は、液晶ディスプレイ、有機ELディスプレイ等である。表示装置26は、端末20に一体的に設けられていてもよいし、端末20とは別に設けられていてもよい。表示装置26には、各種の画像が表示される。
The
スピーカ27は、音声を出力する出力装置である。
The
次に、システム1の動作を説明する。図7は、リスニングトレーニングの実施時の動作を示すフローチャートである。図7の処理は、端末20からサーバ10に対してリスニングトレーニングの実施の要求がされたときに開始される。
Next, the operation of
ステップS101において、プロセッサ11は、ストレージ14に記憶されているリスニングトレーニングプログラムを起動する。
At step S<b>101 , the
ステップS102において、プロセッサ11は、ユーザに対してリスニングテストを実施する。例えば、プロセッサ11は、リスニング問題DBから質問文の音声データと対応する選択肢の音声データとを抽出する。質問文は、完全にランダムに抽出されてもよいし、ユーザによって指定された属性値の中でランダムに抽出されてもよいし、ユーザによって指定されてもよい。そして、プロセッサ11は、抽出した質問文の音声データと選択肢の音声データとを端末20に送信する。端末20のCPU21は、受信した質問文の音声データに基づいてスピーカ27から質問文の音声を発する。続いて、CPU21は、受信した選択肢の音声データに基づいてスピーカ27から選択肢の音声を順次に発する。ユーザは、質問文を聞いて回答の選択肢を例えば入力装置25を操作して選択する。回答が選択されると、CPU21は、選択された回答をサーバ10に送信する。プロセッサ11は、選択された回答とリスニング答えDBに記憶されている答えとを照合してユーザの回答に対する正誤を判定する。そして、プロセッサ11は、正誤の判定結果を端末20に返す。これを受けて、CPU21は、正誤の結果を例えば表示装置26に表示する。
At step S102,
ステップS103において、プロセッサ11は、テスト結果がOKであったかNGであったかをL_IDと関連付けて例えばRAM13に記憶する。
In step S103, the
ステップS104において、プロセッサ11は、リスニングテストを終了するか否かを判定する。例えば、予め設定された問題数のリスニングテストが完了した場合にリスニングテストを終了すると判定される。または、端末20からサーバ10に対してリスニングテストの終了が指示された場合にリスニングテストを終了すると判定される。ステップS104において、リスニングテストを終了すると判定されていないときには、処理はステップS102に戻る。この場合、リスニングテストが継続される。ステップS104において、リスニングテストを終了すると判定されたときには、処理はステップS105に移行する。
At step S104, the
ステップS105において、プロセッサ11は、RAM13に記憶されているテスト結果に基づいて属性値DBを更新する。すなわち、プロセッサ11は、テストが実施されたL_IDのステータスを”OK”又は”NG”に更新する。その後、プロセッサ11は、図7の処理を終了させる。
In step S<b>105 , the
図8は、発音トレーニングの実施時の動作を示すフローチャートである。図8の処理は、端末20からサーバ10に対して発音トレーニングの実施の要求がされたときに開始される。
FIG. 8 is a flow chart showing the operation during pronunciation training. The process of FIG. 8 is started when the terminal 20 requests the
ステップS201において、プロセッサ11は、ストレージ14に記憶されている発音トレーニングプログラムを起動する。
At step S<b>201 , the
ステップS202において、プロセッサ11は、リスニングテストの結果に基づいて優先度DBを更新する。その後、優先度DBの更新の後、処理はステップS203に移行する。以下、優先度DBの更新処理を説明する。図9は、優先度DBの更新処理を示すフローチャートである。
At step S202, the
ステップS301において、プロセッサ11は、属性値DBを参照して属性値が”1”、すなわち対応するリスニング問題が音声を正確に聞き取れているか否かを確認する問題であることを示すL_IDを抽出する。このような処理が行われる理由は、音声が正確に聞き取ることができる能力は、この音声を正確に発音できる能力と相関があるとの考えに基づいている。つまり、実施形態では、発音の練習によってリスニング能力の向上が図られる。図2では、例えばL_ID1、2、3が抽出される。
In step S301, the
ステップS302において、プロセッサ11は、優先度DBを参照して、抽出されたL_IDと関連付けられているS_IDを1つ抽出する。例えば、図5のL_ID1からはS_ID3が抽出される。
In step S302, the
ステップS303において、プロセッサ11は、属性値DBを参照して、抽出されたS_IDと対応するL_IDのステータスが”未実施”であるか否かを判定する。ステップS303において、対応するL_IDのステータスが”未実施”であると判定されていないときには、処理はステップS304に移行する。ステップS303において、対応するL_IDのステータスが”未実施”であると判定されたときには、処理はステップS307に移行する。
In step S303, the
ステップS304において、プロセッサ11は、属性値DBを参照して、抽出されたS_IDと対応するL_IDのステータスが”OK”であるか否かを判定する。ステップS304において、対応するL_IDのステータスが”OK”であると判定されていないとき、すなわち”NG”であると判定されたときには、処理はステップS305に移行する。ステップS304において、対応するL_IDのステータスが”OK”であると判定されたときには、処理はステップS307に移行する。
In step S304, the
ステップS305において、プロセッサ11は、優先度DBを参照して、抽出されたS_IDにおける点数が閾値、例えば100点未満であるか否かを判定する。ここで、点数が”未実施”であるときには、点数が閾値未満であると判定される。ステップS305において、抽出されたS_IDにおける点数が閾値未満であると判定されたときには、処理はステップS306に移行する。ステップS305において、抽出されたS_IDにおける点数が閾値未満であると判定されていないときには、処理はステップS307に移行する。ここで、ステップS305の判定における閾値は、100点に限るものではなく、任意に設定されてよい。
In step S305, the
ステップS306において、プロセッサ11は、抽出されたS_IDにおける優先度に”高”を登録する。その後、処理はステップS308に移行する。すなわち、実施形態では、リスニングテストの結果がNGであって、かつ、発音テストの結果も悪い又は発音テストが未実施のときには、対応するS_IDの優先度が”高”になる。例えば、図5に示すように、S_ID3の優先度は”高”になる。
In step S306, the
ステップS307において、プロセッサ11は、抽出されたS_IDにおける優先度に”低”を登録する。その後、処理はステップS308に移行する。すなわち、実施形態では、リスニングテストの結果がOK或いは未実施である又は発音テストの結果が良いときには、対応するS_IDの優先度が”低”になる。
In step S307, the
ステップS308において、プロセッサ11は、優先度DBの更新処理を終了するか否かを判定する。すべての属性値が1であるL_IDと関連付けられているS_IDについてステップS303-S307の処理が完了したときに、優先度DBの更新処理を終了すると判定される。ステップS308において、優先度DBの更新処理を終了すると判定されていないときには、処理はステップS302に戻る。この場合、プロセッサ11は、別のS_IDを抽出して同様の処理を実施する。ステップS308において、優先度DBの更新処理を終了すると判定されたときには、プロセッサ11は、図9の処理を修了させる。
In step S308, the
ここで、図8の説明に戻る。優先度DBの更新処理の後のステップS203において、プロセッサ11は、発音テストのモードが”おすすめモード”であるか否かを判定する。発音テストのモードは、例えば端末20の表示装置26に表示されるモード選択画面においてユーザによって選択され得る。例えば、発音テストのモードは、”ランダムモード”、”母音モード”、”子音モード”、”おすすめモード”を含む。ランダムモードは、問題がランダムに出題されるモードである。母音モードは、母音のトレーニングになる発音の問題が出題されるモードである。子音モードは、子音のトレーニングになる発音の問題が出題されるモードである。おすすめモードは、ユーザが苦手と考えられる発音の問題が出題されるモードである。ユーザが苦手と考えられる発音の問題は、リスニングテストの結果が悪い、すなわち優先度が”高”の問題である。図10は、モード選択画面の例を示す図である。図10に示すように、モード選択画面には、それぞれのモードに対応したランダムボタン261、母音ボタン262、子音ボタン263、おすすめボタン264が表示される。ユーザが何れかのボタンを選択すると、選択されたモードの説明文265が表示される。さらに、説明文265には練習ボタン266が表示される。ユーザが練習ボタン266を選択したときに対応するモードが選択されたと判定される。すなわち、ステップS203では、ユーザがおすすめボタン264を選択し、かつ、練習ボタン266を選択したときに、発音テストのモードが”おすすめモード”であると判定される。ステップS203において、発音テストのモードが”おすすめモード”であると判定されていないときには、処理はステップS204に移行する。ステップS203において、発音テストのモードが”おすすめモード”であると判定されたときには、処理はステップS207に移行する。
Now, return to the description of FIG. In step S203 after the priority DB update process, the
ステップS204において、プロセッサ11は、”おすすめモード”以外のモードの発音テストを実施する。例えば、プロセッサ11は、発音問題DBからモードに応じたトレーニングテキストを抽出する。プロセッサ11は、抽出したトレーニングテキストのテキストデータを端末20に送信する。端末20のCPU21は、受信したテキストデータに基づいて表示装置26に問題の単語又は文章を表示する。ユーザは、入力装置25のマイクを用いて単語又は文章を発音する。音声が入力されると、CPU21は、入力された音声に基づく音声データをサーバ10に送信する。プロセッサ11は、端末20から受信した音声データと発音問題DBに記憶されている問題に対応した単語又は文章の音声データとを比較し、比較結果に応じて点数を算出する。そして、プロセッサ11は、算出した点数を端末20に返す。これを受けて、CPU21は、点数を例えば表示装置26に表示する。
In step S204, the
ステップS205において、プロセッサ11は、テスト結果としての点数をS_IDと関連付けて例えばRAM13に記憶する。
In step S205, the
ステップS206において、プロセッサ11は、発音テストを終了するか否かを判定する。例えば、予め設定された問題数の発音テストが完了した場合に発音テストを終了すると判定される。または、端末20からサーバ10に対して発音テストの終了が指示された場合又はモードの変更が指示された場合に発音テストを終了すると判定される。ステップS206において、発音テストを終了すると判定されていないときには、処理はステップS204に戻る。この場合、発音テストが継続される。ステップS206において、発音テストを終了すると判定されたときには、処理はステップS212に移行する。
In step S206,
ステップS207において、プロセッサ11は、優先度DBを参照して、優先度が”高”のS_IDを抽出する。ステップS207では、優先度DBに登録されているすべての優先度が”高”のS_IDが抽出されてもよいし、一部のS_IDが抽出されてもよい。一部のS_IDが抽出される場合、例えば発音テストの点数が”未実施”のもの、低いものが優先的に抽出されてよい。また、優先度が3値以上の値を有するときには、より優先度が高いものが優先的に抽出されてもよい。
In step S207, the
ステップS208において、プロセッサ11は、発音問題DBを参照して、抽出したS_IDのトレーニングテキストを抽出する。そして、プロセッサ11は、抽出したトレーニングテキストのテキストデータを端末20に送信する。端末20のCPU21は、受信したテキストデータに基づいて表示装置26に問題の単語又は文章を表示する。図11は、おすすめモードのときの発音問題の表示例を示す図である。図11に示すように、発音問題の表示画面には、モード選択のためのモード選択ボタン267が表示される。また、発音問題の表示画面には、優先度が”高”であるS_IDのトレーニングテキストである単語又は文章が表示される。例えば、図11では、S_ID1のトレーニングテキストである”water"、S_ID3のトレーニングテキストである”ride"、S_ID101のトレーニングテキストである"He is getting out of the room."が表示されている。また、それぞれの単語又は文章の近傍にはチェックボタン268が表示される。チェックボタン268が選択されたとき、対応する単語又は文章に対する発音テストが実施される。
In step S208, the
ステップS209において、プロセッサ11は、発音テストを実施する。すなわち、ユーザは、入力装置25のマイクを用いて単語又は文章を発音する。音声が入力されると、CPU21は、入力された音声に基づく音声データをサーバ10に送信する。プロセッサ11は、端末20から受信した音声データと発音問題DBに記憶されている問題に対応した単語又は文章の音声データとを比較し、比較結果に応じて点数を算出する。そして、プロセッサ11は、算出した点数を端末20に返す。これを受けて、CPU21は、点数を例えば表示装置26に表示する。
At step S209,
ステップS210において、プロセッサ11は、テスト結果としての点数をS_IDと関連付けて例えばRAM13に記憶する。
In step S210, the
ステップS211において、プロセッサ11は、発音テストを終了するか否かを判定する。例えば、予め設定された問題数の発音テストが完了した場合に発音テストを終了すると判定される。または、端末20からサーバ10に対して発音テストの終了が指示された場合又はモードの変更が指示された場合に発音テストを終了すると判定される。ステップS211において、発音テストを終了すると判定されていないときには、処理はステップS209に戻る。この場合、発音テストが継続される。ステップS211において、発音テストを終了すると判定されたときには、処理はステップS212に移行する。
At step S211, the
ステップS212において、プロセッサ11は、発音テストの結果に基づいて優先度DBを更新する。その後、優先度DBの更新の後、プロセッサ11は、図8の処理を終了させる。以下、優先度DBの更新処理を説明する。図12は、優先度DBの更新処理を示すフローチャートである。
At step S212, the
ステップS401において、プロセッサ11は、発音テストの結果を優先度DBに登録する。すなわち、プロセッサ11は、テストが実施されたS_IDの点数を更新する。
In step S401, the
ステップS402において、プロセッサ11は、優先度DBを参照して、優先度が”高”のS_IDを抽出する。ステップS402では発音テストが実施されたS_IDのうちで優先度が”高”のS_IDが抽出されてよい。
In step S402, the
ステップS403において、プロセッサ11は、抽出したS_IDの点数が閾値以上になったか否かを判定する。ステップS403の閾値は、ステップS305の閾値と同じであってよい。ステップS403において、抽出したS_IDの点数が閾値以上になったと判定されたときには、処理はステップS404に移行する。ステップS403において、抽出したS_IDの点数が閾値以上になったと判定されていないときには、処理はステップS405に移行する。
In step S403, the
ステップS404において、プロセッサ11は、対応するS_IDの優先度を”高”から”低”に更新する。その後、処理はステップS405に移行する。すなわち、対応するS_IDの単語又は文章の発音能力が向上したことにより、対応するL_IDの単語又は文章のリスニング能力の向上も期待される。このため、対応するS_IDは、おすすめモードにおける抽出対象からは除外される。
At step S404, the
ステップS405において、プロセッサ11は、優先度DBの更新処理を終了するか否かを判定する。すべての抽出したS_IDについてステップS403-S404の処理が完了したときに、優先度DBの更新処理を終了すると判定される。ステップS405において、優先度DBの更新処理を終了すると判定されていないときには、処理はステップS402に戻る。この場合、プロセッサ11は、別のS_IDを抽出して同様の処理を実施する。ステップS405において、優先度DBの更新処理を終了すると判定されたときには、プロセッサ11は、図12の処理を修了させる。
In step S405, the
以上説明したように本実施形態によれば、リスニングトレーニングのためのリスニングテストの結果に基づいて発音トレーニングのための発音テストのトレーニングテキストが優先的に抽出される。発音能力とリスニング能力とには相関があると考えられることから、ユーザがリスニングを苦手とする単語又は文章を正しく発音させることにより、この単語又は文章に対するリスニング能力の向上が期待され得る。このように、実施形態では、リスニングテストの結果が効果的に発音テストに利用され得る。 As described above, according to the present embodiment, training texts for pronunciation tests for pronunciation training are preferentially extracted based on the results of listening tests for listening training. Pronunciation ability and listening ability are considered to be correlated, and it is expected that the ability to listen to words or sentences that are difficult for the user to listen to can be improved by correctly pronouncing the words or sentences. Thus, in the embodiment, listening test results can be effectively used for pronunciation tests.
また、実施形態では、ユーザが苦手としていたリスニングテストの問題に正答できた場合又はユーザがリスニングを苦手としていた単語又は文章を正しく発音できた場合には、対応する単語又は文章を含むトレーニングテキストは、抽出対象から除外される。これにより、リスニング能力の向上を目的としたおすすめモードにおいて不要なテストが実施されることが抑制され得る。 In addition, in the embodiment, if the user can correctly answer a listening test question that the user had difficulty with, or if the user can correctly pronounce a word or sentence that the user had difficulty listening to, the training text containing the corresponding word or sentence is , are excluded from extraction. This can prevent unnecessary tests from being carried out in the recommendation mode aimed at improving listening ability.
ここで、実施形態では、リスニングテストの結果に基づく優先度DBの更新処理が発音テストの実施の前にわれる。これに対し、リスニングテストの結果に基づく優先度DBの更新処理は、リスニングテストの終了時に行われてもよい。 Here, in the embodiment, the priority DB is updated based on the results of the listening test before the pronunciation test is performed. On the other hand, the update processing of the priority DB based on the result of the listening test may be performed at the end of the listening test.
また、実施形態では、リスニングテストの実施、発音テストの実施、及び各種のデータベースの登録は、トレーニングプログラム141に従ってサーバ10において行われる。これに対し、トレーニングプログラム141が電子辞書等の端末20に記憶されていれば、リスニングテストの実施及び発音テストの実施は、端末20において行われてもよい。この場合において、リスニングDB142及び発音DB143は、端末20のストレージ24に記憶されていてもよいし、サーバ10のストレージ14に記憶されていてもよい。
In addition, in the embodiment, the listening test, the pronunciation test, and the registration of various databases are performed in the
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made in the implementation stage without departing from the scope of the invention. Moreover, each embodiment may be implemented in combination as much as possible, and in that case, the combined effect can be obtained. Furthermore, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the problems described in the column of problems to be solved by the invention can be solved, and the effects described in the column of effects of the invention is obtained, a configuration from which this constituent element is deleted can be extracted as an invention.
以下に、本出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1] ユーザに対して実施されたリスニングテストの結果に基づいて単語又は前記単語を含む文章を発音問題のデータベースから抽出することと、
前記ユーザに対し、抽出された前記単語又は前記文章に基づく発音テストを実施することと、
をコンピュータに実行させるための発音トレーニングプログラム。
[2] 前記単語又は前記単語を含む文章を抽出することは、前記ユーザに対して実施されたリスニングテストにおいて誤答であった単語又は誤答であった前記単語を含む文章を優先的に抽出することを前記コンピュータに実行させることを含む[1]に記載の発音トレーニングプログラム。
[3] 前記単語又は前記単語を含む文章を抽出することは、抽出された前記単語又は前記文章に基づく発音テストの結果、閾値以上の点数であった前記単語又は閾値以上の点数であった前記単語を含む文章を抽出の対象から除外することを前記コンピュータに実行させることを含む[1]に記載の発音トレーニングプログラム。
[4] 前記単語又は前記単語を含む文章を抽出することは、抽出された前記単語又は前記文章に基づく再度のリスニングテストの結果、正答であった単語又は正答であった前記単語を含む文章を抽出の対象から除外することを前記コンピュータに実行させることを含む[1]に記載の発音トレーニングプログラム。
[5] ユーザに対して実施されたリスニングテストの結果に基づいて単語又は前記単語を含む文章を発音問題のデータベースから抽出する抽出部と、
前記ユーザに対し、抽出された前記単語又は前記文章に基づく発音テストを実施するテスト部と、
を具備する端末装置。
[6] 前記端末装置は、電子辞書である[5]に記載の端末装置。
The invention described in the scope of claims at the time of filing of this application will be added below.
[1] extracting a word or a sentence containing the word from a database of pronunciation problems based on the results of a listening test conducted on the user;
administering a pronunciation test to the user based on the extracted words or sentences;
Pronunciation training program for computer execution.
[2] Extracting the words or sentences containing the words preferentially extracts words that were incorrect answers or sentences containing the words that were incorrect answers in a listening test conducted for the user. The pronunciation training program according to [1], comprising causing the computer to perform:
[3] Extracting the word or a sentence containing the word includes the word having a score equal to or higher than a threshold or the score equal to or higher than a threshold as a result of a pronunciation test based on the extracted word or sentence. The pronunciation training program according to [1], including causing the computer to exclude sentences containing words from extraction targets.
[4] Extracting the word or a sentence containing the word includes extracting the word that was the correct answer or the sentence containing the word that was the correct answer as a result of another listening test based on the extracted word or the sentence. The pronunciation training program according to [1], including causing the computer to exclude from extraction targets.
[5] an extraction unit that extracts a word or a sentence containing the word from a database of pronunciation problems based on the results of a listening test conducted on the user;
a testing unit that performs a pronunciation test based on the extracted words or sentences for the user;
A terminal device comprising
[6] The terminal device according to [5], wherein the terminal device is an electronic dictionary.
1 システム、10 サーバ、11 プロセッサ、12 ROM、13 RAM、14 ストレージ、15 通信装置、19 システムバス、20 端末、21 CPU、22 ROM、23 RAM、24 ストレージ、25 入力装置、26 表示装置、27 スピーカ、28 通信装置、29 システムバス、30 ネットワーク、141 トレーニングプログラム、142 リスニングデータベース(DB)、143 発音データベース(DB)。 1 system, 10 server, 11 processor, 12 ROM, 13 RAM, 14 storage, 15 communication device, 19 system bus, 20 terminal, 21 CPU, 22 ROM, 23 RAM, 24 storage, 25 input device, 26 display device, 27 Speaker, 28 communication device, 29 system bus, 30 network, 141 training program, 142 listening database (DB), 143 pronunciation database (DB).
Claims (6)
前記ユーザに対し、抽出された前記単語又は前記文章に基づく発音テストを実施することと、
をコンピュータに実行させるための発音トレーニングプログラム。 extracting words or sentences containing said words from a pronunciation problem database based on the results of a listening test administered to a user;
administering a pronunciation test to the user based on the extracted words or sentences;
Pronunciation training program for computer execution.
前記ユーザに対し、抽出された前記単語又は前記文章に基づく発音テストを実施するテスト部と、
を具備する端末装置。 an extraction unit that extracts words or sentences containing the words from a database of pronunciation questions based on the results of a listening test conducted on the user;
a testing unit that performs a pronunciation test based on the extracted words or sentences for the user;
A terminal device comprising
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014510A JP7371644B2 (en) | 2021-02-01 | 2021-02-01 | Pronunciation training program and terminal device |
CN202210110953.8A CN114842710A (en) | 2021-02-01 | 2022-01-29 | Pronunciation training method, program storage medium, and terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021014510A JP7371644B2 (en) | 2021-02-01 | 2021-02-01 | Pronunciation training program and terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022117805A true JP2022117805A (en) | 2022-08-12 |
JP7371644B2 JP7371644B2 (en) | 2023-10-31 |
Family
ID=82562577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021014510A Active JP7371644B2 (en) | 2021-02-01 | 2021-02-01 | Pronunciation training program and terminal device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7371644B2 (en) |
CN (1) | CN114842710A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102621451B1 (en) * | 2023-02-01 | 2024-01-04 | 박상은 | Method, apparatus and system for providing user-customized voice training service |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229431A (en) * | 2001-02-01 | 2002-08-14 | Tdk Corp | Learning system |
WO2004029906A1 (en) * | 2002-09-25 | 2004-04-08 | Benesse Corporation | Test system and control method thereof |
JP2012018359A (en) * | 2010-07-09 | 2012-01-26 | Sharp Corp | Electronic apparatus, control method thereof, and control program |
JP2017021245A (en) * | 2015-07-13 | 2017-01-26 | 住友電気工業株式会社 | Language learning support device, language learning support method, and language learning support program |
JP2020126094A (en) * | 2019-02-01 | 2020-08-20 | シャープ株式会社 | Display device and display control method of the same |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100421651B1 (en) * | 2001-11-16 | 2004-03-11 | 인벤텍 코오포레이션 | System and method that randomly makes question and answer sentences for enhancing user's foreign language speaking and listening abilities |
JP2004271641A (en) | 2003-03-05 | 2004-09-30 | Eigyotatsu Kofun Yugenkoshi | System and method of hearing and pronunciation training using computer |
KR101125572B1 (en) * | 2009-06-18 | 2012-03-23 | 황세희 | Interactive multi-functional language learning method |
JP5664978B2 (en) * | 2011-08-22 | 2015-02-04 | 日立コンシューマエレクトロニクス株式会社 | Learning support system and learning support method |
JP6213089B2 (en) * | 2013-09-19 | 2017-10-18 | カシオ計算機株式会社 | Speech learning support apparatus, speech learning support method, and computer control program |
KR20160056548A (en) * | 2014-11-12 | 2016-05-20 | 삼성전자주식회사 | Apparatus and method for qusetion-answering |
CN105845134B (en) * | 2016-06-14 | 2020-02-07 | 科大讯飞股份有限公司 | Spoken language evaluation method and system for freely reading question types |
-
2021
- 2021-02-01 JP JP2021014510A patent/JP7371644B2/en active Active
-
2022
- 2022-01-29 CN CN202210110953.8A patent/CN114842710A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229431A (en) * | 2001-02-01 | 2002-08-14 | Tdk Corp | Learning system |
WO2004029906A1 (en) * | 2002-09-25 | 2004-04-08 | Benesse Corporation | Test system and control method thereof |
JP2012018359A (en) * | 2010-07-09 | 2012-01-26 | Sharp Corp | Electronic apparatus, control method thereof, and control program |
JP2017021245A (en) * | 2015-07-13 | 2017-01-26 | 住友電気工業株式会社 | Language learning support device, language learning support method, and language learning support program |
JP2020126094A (en) * | 2019-02-01 | 2020-08-20 | シャープ株式会社 | Display device and display control method of the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102621451B1 (en) * | 2023-02-01 | 2024-01-04 | 박상은 | Method, apparatus and system for providing user-customized voice training service |
Also Published As
Publication number | Publication date |
---|---|
CN114842710A (en) | 2022-08-02 |
JP7371644B2 (en) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7204690B2 (en) | Tailor interactive dialog applications based on author-provided content | |
US8515764B2 (en) | Question and answer database expansion based on speech recognition using a specialized and a general language model | |
US20080027731A1 (en) | Comprehensive Spoken Language Learning System | |
KR20100015958A (en) | Multi-mode input method editor | |
JP7371644B2 (en) | Pronunciation training program and terminal device | |
CN111710203A (en) | English pronunciation correction system based on big data | |
KR101121134B1 (en) | Method for memorizing word on the base of speed listening and memorizing word apparatus thereof | |
US20070061139A1 (en) | Interactive speech correcting method | |
KR20170014812A (en) | Interactive learning method for based on voice recognition | |
JP2020126094A (en) | Display device and display control method of the same | |
KR101042324B1 (en) | Foreign language vocabulary learning method | |
JP6746886B2 (en) | Learning support device and program for the learning support device | |
CN108511001B (en) | Voice monitoring method and device, storage medium and terminal | |
JP2019060914A (en) | Learning support apparatus, learning support system, learning support method, and program | |
CN110148414B (en) | Voice utterance guiding method and device | |
JP7013702B2 (en) | Learning support device, learning support method, and program | |
Jo et al. | Effective computer‐assisted pronunciation training based on phone‐sensitive word recommendation | |
KR20210089425A (en) | Mobile device for studying English words and operating method thereof | |
CN109035896B (en) | Oral training method and learning equipment | |
KR20170014810A (en) | Method for English study based on voice recognition | |
JP3851527B2 (en) | Foreign language learning device | |
KR20020024828A (en) | Language study method by interactive conversation on Internet | |
JP6538399B2 (en) | Voice processing apparatus, voice processing method and program | |
TWI678686B (en) | Interactive education method and teaching electronic device | |
KR20190041890A (en) | Device and Server System for Learning Foreign Language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7371644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |