JP2004258231A - Device and method of assisting language learning - Google Patents

Device and method of assisting language learning Download PDF

Info

Publication number
JP2004258231A
JP2004258231A JP2003048015A JP2003048015A JP2004258231A JP 2004258231 A JP2004258231 A JP 2004258231A JP 2003048015 A JP2003048015 A JP 2003048015A JP 2003048015 A JP2003048015 A JP 2003048015A JP 2004258231 A JP2004258231 A JP 2004258231A
Authority
JP
Japan
Prior art keywords
language
pronunciation
character information
screen
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003048015A
Other languages
Japanese (ja)
Inventor
Akihiro Masuda
明弘 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003048015A priority Critical patent/JP2004258231A/en
Publication of JP2004258231A publication Critical patent/JP2004258231A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a reasonable device and method of assisting language learning in which a learner simultaneously learns the correct pronunciation and the translation of a foreign language according to the proficient level of the learner. <P>SOLUTION: The device of assisting language learning is available which is provided with a first language character information display means and a second language character information display means which display a first language and a second language in the form of character information, a voice information acquiring means which acquires voice information, a pronunciation coincidence decision means which decides the degree of coincidence of pronunciation by comparing the pronunciation included in the voice information acquired with the voice information acquiring means with the correct pronunciation of the correct pronunciation or the like of the first or the second language, a language character information output decision means which decides whether the language character information is displayed or not on a screen with the first language character information display means or the second language character information display means on the basis of the decided result with the pronunciation coincidence decision means. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、外国語の正しい発音と翻訳を同時に学習でき、さらに学習者の実力レベルに応じた無理のない語学学習を支援する語学学習支援装置及び語学学習支援方法に関する。
【0002】
【従来の技術】
社会の国際化が一段と進むなか、英語を始めとした外国語の習得が望まれており、多種多様な外国語学習支援装置や学習支援方法が提案されている。
【0003】
例えば、選択された外国語ワードの正しい発音として表示される個人の唇のアニメーションを見ながら、更に、スピーカから話されるワードを聞きながら、いかに発音するかを学習する外国語教育補助方法及び装置が提案されている(特表平10−509811)。
【0004】
また、例えば日本人が入力した英語の発音をネイティブの発音と比較、判定し、その結果を表示する発明が提案されている(特開2001−282096)。
【0005】
さらに、発音すべきアイテムの音声が入力されると、内部記憶された音声と比較され、一致したとの判定が得られると、そのアイテムに関連する映像が表示されるものも提案されている(特開平10−133561)。
【0006】
【特許文献1】
特表平10−509811号公報
【0007】
【特許文献2】
特開2001−282096公報
【0008】
【特許文献3】
特開平10−133561号公報
【0009】
【発明が解決しようとする課題】
外国語が習得できたというためには、学習対象言語の聞き取り力、発音、翻訳力の全てが備わっていなければならない。
【0010】
しかし、従来の外国語学習支援装置は、これら三要素(聞き取り力、発音、翻訳力)を同時に訓練できるものは提案されていない。これらの三要素のうち、聞き取り力と発音については、いずれも音声に関するものであるから同時に習得することを目的とした提案はされているが、翻訳力を同時に習得できるように構成された装置は提案されていない。
【0011】
前記従来技術についてみてみると、特表平10−509811号公報記載の外国語教育補助装置の発明は、正しい発音が一方的に提示されるだけである。従って、自分の発音がネイティブに通じるものかどうかを知ることができないだけでなく、正しい発音と正しい翻訳が同時に身に付くということがない。
【0012】
また、前記特開2001−282096公報記載の発明も、発音が比較、判定されるだけであり、正しい発音と正しい翻訳が関連していないので、自然に、かつ、早期に正しい発音と正しい翻訳が同時に身に付くということがない。
【0013】
さらに、特開平10−133561号公報記載の発明は、幼児に対する言語教育を目的としたものであり、外国語の正しい発音や正しい翻訳を学習することを想定したものでない。
【0014】
【課題を解決するための手段】
本発明は前記の問題点を改善するためになされたもので、学習者が画面に文字情報で表示された第一の言語(例えば、母国語)を見て、当該第一の言語に対応している(翻訳に該当する)第二の言語(第一の言語を翻訳した他の言語であって、学習者が学習しようとしている言語)の発音を正しく行ったときにのみ、当該第二の言語が文字情報及び/又は音声情報(発音)で出力されるようにすることによって、学習対象言語(前記で言えば第二の言語)の正しい発音と、第一の言語(例えば、母国語)に対応する正しい学習対象言語(前記で言えば第二の言語)(すなわち、正しい翻訳)とを同時に習得することを可能にするものである。
【0015】
この発明の語学学習支援装置は、以下に説明する第一言語文字情報表示手段と、第二言語文字情報表示手段と、音声情報取得手段と、発音一致度判定手段と、文字情報出力決定手段とを備えていることを特徴とするものである。
【0016】
第一言語文字情報表示手段は、第一の言語(例えば、日本人であれば一般的に日本語であるように、本発明の語学学習支援装置を用いて語学学習しようとする者の母国語)を文字情報でコンピュータなどの画面に表示するコンピュータの処理動作部である。
【0017】
第二言語文字情報表示手段は、前記第一の言語を翻訳した他の言語である第二の言語(例えば、英語などのように、本発明の語学学習支援装置を用いて語学学習しようとする者が学習しようとする言語)を文字情報でコンピュータなどの画面に表示するコンピュータの処理動作部である。
【0018】
音声情報取得手段は音声情報を取得するコンピュータの処理動作部であり、例えば、本発明の語学学習支援装置がパーソナルコンピュータなどのコンピュータで実現されている場合に、コンピュータを使用する者(学習者)からの音声入力情報をマイクロフォンなどを通じて取得し、後述する発音一致度判定手段による発音の一致度合い判定処理に供される信号などの情報に変換する処理動作を行うものである。この音声情報取得手段にはA/D変換器などが備えられていて、マイクロフォンなどで取得された音声情報(アナログデータ)は、後述する発音一致度判定手段による発音の一致度合い判定処理に供されるデジタルデータに変換される。
【0019】
発音一致度判定手段は、前記の音声情報取得手段で取得した音声情報に含まれている発音を、画面に表示されている前記第一の言語又は第二の言語、又は、画面に表示されている前記第一の言語又は第二の言語に対応する第二の言語又は第一の言語の正しい発音と比較し、発音の一致度合いを判定するコンピュータの処理動作部である。
【0020】
例えば、第二の言語が英語で、画面に第二言語文字情報表示手段によって「BOY」という文字情報が表示され、学習者が「ボーイ」と発音して前記の音声情報取得手段がこれを取得した際に、第一の言語や第二の言語の正しい発音(例えば、ネイティブのスピーカーによる発音)に関する情報が保持されていて、コンピュータの記憶部に備えられている発音情報データベースを利用して英語「BOY」の正しい発音と比較し、発音の一致度合いを判定したり、第一の言語が日本語で、画面に第一言語文字情報表示手段によって「少年」という文字情報が表示され、学習者が「ボーイ」と発音して前記の音声情報取得手段がこれを取得した際に、前記の発音情報データベースを利用して画面に表示されている第一の言語である「少年」に対応する第二の言語である英語「BOY」の正しい発音と比較し、発音の一致度合いを判定するものである。
【0021】
なお前記の発音の比較には、既存の発音比較判定プログラムを用いる等、種々の手段を採用可能である。
【0022】
また、この発音の比較は、単語ごとに行うようにすることもできるし、発音されるべきものが複数の単語からなる一つの文章である場合、文章の全体について比較、判定すようにもできる。
【0023】
前記の発音情報データベースは、第一の言語とこれに対応する第二の言語とに関する情報が保持されている言語データベースと別々に構築することもできるし、言語データベース中の一部にこれが備えられている構成にすることもできる。
【0024】
この、言語データベース、発音情報データベースは、例えば、本発明のコンピュータを利用した語学学習支援方法をコンピュータに実行させるコンピュータプログラムが格納されているCD−ROM等の電磁記憶媒体に保持させておき、このCD−ROM等を使用して本発明の語学学習支援装置を動作させる際に、当該語学学習支援装置を構成するコンピュータの記憶部に保持させることができる。
【0025】
次に、前記の文字情報出力決定手段は、発音一致度判定手段の判定結果に基づき、前記第一言語文字情報表示手段又は第二言語文字情報表示手段による画面への文字情報表示を行わせるかどうかを決定するコンピュータの処理動作部である。
【0026】
これによって、例えば、第二の言語が英語で、画面に第二言語文字情報表示手段によって「BOY」という文字情報が表示され、学習者が「ボーイ」と発音して前記の音声情報取得手段がこれを取得し、発音一致度判定手段によって「発音が一致している」あるいは、「正しい発音である」等と判断した場合、この判定結果に基づき、文字情報出力決定手段が、第一言語文字情報表示手段による画面への文字情報(「BOY」に対応する第一の言語である「少年」)の表示処理を実行させることが行われる。又、例えば、第一の言語が日本語で、画面に第一言語文字情報表示手段によって「少年」という文字情報が表示され、学習者がこの「少年」に対応する第二の言語である「BOY」の発音である「ボーイ」を音声情報取得手段を介して入力し、発音一致度判定手段によって「発音が一致している」あるいは、「正しい発音である」等と判断した場合、この判定結果に基づき、文字情報出力決定手段が、第二言語文字情報表示手段による画面への文字情報(「少年」に対応する第二の言語である「BOY」)の表示処理を実行させることが行われる。
【0027】
前記の本発明の語学学習支援装置において、第一言語文字情報表示手段による画面への第一の言語の文字情報での表示及び、第二言語文字情報表示手段による画面への第二の言語の文字情報での表示は、第一言語文字情報表示手段による第一の言語の文字情報での表示、又は、第二言語文字情報表示手段による第二の言語の文字情報での表示のいずれか一方、又は、同一の画面への第一言語文字情報表示手段による第一の言語の表示と第二言語文字情報表示手段による第二の言語の表示が並列して行われようにすることができる。
【0028】
これは、前述した第一言語文字情報表示手段、第二言語文字情報表示手段の処理動作をそれぞれコンピュータに実行させるコンピュータプログラムにおいて、画面への文字情報での表示が、このように、第一言語文字情報表示手段による第一の言語の文字情報のみでの表示、又は、第二言語文字情報表示手段による第二の言語の文字情報のみでの表示、又は、第一言語文字情報表示手段による第一の言語の文字情報での表示と第二言語文字情報表示手段による第二の言語の文字情報での表示とが同一の画面に並列して行われように当該コンピュータプログラムを変更することにより実行できる。
【0029】
例えば、第二の言語が英語で、画面に第二言語文字情報表示手段によって「BOY」という文字情報が表示され、学習者が「ボーイ」と発音して前記の音声情報取得手段がこれを取得し、発音一致度判定手段によって「発音が一致している」あるいは、「正しい発音である」等と判断した場合、この判定結果に基づき、文字情報出力決定手段が、第一言語文字情報表示手段による画面への文字情報(「BOY」に対応する第一の言語である「少年」)の表示処理を実行させるが、この際、最初に画面に表示されていた「BOY」が削除されて、新たに、「少年」という文字情報のみが画面に表示されるようにすることもできるし、「BOY」が表示されている画面において、「BOY」に並列して「少年」が表示されるようにすることもできる。後者の形態にすれば、「少年」に対応する英語「BOY」の正しい発音を行ったときに、「BOY」と「少年」とが並列して表示されるので、学習者は正しい発音と、正しい翻訳とを同時に身に付けることができる。
【0030】
前記第一言語文字情報表示手段、第二言語文字情報表示としては、出題対象の単語又は文章を第一言語(例えば、学習者の母国語)、第二言語(すなわち学習対象言語)でディスプレイ、モニタ等に表示できるものであればどのような形態のものであってもよい。
【0031】
この発明の語学学習支援装置では、第一言語文字情報表示手段、第二言語文字情報表示手段を備えているため、第一言語文字情報表示手段、第二言語文字情報表示手段にそれぞれ対応する2つのディスプレイ、モニタを設けることができる。また、1つのディスプレイ、モニタの画面を2つの領域に分けて、一方の領域に第一言語文字情報表示手段による表示をし、他方の領域に第二言語文字情報表示手段による表示をすることもできる。さらに1つディスプレイ、モニタ上に第一言語文字情報表示手段、第二言語文字情報表示手段による表示を並列させることもできる。要は、第一言語の表示と第二言語の表示をさせることができれば、その表示方法は特に限定されることはない。
【0032】
前記本発明のいずれの語学学習支援装置においても、更に、添削情報表示手段を備えているようにすることができる。
【0033】
添削情報表示手段は、音声情報取得手段で取得した音声情報が、画面に文字情報で表示されている第一の言語又は第二の言語の発音に相当する場合に、前記発音一致度判定手段の判定結果に基づき、画面に文字情報で表示されている第一の言語又は第二の言語中の発音が正確でなかった部分又は正確であった部分を他の部分と区別して表示するコンピュータの処理動作部である。
【0034】
この添削情報表示手段をも備えた語学学習支援装置にする場合には、前述した文字情報出力決定手段が、発音一致度判定手段の判定結果に基づき、添削情報表示手段の前述した処理動作を行わせるかどうか決定する形態にすることができる。
【0035】
例えば、発音一致度判定手段が「発音が不正確である」「発音が一致していない」と判定した場合に、文字情報出力決定手段が、添削情報表示手段の前述した処理動作の実行を指示し、これによって、前記発音一致度判定手段が「一致していない」あるいは「発音不正確」と判定した部分を、例えば、画面に文字情報で表示される、あるいは、されている第一の言語又は第二の言語の単語毎に、あるいは、当該単語中の「発音不正確」と判断された部分ごとに、添削情報表示手段が、アンダーラインを付したり、枠で囲ったりして、一致していない部分、発音不正確である部分を学習者が認識できるように表示するものである。
【0036】
これによって、学習者が、一致していない部分、即ち、間違っていた部分を知ることができれば、当該部分に注意を払って学習を進めることができ、早期の上達が可能となる。
【0037】
また、前記本発明のいずれの語学学習支援装置においても、前述した発音一致度判定手段は、一致の度合いの判定基準を変更できるようにすることができる。即ち、一致の度合いの判定基準を可変にすることができる。
【0038】
例えば、「正確な発音である」「正確な発音でない(不正確な発音である)」を判定する基準となる発音の一致程度、すなわち、判定する対象となる単語、あるいは文章の発音について、音声情報取得手段で取得した学習者の発音と、発音情報データベースに保持されている第一の言語、第二の言語についての正しい発音とを比較したときの一致する程度が、「90%以上の一致程度でなければ『正確な発音である』と判定しない」、「80%以上の一致程度でなければ『正確な発音である』と判定しない」、等々と区分けし、本発明の語学学習支援装置が実現されているコンピュータに備えられているキーボード、ポインティングデバイス、等の情報取得手段を通じて学習者が入力、指示して、前述した発音一致度判定手段が、例えば、「『正確な発音である』と判定するレベルを90%以上の一致程度とする」、「『正確な発音である』と判定するレベルを80%以上の一致程度とする」ように選択できるようにするものである。
【0039】
また、本発明の語学学習支援装置をパーソナルコンピュータのようなコンピュータに実現させるコンピュータプログラムが格納されているCD−ROMのような電子記憶媒体を、80%以上の発音の一致程度で前述した発音一致度判定手段が「正確な発音である」と判定するように動作するもの、90%以上の発音の一致程度で前述した発音一致度判定手段が「正確な発音である」と判定するように動作するもの、等々と複数準備しておき、学習者が自分の学習程度、能力に応じて、学習レベルにあう電子記憶媒体(例えば、CD−ROM、カセット)を選択して使用することにより、前述した発音一致度判定手段の一致度合い判定基準を変更できるようにすることもできる。
【0040】
これによって、本発明の語学学習支援装置を使用する学習者は、自己の語学レベルに応じて、語学能力を一歩ずつ高めるように学習することができる。
【0041】
更に、前記本発明のいずれの語学学習支援装置においても、第一の言語の正しい発音を出力する第一言語音声情報出力手段、又は、第二の言語の正しい発音を出力する第二言語音声情報出力手段、又は、前記第一言語音声情報出力手段と前記第二言語音声情報出力手段との双方を更に備える構成にすることができる。
【0042】
第一言語音声情報出力手段、第二言語音声情報出力手段は、いずれも、コンピュータの記憶部に格納されていて第一の言語や第二の言語の正しい発音に関する情報を保持している発音情報データベース中の情報を、「発音」という音声情報(アナログデータ)に変換して、スピーカやヘッドフォンなどから出力するコンピュータの処理動作部である。
【0043】
ここで、第一言語音声情報出力手段による発音の出力および第二言語音声情報出力手段による発音の出力は、第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に第一の言語又は第二の言語が文字情報で表示される際、又は、前記添削情報表示手段によって添削情報の表示が行われる際に、第一の言語又は第二の言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるようにすることができる。
【0044】
これは、第一言語音声情報出力手段、第二言語音声情報出力手段の前述した処理動作をそれぞれコンピュータに実行させるコンピュータプログラムにおいて、第一言語文字情報表示手段によって画面に第一の言語が文字情報で表示される際に第一言語音声情報出力手段による発音の出力が行われる、又は、第二言語文字情報表示手段によって画面に第二の言語が文字情報で表示される際に第二言語音声情報出力手段による発音の出力が行われる、又は、第一言語文字情報表示手段によって画面に第一の言語が文字情報で表示される際に第二言語音声情報出力手段による発音の出力が行われる、又は、第二言語文字情報表示手段によって画面に第二の言語が文字情報で表示される際に第一言語音声情報出力手段による発音の出力が行われる、又は、添削情報表示手段の前述した添削情報表示処理が行われる際に第一言語音声情報出力手段又は第二言語文字情報表示手段による発音の出力が行われるように当該コンピュータプログラムを変更することにより実行できる。
【0045】
これによって、第一の言語又は第二の言語の正しい発音の出力が、第一言語文字情報表示手段、第二言語文字情報表示手段による画面への文字情報の表示と同時に行われるので、学習者に対して視覚による情報と、聴覚による情報とを同時に提供し、学習支援を一層促進することができる。このとき学習者は、聴覚により正しい発音を、視覚により正しい翻訳(第一の言語に対応する第二の言語、第二の言語に対応する第一の言語)を確認できることになる。
【0046】
更に、前記の本発明による語学学習支援装置において、第一言語音声情報出力手段による発音の出力および第二言語音声情報出力手段による発音の出力は、正しい発音の出力を求める指示を取得した際に、当該指示で要求された言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるようにすることもできる。例えば、第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に文字情報で表示されている第一の言語又は第二の言語についての正しい発音の出力を求める指示を取得した際に、画面に文字情報で表示されている第一の言語又は第二の言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるものである。
【0047】
すなわち、コンピュータプログラムによる指示により、第一言語音声情報出力手段による発音の出力、第二言語音声情報出力手段による発音の出力が、第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に第一の言語又は第二の言語が文字情報で表示されると同時に、当該表示される第一の言語又は第二の言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるようにすることができるだけでなく、このように、学習者が、本発明の語学学習支援装置が実現されているコンピュータのキーボード、ポインティングデバイス、等の情報取得手段を介して、第一言語音声情報出力手段による発音の出力、第二言語音声情報出力手段による発音の出力を希望することを当該コンピュータに入力することによって、初めて、第一言語音声情報出力手段による発音の出力、第二言語音声情報出力手段による発音の出力が行われるようにすることができる。
【0048】
本発明の語学学習支援装置を用いて語学学習しようとするとき、最初から正しい発音を語学学習支援装置が出力したのでは学習者のレベルアップに繋がらなかったり、学習者の興味を失わせたりすることが考えられる。このため、常に最初から正しい発音を出力する必要はないが、その一方で、なかなか正しい発音ができなかったり、全くその発音がわからなかったりする場合は、学習者の指示、リクエストに応じて正しい発音を出力するようにした方が学習が促進されることも考えられる。
【0049】
このような場合、第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に文字情報で表示されている第一の言語又は第二の言語についての正しい発音の出力を求める指示(例えば、学習者が出す指示)を取得した際に、正しい発音を出力して学習者に教えることができるようにすれば、効果的に学習を支援できる。
【0050】
なお、前記の本発明による語学学習支援装置において、発音一致度判定手段による「発音が一致していない」、あるいは、「発音不正確である」との判断があらかじめ定められている回数続いたときに、第一言語音声情報出力手段による発音の出力、又は、第二言語音声情報出力手段による発音の出力が行われるようにすることもできる。
【0051】
即ち、前記のように、文字情報出力決定手段によって、発音一致度判定手段での判定結果に基づき、第一言語文字情報表示手段又は第二言語文字情報表示手段による文字情報表示が行われる際に、同時に、当該表示される文字情報の発音が、第一言語音声情報出力手段又は第二言語音声情報出力手段から出力されるようにすることや、第一の言語又は第二の言語についての正しい発音の出力を求める指示を取得した際に、当該指示で要求された言語の発音が第一言語音声情報出力手段又は第二言語音声情報出力手段から出力されるようにすることの他、学習者が、あらかじめ定められている回数(例えば、3回)正しくない発音で音声入力したならば、自動的に、第一言語音声情報出力手段による発音の出力、又は、第二言語音声情報出力手段による発音の出力が行われるようにすることができる。
【0052】
以上説明した本発明の語学学習支援装置は、第一言語文字情報表示手段、第二言語文字情報表示手段、音声情報取得手段、発音一致度判定手段、文字情報出力決定手段、添削情報表示手段、第一言語音声情報出力手段、第二言語音声情報出力手段の前述した各処理動作をコンピュータに行わせるコンピュータプログラムをコンピュータで実行させることにより実現することができる。
【0053】
前記の第一言語文字情報表示手段、第二言語文字情報表示手段、音声情報取得手段、発音一致度判定手段、文字情報出力決定手段、さらに、添削情報表示手段は、いずれも別個独立のハードウェアである必要はなく、一部の機能をソフトウェアによって実現することも可能である。例えば、CPU、メモリ、バスを備えた既存のパーソナルコンピュータに語学学習ソフトをインストールして構成することもできる。また、語学学習支援専用装置の本体を構成し、この本体に学習用カセットやCD−ROMを差し込んで使用する形態であってもよい。このような構成とすれば、学習者は、キーボードやポインティングデバイス、専用装置の操作ボタンを操作することによって語学学習支援装置を使用することができる。
【0054】
次に、前記課題を解決するため、本発明が提案する語学学習支援方法は、第一の言語又は第一の言語を翻訳した他の言語である第二の言語の文字情報をそれぞれ第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に表示し発音の入力を促すステップと、音声情報取得手段によって音声情報を取得するステップと、音声情報取得手段によって取得した音声情報に含まれている発音を、発音一致度判定手段によって、前記画面に表示されている第一の言語又は第二の言語の正しい発音と比較し、発音の一致度合いを判定するステップと、発音一致度判定手段の判定結果に基づき、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語を第二言語文字情報表示手段又は第一言語文字情報表示手段によって画面に文字情報で表示させるかどうかを決定するステップとを備えていることを特徴とするものである。
【0055】
この方法は、例えば、文字情報として英語(第二の言語)をコンピュータの画面に表示し、学習者には英語(第二の言語)での発音を促し、学習者が発音した英語(第二の言語)を音声情報として音声情報取得手段によって取得し、これを発音一致度判定手段によって発音の一致度を判定し、この判定結果に基づき、文字情報出力決定手段が決定したところにより、前記英語(第二の言語)に対応する(すなわち、第二の言語の翻訳にあたる)第一の言語(日本語)をコンピュータの画面に表示することを内容とするものである。
【0056】
また、前記課題を解決するため、本発明が提案する他の語学学習支援方法は、第一の言語又は第一の言語を翻訳した他の言語である第二の言語の文字情報をそれぞれ第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に表示し発音の入力を促すステップ、音声情報取得手段によって音声情報を取得するステップ、音声情報取得手段によって取得した音声情報に含まれている発音を、発音一致度判定手段によって、前記画面に表示されている第一の言語又は第二の言語に対応する第二の言語又は第一の言語の正しい発音と比較し、発音の一致度合いを判定するステップ、発音一致度判定手段の判定結果に基づき、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語を第二言語文字情報表示手段又は第一言語文字情報表示手段によって画面に文字情報で表示させるかどうかを決定するステップとを備えていることを特徴とするものである。
【0057】
この方法は、例えば、文字情報として日本語(第一の言語)を画面に表示し、学習者には当該表示した日本語(第一の言語)から英語(第二の言語)に翻訳させ、その翻訳した英語(第二の言語)での発音を促し、学習者が発音した英語(第二の言語)を音声情報として音声情報取得手段によって取得し、これを発音一致度判定手段によって発音の一致度を判定するものである。
【0058】
前記いずれの本発明の語学学習支援方法においても、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行うと決定した場合に、画面に表示されていた第一の言語又は第二の言語の文字情報に並列させて当該決定に基づく第二の言語又は第一の言語の文字情報での表示を同一の画面に行うステップが更に備えられている構成にすることができる。
【0059】
また、前記いずれの本発明の語学学習支援方法においても、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行わないと決定した場合に、前記発音一致度判定手段の判定結果に基づき画面に文字情報で表示されている第一の言語又は第二の言語中の発音が正確でなかった部分又は正確であった部分を、添削情報表示手段によって、他の部分と区別して画面に表示するステップが更に備えられている構成にすることができる。
【0060】
更に、前記いずれの本発明の語学学習支援方法においても、発音一致度判定手段による発音の一致の度合いの判定基準は変更可能にすることができる。
【0061】
また、前記いずれの本発明の語学学習支援方法においても、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行うと決定した場合であって、第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への第二の言語又は第一の言語の文字情報表示を行うとき、又は、添削情報表示手段によって添削情報を表示する処理を行う際に、第一言語音声出力手段又は第二言語音声情報出力手段によって、第一の言語又は第二の言語の正しい発音の出力を行うステップが更に備えられている構成にすることができる。
【0062】
あるいは、前記いずれの本発明の語学学習支援方法においても、正しい発音を出力する指示を受けた際に、第一の言語の正しい発音を出力する第一言語音声情報出力手段又は第二の言語の正しい発音を出力する第二言語音声情報出力手段によって、当該指示で要求された言語の正しい発音の出力を行うステップが更に備えられているように構成することもできる。
【0063】
例えば、画面に文字情報で表示されている第一の言語又は第二の言語の正しい発音を出力する指示を受けた際に、第一の言語の正しい発音を出力する第一言語音声情報出力手段又は第二の言語の正しい発音を出力する第二言語音声情報出力手段によって、当該画面に文字情報で表示されている第一の言語又は第二の言語の正しい発音の出力を行うステップが更に備えられているようにするものである。
【0064】
以上説明した本発明の語学学習支援方法は、前述した本発明の語学学習支援装置を用いて実行されるものであり、各ステップにおける第一言語文字情報表示手段、第二言語文字情報表示手段、音声情報取得手段、発音一致度判定手段、文字情報出力決定手段は、前記本発明の語学学習支援装置を構成する各手段をそのまま用いることができる。
【0065】
すなわち、前述したように構成された語学学習支援装置を用い、順を追って操作すれば、前期本発明の語学学習支援方法を実施することができ、学習者の語学学習を支援することができる。
【0066】
【発明の実施の形態】
以下、図32〜38を用いて本発明の好ましい実施形態を説明する。
【0067】
図32は、パーソナルコンピュータ等のコンピュータによって本発明の語学学習支援装置1が実現された場合の概略構成を説明するものであり、図33〜38は、この語学学習支援装置を用いて実行される本発明の語学学習支援方法の好ましい例を説明するフロー図である。
【0068】
キーボード、ポインティングディバイス等によって実現されている情報取得手段21を介して本発明の語学学習支援装置1による本発明の語学学習支援方法の開始を指示し、必要な場合には、設問の選択指示情報を入力する。これによってコンピュータプログラムであらかじめ定められている順番に従って、あるいは、選択された問題順に基づき、第一の言語に関する情報とこれに対応する第二の言語に関する情報とが関連付けられて記憶されている言語データベース30が参照され、第一の言語の文字情報又は第一の言語を翻訳した他の言語である第二の言語の文字情報が、第一言語文字情報表示手段22又は第二言語文字情報表示手段23によって、語学学習支援装置1の画面に表示される(ステップ101)。なお、以下、図33〜35においては、第一の言語を日本語「私は男の子です」、第二の言語をこれの英訳である「I am a boy」であるとし、ステップ101で、第二言語文字情報表示手段23によって、第二の言語「I am aboy」が表示されて、この発音の入力が促されたものとする。
【0069】
続いて、学習者が、これに従って、「I am a boy」の発音である「アイ アム ア ボーイ」を音声情報取得手段24を介して入力することにより、語学学習支援装置1が音声情報を取得する(ステップ102)。
【0070】
次に、発音一致度判定手段25が、第一の言語及び/又は第二の言語の正しい発音が記憶されている発音情報データベース31を参照して、音声情報取得手段24によって取得した音声情報に含まれている発音を、画面に表示されている第二の言語「I am a boy」の正しい発音と比較し、発音の一致度合いを判定する(ステップ103)。
【0071】
次いで、文字情報出力決定手段26が、発音一致度判定手段25の判定結果に基づき、例えば、「発音が一致している」「正しい発音である」等と判定した場合、画面に表示されている第二の言語「I am a boy」を翻訳した第一の言語である「私は男の子です」を第一言語文字情報表示手段22によって画面に文字情報で表示させるかどうかを決定する(ステップ104)。
【0072】
こうして、前記の決定に基づき、第一言語文字情報表示手段22によって、画面に「私は男の子です」という文字が、例えば、先ほどから画像表示されている「I am a boy」の文字に並列されて表示される(ステップ105)。
【0073】
なお、このステップ105に代えて、第一言語文字情報表示手段22による「私は男の子です」という文字の画像表示と同時に、第二言語音声出力手段29による「I am a boy」の正しい発音「アイ アム ア ボーイ」が音声出力されるようにすることもできる(ステップ106)。
【0074】
図34図示のフロー図は、図33図示のフロー図において、ステップ103において、発音一致度判定手段25が、「発音が一致していない」「発音が不正確である」等と判定したため、ステップ104で文字情報出力決定手段26が、第一言語文字情報表示手段22による画面への文字情報表示を実行すると決定できない場合を示すものである。
【0075】
この場合、学習者がキーボード、ポインティングディバイス等によって実現されている情報取得手段21を介して「正しい発音の出力を要求する」という指示を入力する(ステップ107)と、第二言語音声出力手段29による「I ama boy」の正しい発音「アイ アム ア ボーイ」が音声出力される(ステップ108)ものである。
【0076】
なお、ステップ103において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ104で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、再度、再々度、などあらかじめ定められている回数、学習者に発音入力を促して判定を繰り返すようにすることができる。
【0077】
図35図示のフロー図は、図33図示のフロー図で説明した学習支援方法の更に他の例を説明するものである。
【0078】
ステップ103において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ104で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、添削情報表示手段27によって、画面に表示されている「I am a boy」中、発音が正確でなかった部分を他の部分と区別できるように(例えば、ハイライト)表示するものである(ステップ109)。
【0079】
これに引き続いて、第一言語文字情報表示手段22によって、画面に「私は男の子です」という文字が、例えば、先ほどから画像表示されている「I am a boy」の文字に並列されて表示される(ステップ111)。
【0080】
なお、このステップ109とステップ111とを同時に行わせることも可能である。
【0081】
また、前記のステップ109に代えて、添削情報表示手段27によって、画面に表示されている「I am a boy」中、発音が正確でなかった部分を他の部分と区別できるように(例えば、ハイライト)表示すると同時に、第二言語音声出力手段23による「I am a boy」の正しい発音「アイ アム ア ボーイ」が音声出力され(ステップ110)、引き続いて、第一言語文字情報表示手段22によって、画面に「私は男の子です」という文字が、例えば、先ほどから画像表示されている「I am a boy」の文字に並列されて表示される(ステップ111)ようにすることもできる。
【0082】
なお、この場合も、ステップ110とステップ111とを同時に行わせることが可能である。
【0083】
この図35図示の場合においても、ステップ103において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ104で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、再度、再々度、などあらかじめ定められている回数、学習者に発音入力を促して判定を繰り返すようにすることができる。
【0084】
図36〜38図示のフロー図は、文字情報として日本語(第一の言語)を画面に表示し、学習者には当該表示した日本語(第一の言語)から英語(第二の言語)に翻訳させ、その翻訳した英語(第二の言語)での発音を促し、学習者が発音した英語(第二の言語)を音声情報として音声情報取得手段によって取得し、これを発音一致度判定手段によって発音の一致度を判定するものである。
【0085】
キーボード、ポインティングディバイス等によって実現されている情報取得手段21を介して本発明の語学学習支援装置1による本発明の語学学習支援方法の開始を指示し、必要な場合には、設問の選択指示情報を入力する。これによってコンピュータプログラムであらかじめ定められている順番に従って、あるいは、選択された問題に基づき、第一の言語に関する情報とこれに対応する第二の言語に関する情報とが関連付けられて記憶されている言語データベース30が参照され、第一の言語の文字情報「私は男の子です」が第一言語文字情報表示手段22によって画面に表示され、発音の入力が促される(ステップ201)。
【0086】
続いて、学習者が、これに従って、日本語「私は男の子です」の英訳である「I am a boy」の発音である「アイ アム ア ボーイ」を音声情報取得手段24を介して入力することにより、語学学習支援装置1が音声情報を取得する(ステップ202)。
【0087】
次に、発音一致度判定手段25が、第一の言語及び/又は第二の言語の正しい発音が記憶されている発音情報データベース31を参照して、音声情報取得手段24によって取得した音声情報に含まれている発音を、画面に表示されている第一の言語「私は男の子です」の英訳である「I am a boy」の正しい発音と比較し、発音の一致度合いを判定する(ステップ203)。
【0088】
次いで、文字情報出力決定手段26が、発音一致度判定手段25の判定結果に基づき、例えば、「発音が一致している」「正しい発音である」等と判定した場合、画面に表示されている第一の言語「私は男の子です」を翻訳した第二の言語「I am a boy」を第二言語文字情報表示手段23によって画面に文字情報で表示させるかどうかを決定する(ステップ204)。
【0089】
こうして、前記の決定に基づき、第二言語文字情報表示手段23によって、画面に「I am a boy」という文字が、例えば、先ほどから画像表示されている「私は男の子です」の文字に並列されて表示される(ステップ205)。
【0090】
なお、このステップ205に代えて、第二言語文字情報表示手段23による「I am a boy」という文字の画像表示と同時に、第二言語音声出力手段29による「I am a boy」の正しい発音「アイ アム ア ボーイ」が音声出力されるようにすることもできる(ステップ206)。
【0091】
図37図示のフロー図は、図36図示のフロー図において、ステップ103において、発音一致度判定手段25が、「発音が一致していない」「発音が不正確である」等と判定したため、ステップ104で文字情報出力決定手段26が、第二言語文字情報表示手段23による画面への文字情報表示を実行すると決定できない場合を示すものである。
【0092】
この場合、学習者がキーボード、ポインティングディバイス等によって実現されている情報取得手段21を介して「正しい発音の出力を要求する」という指示を入力すると(ステップ207)、第二言語音声出力手段29による「I ama boy」の正しい発音「アイ アム ア ボーイ」が音声出力される(ステップ208)ものである。
【0093】
なお、ステップ203において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ204で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、再度、再々度、などあらかじめ定められている回数、学習者に発音入力を促して判定を繰り返すようにすることができる。
【0094】
図38図示のフロー図は、図36図示のフロー図で説明した学習支援方法の更に他の例を説明するものである。
【0095】
ステップ203において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ204で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、第二言語文字情報表示手段23によって「I am a boy」という文字を、先ほどから画像表示されている「私は男の子です」の文字に並列して画像表示すると同時に、添削情報表示手段27によって、この画面に表示された「I am a boy」中、発音が正確でなかった部分を他の部分と区別できるように(例えば、ハイライト)表示する(ステップ209)。
【0096】
なお、前記のステップ209に代えて、第二言語文字情報表示手段23によって「I am a boy」という文字を、先ほどから画像表示されている「私は男の子です」の文字に並列して画像表示すると同時に、添削情報表示手段27によって、この画面に表示された「I am a boy」中、発音が正確でなかった部分を他の部分と区別できるように(例えば、ハイライト)表示し、なおかつ、第二言語音声出力手段29による「I am a boy」の正しい発音「アイ アム ア ボーイ」が音声出力される(ステップ210)ようにすることもできる。
【0097】
この図38図示の場合においても、ステップ203において、発音一致度判定手段25が「発音が一致していない」等と判定し、ステップ204で文字情報出力決定手段26が画面への文字情報表示を実行すると決定できない場合、再度、再々度、などあらかじめ定められている回数、学習者に発音入力を促して判定を繰り返すようにすることができる。
【0098】
なお、図中、符号28は、第一言語音声出力手段である。
【0099】
以下、この発明の実施例について添付図面を参照して説明する。
【0100】
【実施例】
図1は、この発明の支援装置1の全体構成を示すものである。支援装置1は表示手段となる第一モニタ2、第二モニタ3を備えた本体4に、戻るボタン5、リピートボタン6、ティーチャーボタン7、上下移動ボタン8、決定ボタン9、内蔵スピーカ10を取り付けられている。また、学習者の発音を取得する音声情報取得手段を構成するマイク11aが接続されるが、これは図1図示のようにヘッドフォン11と一体型のものを接続した。
【0101】
なお、内蔵スピーカ10の本体4の電源とは別にON、OFFすることができ、また、音量の調節もできる。
【0102】
この実施例では、専用の学習用ソフトを収容したCD−ROMを矢示12のように本体4に挿入して動作させる構成としている。本体4にはCPU、メモリ等が搭載されており、学習用ソフトには、本体4と協働してマイク11aから取得した音声をデジタルデータに変換して、予め記憶された英単語、英文の正しい発音と比較し、その一致度合いを判定するプログラムが組み込まれている。さらに、その判定結果を第一モニタ2、第二モニタ3、場合によっては外部スピーカ10やヘッドフォン11に出力、表示する。
【0103】
この実施例では、第一の言語(例えば、母国語)として日本語、当該第一の言語に対応している(翻訳に該当する)第二の言語(第一の言語を翻訳した他の言語であって、学習者が学習しようとしている言語)として英語を想定し、日本語、英語間の学習ができるソフトを準備した。
【0104】
また、第一モニタ2には出題言語の表示に用い、第二モニタ3は回答言語の表示に用いるように設定した。また、第一モニタ2、第二モニタ3には、学習を進める上で必要となる各種情報が表示される。例えば、出題言語を選択する言語選択メニュー画面(図2、図21)、章選択メニュー画面(図3、図22等)等の学習メニューを順次表示する。
【0105】
戻るボタン5は、次々と表示される画面を以前の画面に戻すために使用するボタンである。リピートボタン6は繰り返し一つの文章を練習したりする場合に使用して、繰り返しの練習をできるようにするものである。ティーチャーボタン7は、出題された文章や単語が正しく発音できなかったり、最初からわからなかったりした場合に使用することによって、学習者の意思によってお手本となる正しい発音や言語表示を表示させるものである。また、上下移動ボタン8は、メニュー画面で選択する際に使用するもので、決定ボタン9はメニュー画面で選択したものを決定したとき等に使用するものである。
【0106】
以上のように構成される支援装置1を用いて英語学習をする際の例を、順を追って説明する。
【0107】
[出題を英語で表示する場合]
まず、出題を英語で表示し、その英語表示に基づいて学習者が英語の発音を行い、発音の一致度の判定を行った後、最終的に翻訳日本文を表示する場合について説明する。
【0108】
(1) まず、学習用ソフトを矢示12のように本体4に読み込ませ、スタートすると、図2図示のような出題言語を選択する言語選択メニュー画面が第二モニタ2に表示されるので、学習者は、上下移動ボタンを操作して、「英語で出題」を反転表示させる。この状態で決定ボタン9を押すと、図3図示のような章選択メニュー画面に切り替わる。
【0109】
(2) この学習用ソフトは、1.第一章から5.総合チェックの5つの章から構成されており、学習者は、どの章から始めることもできるが、第一章から始める場合には、上下移動ボタン8を操作して図3図示のように「1.第一章」を反転表示させて、決定ボタン9を押す。決定ボタン9を押すと図4図示のような画面に切り替わる。
【0110】
(3) この学習用ソフトは、各章毎に1.文章、2.単語、3.実力チェックの項目から構成されている。ここではまず、文章について学習する場合について説明する。文章について学習を進める場合は、上下移動ボタン8で図4図示のように「1.文章」を反転表示させ、決定ボタン9を押す。決定ボタン9を押すことにより、図5図示のように、第一章、英語による文章の最初の出題が第一モニタ2に表示される。
【0111】
(4) 第一章、英語による文章の最初の問題は、「I am a boy」で、この英文が第一モニタ2に表示される。学習者は、これを見ながらマイク11aに向かい、英語で発音する。学習者の発音を取得した支援装置1は、学習用ソフトと本体1とが協働して学習者の発音が正しいものであるか否かの判定を行う。このとき、判定は単語毎に行われる。
【0112】
(5) 判定の結果、全ての発音が正しいと判定された場合は、図6図示のように、出題された「I am a boy」に対応した翻訳日本文である「私は男の子です」が第二モニタ3に表示される。またこのとき、内蔵スピーカ10とヘッドフォン11とに「私は男の子です」と音声出力される。このように全ての発音が正しいと判定されたときに初めて翻訳日本文が示されるので、学習者は、早く翻訳日本文を表示させようとして、学習意欲を持って努力をすることができ、また、翻訳が示されるので翻訳力も身につけることができる。
一方、判定の結果、一部の発音が間違っていたと判定された場合は、間違った部分が反転表示され、第二モニタ3には、なにも表示されない。例えば、出題された「I am a boy」のうち「boy」の部分が間違っていたと判定された場合は、図7図示のように第一モニタ2に示された「I am a boy」のうち、「boy」の部分が反転表示され、第二モニタ3には、翻訳日本文は表示されない。このように間違ったと判定された場合は、リピートボタン6を押すことにより、出題画面(図5)に戻ることができ、繰り返し練習することができる。
【0113】
(6) 繰り返し練習したが正しい発音ができない場合は、ティーチャーボタン7を押すことにより、正しい発音を内蔵スピーカ10、ヘッドフォン11から音声出力させ、これと同時に、図8図示の表示状態とすることができる。すなわち、画面は、第一モニタ2に間違った部分(この場合「boy」の部分)を反転表示させたままで、第二モニタ3には翻訳日本文を表示させる。これにより、正しい発音を聞くことができ、翻訳も知ることができる。図8図示の状態のときに、決定ボタン9を押せば、通常の流れに戻って、学習を続けることができる。
なお、最初から発音がわからない場合も、ティーチャーボタン7を押すことにより、正しい発音の音声出力、翻訳日本文の表示(不図示)を行うことができる。
【0114】
(7) 各章には、複数の出題文章が含まれており、正解が得られた場合は、各章の最初の出題から最後まで続けて表示される。その章の全てを終了したら自動的に章選択メニュー画面(図3)に戻る。なお、途中で、繰り返し一つの文章を練習したいときは、リピートボタン6を押すことにより同じ文章を繰り返し練習できる。通常の流れに戻したいときには、リピートボタン6をもう一度押せばよい。また、上下移動ボタン8を押すことにより前後の文章に移動することができる。さらに、戻るボタン5をおして、文章、単語、実力チェック選択メニュー画面(図4)、章選択メニュー画面(図5)に戻ることができる。
【0115】
以上の流れで、英文が表示された場合の学習支援が行われる。文章、単語、実力チェック選択メニュー画面(図4)で、「単語」を選択すれば、同様の流れで単語の学習をすることもできる。「単語」学習の進め方自体は「文章」学習と基本的に同様であるので、その詳細な説明は省略する。
【0116】
(8) 「文章」、「単語」の学習を終えた学習者は、図9図示のように文章、単語、実力チェック選択メニュー画面で「3.実力チェック」を選択して反転させ、決定ボタンを押して実力チェックを行うことができる。実力チェックでは、対話形式で学習を進めることができる。
【0117】
(9) 実力チェックメニューを選択すると、図10図示のように第一モニタ2に出題英文「Where is the capital in Japan?」が表示されると共に、内蔵スピーカ10とヘッドフォン11から、当該文章が英語で音声出力される。このとき、第二モニタ3には、翻訳日本文は表示されていない。
【0118】
(10) 図10図示のように出題(質問)された学習者は、第一モニタ2に表示された出題英文「Where is the capital in Japan?」をマイク11aに向かって英語で発音し、続いて質問に英語で答える。この実施例では、「It is Tokyo」と答える。学習者の発音を取得した支援装置1は、学習用ソフトと本体1とが協働して学習者の発音が正しいものであるか否かの判定を行う。その結果、答えが正しいと判定されたときは、図11図示のように、出題英文「Where is the capital in Japan?」の下に回答英文「It is Tokyo」を表示し、第二モニタ3には、出題英文と回答英文の日本語翻訳文(「日本の首都は何処ですか?」、「東京です」)を表示する。また、同時に、内蔵スピーカ10とヘッドフォン11から、「日本の首都は何処ですか?」、「東京です」と日本語で音声出力する。なお、複数の回答が可能である場合は、それら全てを正解と判定する。
一方、正解することができなかった場合(回答が間違っていた場合や、発音が正しくなかった場合)は、図12図示のように出題英文を反転表示し、第二モニタ3には、日本語翻訳文は表示しない。また、これに続いて、「現在の理解度」が示される。例えば、図13図示のように第二モニタ3に「現在の理解度70%」のように表示される。なお、図13図示の表示状態から通常の流れに戻るには、決定ボタン9を押せばよい。
【0119】
(11) 出題英文が示されても回答がわからない場合、答えられない場合等は、ティーチャーボタン7を押すことで、正しい発音が内蔵スピーカ10とヘッドフォン11に音声出力される。また、同時に図14図示のように出題英文と回答英文の翻訳日本文が第二モニタ3に表示される。このときの画面表示、音声出力の順序は、まず、出題英文(「Where is the capital in Japan?」)が反転状態のまま表示されて、英語で出題英文(「Where is the capital in Japan?」)が音声出力される。続いて出題英文の翻訳日本文(「日本の首都は何処ですか?」)が第二モニタ3に表示されると共に音声出力される。ついで、回答英文(「It is Tokyo」)が第一モニタに表示されると共に音声出力され、続いて回答英文の翻訳日本文(「東京です」)が第二モニタ3に表示されると共に音声出力される。なお、決定ボタン9を押せば通常の流れに戻る。
【0120】
(12) 以上の流れで、実力チェックを行うことができる。各章の実力チェックを終えた学習者は、総合チェックを行うことができる(図15)。総合チェックは、全ての章の総合的なまとめとして、各章の実力チェックよりランダムに20問が出題される。総合チェックの進め方自体は、各章の実力チェックと同様であるので、その説明は省略する。
【0121】
[出題を日本語で表示する場合]
次に、出題を日本語で表示し、その日本語表示に基づいて学習者が英語の発音を行い、発音の一致度の判定を行った後、最終的に翻訳英文を表示する場合について説明する。
【0122】
前記出題を英文で表示する場合は、学習者は表示された英文をそのまま発音すればよかったが、出題を日本語で表示する場合は、学習者において、日本語から英語へ翻訳をするプロセスが必要となる。
【0123】
(1) まず、前記出題を英文で表示する場合と同様に、学習用ソフトを矢示12のように本体4に読み込ませ(図1)、スタートすると、図16図示のような出題言語を選択する言語選択メニュー画面が第二モニタ2に表示されるので、学習者は、上下移動ボタンを操作して、「日本語で出題」を反転表示させる。この状態で決定ボタン9を押すと、図17図示のような章選択メニュー画面に切り替わる。
【0124】
(2) この学習用ソフトは、1.第一章から5.総合チェックの5つの章から構成されており、学習者は、どの章から始めることもできるが、第一章から始める場合には、上下移動ボタン8を操作して図17図示のように「1.第一章」を反転表示させて、決定ボタン9を押す。決定ボタン9を押すと図18図示のような画面に切り替わる。
【0125】
(3) この学習用ソフトは、各章毎に1.文章、2.単語、3.実力チェックの項目から構成されている。ここではまず、文章について学習する場合について説明する。文章について学習を進める場合は、上下移動ボタン8で図18図示のように「1.文章」を反転表示させ、決定ボタン9を押す。決定ボタン9を押すことにより、図19図示のように、第一章、日本語による文章の最初の出題が第一モニタ2に表示される。
【0126】
(4) 第一章、日本語による文章の最初の問題は、「私は男の子です」で、この日本文が第一モニタ2に表示される。学習者は、これを見て、翻訳英文を考え、考えた翻訳英文をマイク11aに向かい発音する。学習者の発音を取得した支援装置1は、学習用ソフトと本体1とが協働して学習者の発音が正しいものであるか否かの判定を行う。このとき、判定は単語毎に行われる。この点、英語で出題されるときと同様である。
【0127】
(5) 判定の結果、全ての発音が正しいと判定された場合は、図20図示のように、出題された「私は男の子です」に対応した翻訳英文である「I am aboy」が第二モニタ3に表示される。またこのとき、内蔵スピーカ10とヘッドフォン11とに「I am a boy」と音声出力される。このように、学習者は自ら翻訳英文を考えて発音し、さらに全ての発音が正しいと判定されたときに初めて翻訳英文が示されるので、学習者は、早く翻訳英文を表示させようとして、学習意欲を持って努力をすることができ、また、翻訳が示されことによってさらなる翻訳力も身につけることができる。
一方、判定の結果、一部の発音が間違っていたり、翻訳英文自体が間違っていると判定されたりした場合は、間違った部分が反転表示され、第二モニタ3には、なにも表示されない。例えば、出題された「私は男の子です」のうち「男の子」の部分、すなわち「boy」の部分が間違っていたと判定された場合は、図21図示のように第一モニタ2に示された「私は男の子です」のうち、「男の子」の部分が反転表示され、第二モニタ3には、翻訳英文は表示されない。このように間違ったと判定された場合は、リピートボタン6を押すことにより、出題画面(図19)に戻ることができ、繰り返し練習することができる。
【0128】
なお、学習者が正しいと思って発音した翻訳英文が違っていた場合や、自身はないが取り敢えず発音した翻訳英文が全単語違っていたような場合は、「私は男の子です」の全てが反転表示される。
【0129】
(6) 繰り返し練習したが正しい発音ができない場合は、ティーチャーボタン7を押すことにより、正しい発音を内蔵スピーカ10、ヘッドフォン11から音声出力させ、これと同時に、図22図示の表示状態とすることができる。すなわち、画面は、第一モニタ2に間違った部分(この場合「男の子」の部分)を反転表示させたままで、第二モニタ3には翻訳英文を表示させる。これにより、正しい発音を聞くことができ、翻訳も知ることができる。図22図示の状態のときに、決定ボタン9を押せば、通常の流れに戻って、学習を続けることができる。
【0130】
なお、最初から発音がわからない場合や、翻訳英文自体がわからない場合も、ティーチャーボタン7を押すことにより、正しい発音の音声出力、翻訳日本文の表示(不図示)を行うことができる。
【0131】
(7) 各章には、複数の出題文章が含まれており、正解が得られた場合は、各章の最初の出題から最後まで続けて表示される。その章の全てを終了したら自動的に章選択メニュー画面(図17)に戻る。なお、途中で、繰り返し一つの文章を練習したいときは、リピートボタン6を押すことにより同じ文章を繰り返し練習できる。通常の流れに戻したいときには、リピートボタン6をもう一度押せばよい。また、上下移動ボタン8を押すことにより前後の文章に移動することができる。さらに、戻るボタン5をおして、文章、単語、実力チェック選択メニュー画面(図18)、章選択メニュー画面(図17)に戻ることができる。
【0132】
以上の流れで、日本文が表示された場合の学習支援が行われる。文章、単語、実力チェック選択メニュー画面(図18)で、「単語」を選択すれば、同様の流れで単語の学習をすることもできる。「単語」学習の進め方自体は「文章」学習と基本的に同様であるので、その詳細な説明は省略する。
【0133】
(8) 「文章」、「単語」の学習を終えた学習者は、図23図示のように文章、単語、実力チェック選択メニュー画面で「3.実力チェック」を選択して反転させ、決定ボタンを押して実力チェックを行うことができる。実力チェックでは、対話形式で学習を進めることができる。
【0134】
(9) 実力チェックメニューを選択すると、図24図示のように第一モニタ2に出題日本文「日本の首都は何処ですか?」が表示されると共に、内蔵スピーカ10とヘッドフォン11から、当該文章が日本語で音声出力される。このとき、第二モニタ3には、翻訳日本文は表示されていない。
【0135】
(10) 図24図示のように出題(質問)された学習者は、第一モニタ2に表示された出題日本文「日本の首都は何処ですか?」を見て、翻訳英文を考え、考えた翻訳英文をマイク11aに向かって英語で発音し、続いてその質問の答を英語で考えて、英語で答える。この実施例では、「It is Tokyo」と答える。学習者の発音を取得した支援装置1は、学習用ソフトと本体1とが協働して学習者の発音が正しいものであるか否かの判定を行う。その結果、答えが正しいと判定されたときは、図25図示のように、出題日本文「日本の首都は何処ですか?」の下に回答日本文「東京です」と表示し、第二モニタ3には、出題日本文と回答日本文の英語翻訳文(「Where is the capital in Japan?」、「It is Tokyo」)を表示する。また、同時に、内蔵スピーカ10とヘッドフォン11から、「Where is the capital in Japan?」、「It is Tokyo」と英語で音声出力する。なお、複数の回答が可能である場合は、それら全てを正解と判定する。
一方、正解することができなかった場合(回答が間違っていた場合や、発音が正しくなかった場合)は、図26図示のように出題日本文を反転表示し、第二モニタ3には、英語翻訳文は表示しない。また、これに続いて、「現在の理解度」が示される。例えば、図27図示のように第二モニタ3に「現在の理解度70%」のように表示される。なお、図27図示の表示状態から通常の流れに戻るには、決定ボタン9を押せばよい。
【0136】
(11) 出題日本文が示されても翻訳英文がわからない、発音がわからない場合等は、ティーチャーボタン7を押すことで、正しい発音が内蔵スピーカ10とヘッドフォン11に音声出力される。また、同時に図28図示のように出題日本文と回答日本文の翻訳英文が第二モニタ3に表示される。このときの画面表示、音声出力の順序は、まず、出題日本文(「日本の首都は何処ですか?」)が反転状態のまま表示されて、日本語で出題日本文(「日本の首都は何処ですか?」)が音声出力される。続いて出題日本文の翻訳英文(「Where is the capital in Japan?」)が第二モニタ3に表示されると共に音声出力される。ついで、回答日本文(「東京です」)が第一モニタに表示されると共に音声出力され、続いて回答日本文の翻訳英文(「It is Tokyo」)が第二モニタ3に表示されると共に音声出力される。なお、決定ボタン9を押せば通常の流れに戻る。
【0137】
(12) 以上の流れで、実力チェックを行うことができる。各章の実力チェックを終えた学習者は、総合チェックを行うことができる(図29)。総合チェックは、全ての章の総合的なまとめとして、各章の実力チェックよりランダムに20問が出題される。総合チェックの進め方自体は、各章の実力チェックと同様であるので、その説明は省略する。
【0138】
[レベルの選択]
以上、説明したように学習者は、出題が英語でされた場合、出題が日本語された場合の学習を進めることができる。
【0139】
しかし、支援装置1を使用する学習者の実力レベルは異なるし、学習者が同一人であっても、学習が進めばその実力レベルは向上してくる。
【0140】
そこで、この支援装置1では学習者の発音と、予め記憶された英単語、英文の正しい発音と比較し、その一致度合いを判定する際の判定基準を変更できるように構成した。レベルの選択は、図30図示のように一致度レベル選択画面を表示させ、例えばレベル1で学習を進めるときには、「レベル1」を反転表示させ、決定ボタン9を押せば、レベル1での学習を開始することができる。レベル1での学習では物足りなくなってきた場合等は、より厳密な一致度判定が行われるレベル2、レベル3、レベル4とレベルを上げていき、よりネイティブに近い発音を行えるように挑戦することができる。
【0141】
また、学習ソフト自体を下級者向けのもの、より上級者向けのものに入れ替えてレベルの変更をすることも可能である。
【0142】
[音声出力モード]
この実施例の支援装置1は、音声出力モードを搭載している。
上記実施例では、正しい発音ができたときや、ティーチャーボタン7を押したときにのみ、英語の発音が内蔵スピーカ10、ヘッドフォン11から音声出力されるが、音声出力モードを選択しておけば、英語が画面表示されるときは常に正しい英語の発音が内蔵スピーカ10、ヘッドフォン11から音声出力される。
【0143】
例えば、図31図示のように英語による出題「I am a boy」が表示されるときに、内蔵スピーカ10、ヘッドフォン11から正しい英語の発音で「I am a boy」と音声出力される。
【0144】
このように音声出力モードにしておけば、例えば初学者などは、常に正しい発音を聞くことができるので学習の進度が速まる。
【0145】
以上、この発明の好ましい実施の形態を添付図面を参照して説明したが、本発明はかかる実施の形態に限定されるものではなく、特許請求の範囲の記載から把握される技術的範囲において種々な形態に変更可能である。
【0146】
【発明の効果】
以上説明したように、本発明の語学学習支援装置を用いれば、正しい発音がされたときにのみ正しい翻訳を表示するようにしたので、正しい発音と正しい翻訳とを同時に習得することができる。
【0147】
また、発音が正確でなかった場合に正確であった部分と区別して表示することとしたので、正しく発音できなかった部分を知ることができ、早期の上達が可能である。
【0148】
さらに、発音一致判定手段を一致の度合いの判定基準を変更できるようにしたので、学習者のレベルに応じた学習ができる。
【図面の簡単な説明】
【図1】この発明の実施例の支援装置の全体構成を示す説明図。
【図2】言語選択メニュー画面で「英語で出題」を選択した状態の説明図。
【図3】章選択画面で「第一章」を選択した状態の説明図。
【図4】文章、単語、実力チェック画面で「文章」を選択した状態の説明図。
【図5】英語の文章で出題が表示された状態の説明図。
【図6】正しい発音ができ、翻訳日本文が表示された状態の説明図。
【図7】発音の一部が間違っており、間違えた部分を反転表示させた状態の説明図。
【図8】ティーチャーボタンを押して正しい発音を音声出力すると共に、図7図示の表示と合わせて翻訳日本文を表示した状態の説明図。
【図9】文章、単語、実力チェック画面で「実力チェック」を選択した状態の説明図。
【図10】英語で質問文を表示させた状態の説明図。
【図11】英語で質問文と回答文を表示させると共に、日本語で質問文と回答文を表示させた状態の説明図。
【図12】回答又は発音が間違っており、英語の質問文の全体を反転表示させた状態説明図。
【図13】実力チェックにより判定された現在の理解度を表示した状態の説明図。
【図14】ティーチャーボタンを押して英語の出題文を反転させたまま表示させ、英語の回答文を表示すると共にこれらの正しい発音を音声出力し、さらに、これらの翻訳日本日本文を表示し、音声出力する状態の説明図。
【図15】章選択画面で「総合チェック」を選択した状態の説明図。
【図16】言語選択メニュー画面で「日本語で出題」を選択した状態の説明図。
【図17】章選択画面で「第一章」を選択した状態の説明図。
【図18】文章、単語、実力チェック画面で「文章」を選択した状態の説明図。
【図19】日本語の文章で出題が表示された状態の説明図。
【図20】正しい発音ができ、翻訳英文が表示された状態の説明図。
【図21】発音の一部が間違っており、間違えた部分を反転表示させた状態の説明図。
【図22】ティーチャーボタンを押して正しい発音を音声出力すると共に、図7図示の表示と合わせて翻訳英文を表示した状態の説明図。
【図23】文章、単語、実力チェック画面で「実力チェック」を選択した状態の説明図。
【図24】日本語で質問文を表示させた状態の説明図。
【図25】日本語で質問文と回答文を表示させると共に、英語で質問文と回答文を表示させた状態の説明図。
【図26】回答又は発音が間違っており、日本語の質問文の全体を反転表示させた状態説明図。
【図27】実力チェックにより判定された現在の理解度を表示した状態の説明図。
【図28】ティーチャーボタンを押して日本語の出題文を反転させたまま表示させ、英語の回答文を表示すると共にこれらの正しい発音を音声出力し、さらに、これらの翻訳日本日本文を表示し、音声出力する状態の説明図。
【図29】章選択画面で「総合チェック」を選択した状態の説明図。
【図30】一致度レベル選択画面で「レベル1」を選択した状態の説明図。
【図31】内蔵スピーカとヘッドフォンから音声出力する状態の概念図。
【図32】この発明の語学学習支援装置の好ましい実施形態の概略構成を示す説明図。
【図33】図32図示の語学学習支援装置で第二言語(英語)で出題され、「発音が一致している」、「正しい発音である」と判断された場合の処理を説明するフロー図。
【図34】図32図示の語学学習支援装置で第二言語(英語)で出題され、「発音が一致していない」、「発音が不正確である」と判断された場合の処理を説明するフロー図。
【図35】図33図示の判断がされた場合の他の処理を説明するフロー図。
【図36】図32図示の語学学習支援装置で第一言語(日本語)で出題され、「発音が一致している」、「正しい発音である」と判断された場合の処理を説明するフロー図。
【図37】図32図示の語学学習支援装置で第一言語(日本語)で出題され、「発音が一致していない」、「発音が不正確である」と判断された場合の処理を説明するフロー図。
【図38】図36図示の判断がされた場合の他の処理を説明するフロー図。
【符号の説明】
1 支援装置
2 第一モニタ
3 第二モニタ
4 本体
5 戻るボタン
6 リピートボタン
7 ティーチャーボタン
8 上下移動ボタン
9 決定ボタン
10 内蔵スピーカ
11 ヘッドフォン
21 情報取得手段
22 第一言語文字情報表示手段
23 第二言語文字情報表示手段
24 音声情報取得手段
25 発音一致度判定手段
26 文字情報出力決定手段
27 添削情報表示手段
28 第一言語音声出力手段
29 第二言語音声出力手段
30 言語データベース
31 発音情報データベース
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a language learning support device and a language learning support method that can simultaneously learn correct pronunciation and translation of a foreign language, and that support reasonable language learning according to the learner's ability level.
[0002]
[Prior art]
With the further internationalization of society, the acquisition of foreign languages such as English is desired, and a variety of foreign language learning support devices and learning support methods have been proposed.
[0003]
For example, a foreign language teaching assistance method and apparatus for learning how to pronounce while watching an animation of a personal lip displayed as a correct pronunciation of a selected foreign language word and listening to a word spoken from a speaker. Has been proposed (Tokuheihei 10-509811).
[0004]
In addition, an invention has been proposed in which, for example, an English pronunciation input by a Japanese is compared and determined with a native pronunciation, and the result is displayed (Japanese Patent Application Laid-Open No. 2001-282096).
[0005]
Furthermore, there has been proposed a display in which, when a sound of an item to be pronounced is inputted, the sound is compared with an internally stored sound, and when it is determined that there is a match, a video related to the item is displayed ( JP-A-10-133561).
[0006]
[Patent Document 1]
Japanese Patent Publication No. 10-509811
[0007]
[Patent Document 2]
JP 2001-282096 A
[0008]
[Patent Document 3]
JP-A-10-133561
[0009]
[Problems to be solved by the invention]
To be able to learn a foreign language, you must have all of the listening, pronunciation, and translation skills of the target language.
[0010]
However, there has not been proposed a conventional foreign language learning support apparatus that can simultaneously train these three elements (hearing ability, pronunciation, and translation ability). Of these three factors, the listening ability and pronunciation are both related to speech, so proposals have been made with the aim of learning them at the same time. Not proposed.
[0011]
Looking at the prior art, the invention of the foreign language teaching assistance device described in Japanese Patent Publication No. Hei 10-509811 only shows one-sided correct pronunciation. Therefore, it is not only possible to know whether or not one's pronunciation is natively understood, but also that the correct pronunciation and the correct translation are not acquired at the same time.
[0012]
Also, the invention described in Japanese Patent Application Laid-Open No. 2001-282096 also merely compares and determines pronunciations, and correct pronunciations and correct translations are not related to each other. You won't learn at the same time.
[0013]
Further, the invention described in Japanese Patent Application Laid-Open No. Hei 10-133561 is intended for language education for infants, and is not intended to learn correct pronunciation and correct translation of a foreign language.
[0014]
[Means for Solving the Problems]
The present invention has been made in order to improve the above-described problem. When a learner looks at a first language (for example, a native language) displayed on a screen in text information, the learner responds to the first language. Only when the second language (corresponding to the translation) is correctly pronounced in the second language (the other language translated from the first language and the language the learner is trying to learn) By outputting the language as textual information and / or audio information (pronunciation), the correct pronunciation of the target language (second language in the above) and the first language (for example, native language) And a correct language to be learned (second language in the above) (that is, a correct translation) corresponding to the above.
[0015]
The language learning support apparatus according to the present invention includes a first language character information display unit, a second language character information display unit, a voice information acquisition unit, a pronunciation matching degree determination unit, and a character information output determination unit described below. It is characterized by having.
[0016]
The first language character information display means is configured to display a first language (for example, a Japanese language generally used by a Japanese person, such as a Japanese language, using the language learning support device of the present invention. ) Is a processing operation unit of a computer that displays character information on a screen of a computer or the like.
[0017]
The second language character information display means attempts to learn a language using the language learning support device of the present invention, such as a second language (for example, English) which is another language translated from the first language. Is a processing operation section of the computer which displays the language (a language that the user is trying to learn) on the screen of the computer or the like in text information.
[0018]
The voice information acquisition means is a processing operation unit of a computer that acquires voice information. For example, when the language learning support device of the present invention is realized by a computer such as a personal computer, a person who uses the computer (learner) The voice input information is obtained through a microphone or the like, and is converted into information such as a signal to be provided to a pronunciation matching degree determination process by a pronunciation matching degree determination unit described later. The voice information acquisition means is provided with an A / D converter and the like, and the voice information (analog data) acquired by a microphone or the like is provided to a pronunciation matching degree determination process described later by a pronunciation matching degree determination means. Is converted to digital data.
[0019]
The pronunciation matching degree determination means, the pronunciation included in the audio information acquired by the audio information acquisition means, the first language or the second language displayed on the screen, or displayed on the screen A computer which compares the pronunciation with the correct pronunciation of the second language or the first language corresponding to the first language or the second language, and determines the degree of matching of the pronunciation.
[0020]
For example, the second language is English, and the character information "BOY" is displayed on the screen by the second language character information display means, and the learner pronounces "boy" and obtains the voice information acquisition means. At that time, information on the correct pronunciation of the first language and the second language (for example, pronunciation by native speakers) is held, and the pronunciation information database provided in the storage unit of the computer is used for English. Compared with the correct pronunciation of "BOY" to determine the degree of matching of pronunciation, the first language is Japanese, and the first language character information display means displays the character information "Shonen" on the screen. Is pronounced as "boy" and corresponds to the first language "boy" displayed on the screen using the pronunciation information database when the voice information acquisition means acquires this. That the second compared to the correct pronunciation of the English "BOY", which is the language, is intended to determine the degree of matching pronunciation.
[0021]
Various means can be used for the pronunciation comparison, such as using an existing pronunciation comparison determination program.
[0022]
In addition, this pronunciation comparison can be performed for each word, and when the word to be pronounced is one sentence composed of a plurality of words, the entire sentence can be compared and determined. .
[0023]
The pronunciation information database can be constructed separately from a language database in which information on a first language and a corresponding second language is stored, or provided in a part of the language database. It can also be configured as
[0024]
The language database and pronunciation information database are stored in an electromagnetic storage medium such as a CD-ROM storing a computer program for causing a computer to execute the language learning support method using the computer of the present invention. When operating the language learning support device of the present invention using a CD-ROM or the like, the language learning support device can be stored in a storage unit of a computer constituting the language learning support device.
[0025]
Next, the character information output determination means determines whether the first language character information display means or the second language character information display means displays character information on a screen based on the determination result of the pronunciation matching degree determination means. It is a processing operation section of the computer that determines whether or not to do so.
[0026]
Thereby, for example, the second language is English, the character information "BOY" is displayed on the screen by the second language character information display means, the learner pronounces "boy", and the voice information acquisition means When this is obtained and the pronunciation matching degree determination means determines that the pronunciation matches or the pronunciation is correct, the character information output determination means determines the first language character based on the determination result. The display process of the character information (“Shonen”, which is the first language corresponding to “BOY”) on the screen by the information display means is executed. Further, for example, the first language is Japanese, and character information of "boy" is displayed on the screen by the first language character information display means, and the learner is the second language corresponding to this "boy". If "boy", which is the pronunciation of "BOY", is input via the voice information acquisition means and the pronunciation matching degree determination means determines that the pronunciation is "matched" or "correct pronunciation", this determination is made. Based on the result, the character information output determining means causes the second language character information display means to execute display processing of character information (“BOY”, which is a second language corresponding to “boy”) on the screen. Is
[0027]
In the language learning support apparatus of the present invention, the first language character information display means displays the first language character information on the screen and the second language character information display means displays the second language character information on the screen. The display in the character information is either one of the display in the first language character information display means by the first language character information display means or the display in the second language character information display means by the second language character information display means. Alternatively, the display of the first language by the first language character information display means and the display of the second language by the second language character information display means on the same screen can be performed in parallel.
[0028]
This is because, in a computer program that causes a computer to execute the processing operations of the first language character information display means and the second language character information display means, the display of the character information on the screen is performed in the first language character information. Display only in the first language character information by the character information display means, or display only in the second language character information by the second language character information display means, or display by the first language character information display means Executing by changing the computer program so that the display of the character information of one language and the display of the character information of the second language by the second language character information display means are performed in parallel on the same screen. it can.
[0029]
For example, the second language is English, and the character information "BOY" is displayed on the screen by the second language character information display means, and the learner pronounces "boy" and obtains the voice information acquisition means. If the pronunciation matching degree determining means determines that the pronunciation matches or the pronunciation is correct, the character information output determining means determines the first language character information displaying means based on the determination result. Of the character information ("Shonen", which is the first language corresponding to "BOY") on the screen, the "BOY" initially displayed on the screen is deleted. Only the character information of "boy" can be newly displayed on the screen, or "boy" is displayed in parallel with "BOY" on the screen displaying "BOY". Can also be . In the latter case, when the correct pronunciation of English "BOY" corresponding to "Shonen" is performed, "BOY" and "Shonen" are displayed in parallel, so that the learner can obtain the correct pronunciation, You can learn correct translation at the same time.
[0030]
The first language character information display means and the second language character information display include displaying a word or a sentence to be set in a first language (for example, the native language of a learner) and a second language (that is, a language to be learned); Any form may be used as long as it can be displayed on a monitor or the like.
[0031]
Since the language learning support device of the present invention includes the first language character information display means and the second language character information display means, the two languages corresponding to the first language character information display means and the second language character information display means, respectively. One display and monitor can be provided. Further, it is also possible to divide the screen of one display and monitor into two areas, display the first language character information display means in one area, and display the second language character information display means in the other area. it can. Further, the display by the first language character information display means and the second language character information display means can be arranged in parallel on one display and monitor. In short, as long as the display of the first language and the display of the second language can be performed, the display method is not particularly limited.
[0032]
Any of the language learning support devices of the present invention may further include correction information display means.
[0033]
Correction information display means, when the voice information acquired by the voice information acquisition means corresponds to the pronunciation of the first language or the second language displayed on the screen as character information, the pronunciation matching degree determination means Computer processing for displaying, based on the determination result, a part in which the pronunciation in the first language or the second language displayed in the character information on the screen was incorrect or an accurate part was distinguished from other parts. It is an operation unit.
[0034]
In a case where the language learning support device also includes the correction information display means, the above-described character information output determination means performs the above-described processing operation of the correction information display means based on the determination result of the pronunciation matching degree determination means. Can be determined.
[0035]
For example, if the pronunciation matching degree determination means determines that the pronunciation is incorrect or the pronunciation does not match, the character information output determination means instructs the correction information display means to execute the processing operation described above. Thus, the portion determined by the pronunciation matching degree determination means as “not matching” or “inaccurate pronunciation” is displayed, for example, on a screen in character information, or in a first language Or, for each word in the second language, or for each part of the word that is determined to be "pronunciation inaccuracy", the correction information display means may underline, The part that is not matched and the part whose pronunciation is inaccurate are displayed so that the learner can recognize it.
[0036]
As a result, if the learner can know a part that does not match, that is, a part that is incorrect, the learner can proceed with learning while paying attention to the part, and early improvement becomes possible.
[0037]
Also, in any of the language learning support devices of the present invention, the pronunciation matching degree determination means described above can change the determination criterion of the matching degree. That is, the criterion for determining the degree of coincidence can be made variable.
[0038]
For example, the degree of matching of pronunciations as criteria for determining “accurate pronunciation” or “inaccurate pronunciation (inaccurate pronunciation)”, that is, the pronunciation of a word or a sentence to be determined, When the pronunciation of the learner acquired by the information acquisition means is compared with the correct pronunciation of the first language and the second language held in the pronunciation information database, the degree of agreement is "90% or more agreement." The language learning support device according to the present invention is classified into "not correct, it is not determined that the pronunciation is correct", "unless the degree of match is 80% or more, it is not determined that the pronunciation is correct", and so on. The learner inputs and instructs through information acquisition means such as a keyboard, a pointing device, and the like provided in the computer in which is realized. The level to be determined as "accurate pronunciation" should be at least 90% or more ", and" The level to be determined as "accurate pronunciation" should be at least 80% or more " Things.
[0039]
In addition, an electronic storage medium such as a CD-ROM storing a computer program for causing a computer such as a personal computer to implement the language learning support apparatus of the present invention can store the above-mentioned pronunciation matching at 80% or more. The operation in which the degree determination means operates to determine “accurate pronunciation”, and the operation in which the above-described pronunciation matching degree determination means determines “accurate pronunciation” based on the degree of matching of 90% or more pronunciations. A plurality of items to be prepared are prepared, and the learner selects and uses an electronic storage medium (e.g., a CD-ROM, a cassette) that meets the learning level according to his / her learning degree and ability. It is also possible to change the matching degree criterion of the pronunciation matching degree judging means.
[0040]
Thereby, the learner using the language learning support device of the present invention can learn to improve the language ability step by step according to his / her language level.
[0041]
Further, in any of the language learning support devices of the present invention, the first language voice information output means for outputting correct pronunciation of the first language, or the second language voice information for outputting correct pronunciation of the second language. An output unit or both the first language audio information output unit and the second language audio information output unit may be provided.
[0042]
Both the first language audio information output means and the second language audio information output means are pronunciation information stored in the storage unit of the computer and holding information on correct pronunciation of the first language and the second language. This is a processing operation unit of a computer that converts information in the database into audio information (analog data) called “pronunciation” and outputs the information from a speaker, headphones, or the like.
[0043]
Here, the pronunciation output by the first language audio information output unit and the pronunciation output by the second language audio information output unit are displayed on the screen by the first language character information display unit or the second language character information display unit. Or, when the second language is displayed as character information, or when the correction information is displayed by the correction information display means, the correct pronunciation of the first language or the second language is the first language audio information. The output may be performed by the output unit or the second language audio information output unit.
[0044]
This is because, in a computer program that causes a computer to execute the above-described processing operations of the first language voice information output unit and the second language voice information output unit, the first language character information display unit displays the first language on the screen with the text information. The pronunciation of the pronunciation is performed by the first language voice information output unit when the second language is displayed on the screen, or the second language voice is displayed when the second language is displayed as character information on the screen by the second language character information display unit. The pronunciation output is performed by the information output unit, or the pronunciation is output by the second language voice information output unit when the first language character information display unit displays the first language as character information on the screen. Or, when the second language is displayed as character information on the screen by the second language character information display means, pronunciation is output by the first language audio information output means, The computer program is executed by changing the computer program so that the pronunciation output is performed by the first language voice information output unit or the second language character information display unit when the correction information display process of the correction information display unit is performed. it can.
[0045]
Thereby, the correct pronunciation of the first language or the second language is output simultaneously with the display of the character information on the screen by the first language character information display means and the second language character information display means. , The visual information and the auditory information are simultaneously provided, and the learning support can be further promoted. At this time, the learner can confirm correct pronunciation by hearing and correct translation by visual recognition (a second language corresponding to the first language, a first language corresponding to the second language).
[0046]
Further, in the language learning support apparatus according to the present invention, the output of pronunciation by the first language audio information output unit and the output of pronunciation by the second language audio information output unit are performed when an instruction to output a correct pronunciation is obtained. Alternatively, the correct pronunciation of the language requested by the instruction may be performed by the first language audio information output unit or the second language audio information output unit. For example, when the first language character information display means or the second language character information display means to obtain an instruction to output a correct pronunciation for the first language or the second language displayed in the character information on the screen on the screen The correct pronunciation of the first language or the second language displayed as character information on the screen is performed by the first language audio information output unit or the second language audio information output unit.
[0047]
That is, according to an instruction from the computer program, the pronunciation output by the first language audio information output unit and the pronunciation output by the second language audio information output unit are displayed on the screen by the first language character information display unit or the second language character information display unit. The first language or the second language is displayed as character information at the same time, and the correct pronunciation of the displayed first language or the second language is determined by the first language audio information output means or the second language audio information. Not only can be performed by the output means, in this way, the learner, via a computer keyboard in which the language learning support device of the present invention is realized, a pointing device, via information acquisition means such as, The computer informs the computer that the user wishes to output the pronunciation by the first language audio information output means and to output the pronunciation by the second language audio information output means. By force, the first time, it is possible to make the output of the sound by the first language voice information output means, the output of sound by the second language audio information output means is performed.
[0048]
When trying to learn a language using the language learning support device of the present invention, if the language learning support device outputs a correct pronunciation from the beginning, it does not lead to a level up of the learner or loses the interest of the learner. It is possible. For this reason, it is not necessary to always output the correct pronunciation from the beginning, but on the other hand, if it is difficult to pronounce the correct pronunciation, or if you do not understand the pronunciation at all, the correct pronunciation according to the instruction and request of the learner It is also conceivable that learning is promoted by outputting.
[0049]
In such a case, an instruction to obtain a correct pronunciation output for the first language or the second language displayed as character information on the screen by the first language character information display means or the second language character information display means (for example, If an instruction is issued by the learner), correct pronunciation can be output and the learner can be taught, so that learning can be effectively supported.
[0050]
In the language learning support apparatus according to the present invention, when the pronunciation matching degree determination means determines that the pronunciation is not consistent or that the pronunciation is incorrect for a predetermined number of times. Alternatively, the pronunciation output by the first language audio information output unit or the pronunciation output by the second language audio information output unit may be performed.
[0051]
That is, as described above, when the character information output determination unit performs the character information display by the first language character information display unit or the second language character information display unit based on the determination result by the pronunciation matching degree determination unit. At the same time, the pronunciation of the displayed character information can be output from the first language voice information output means or the second language voice information output means, or the correctness of the first language or the second language can be obtained. When an instruction for outputting a pronunciation is obtained, the pronunciation in the language requested by the instruction is output from the first language audio information output unit or the second language audio information output unit. Automatically outputs a pronunciation by the first language voice information output means or a second language voice information output means if a predetermined number of times (for example, three times) incorrect voice is input. Can be made to output the sound due is performed.
[0052]
The language learning support apparatus of the present invention described above includes a first language character information display unit, a second language character information display unit, a voice information acquisition unit, a pronunciation matching degree determination unit, a character information output determination unit, a correction information display unit, This can be realized by causing a computer to execute a computer program that causes a computer to perform the above-described processing operations of the first language voice information output unit and the second language voice information output unit.
[0053]
The first language character information display unit, the second language character information display unit, the voice information acquisition unit, the pronunciation matching degree determination unit, the character information output determination unit, and the correction information display unit are all separate and independent hardware. However, some functions may be realized by software. For example, the language learning software can be installed and configured on an existing personal computer having a CPU, a memory, and a bus. Alternatively, the main body of the language learning support dedicated apparatus may be configured, and a learning cassette or a CD-ROM may be inserted into the main body and used. With such a configuration, the learner can use the language learning support device by operating the keyboard, the pointing device, and the operation buttons of the dedicated device.
[0054]
Next, in order to solve the above-mentioned problem, a language learning support method proposed by the present invention is characterized in that character information of a second language, which is a first language or another language obtained by translating the first language, is written in the first language, respectively. A step of displaying on the screen by the character information display means or the second language character information display means to prompt the input of pronunciation, a step of acquiring speech information by the speech information acquisition means, and a step of acquiring speech information by the speech information acquisition means. Comparing the pronounced pronunciation with the correct pronunciation of the first language or the second language displayed on the screen by the pronunciation match determination means, and determining the degree of pronunciation match; The second language or the first language translated from the first language or the second language displayed on the screen is converted into the second language And it is characterized in that it comprises a step of determining whether to display the character information on a screen by a display unit or the first language character information display means.
[0055]
In this method, for example, English (second language) is displayed on a computer screen as character information, a learner is prompted to pronounce in English (second language), and the learner pronounces English (second language). Language) as voice information by voice information obtaining means, which is determined by the pronunciation matching degree determining means to determine the matching degree of pronunciation. Based on the determination result, the character information output determining means determines The content of the first language (Japanese) corresponding to the (second language) (that is, the translation of the second language) is displayed on the screen of the computer.
[0056]
Further, in order to solve the above-mentioned problem, another language learning support method proposed by the present invention is to firstly transfer character information of a first language or a second language which is another language obtained by translating the first language, respectively. Displaying on the screen by the linguistic character information display means or the second linguistic character information display means to prompt the input of pronunciation; obtaining voice information by the voice information obtaining means; included in the voice information obtained by the voice information obtaining means. Is compared with the correct pronunciation of the second language or the first language corresponding to the first language or the second language displayed on the screen by the pronunciation matching degree determination means, and the pronunciation matching degree Determining the first language or the second language translated from the first language or the second language displayed on the screen by the character information output determining means based on the determination result of the pronunciation matching degree determining means. Or a first language is characterized in that it comprises a step of determining whether to display the character information on a screen by a second language text display unit or the first language character information display means.
[0057]
In this method, for example, Japanese (first language) is displayed on the screen as character information, and the learner is caused to translate the displayed Japanese (first language) into English (second language). The pronunciation in the translated English (second language) is urged, and the English (second language) pronounced by the learner is acquired as audio information by the audio information acquisition means, and the pronunciation is determined by the pronunciation matching degree determination means. The degree of coincidence is determined.
[0058]
In any of the language learning support methods of the present invention, the character information output determination unit may be configured to translate the first language or the second language displayed on the screen into a second language or a first language, respectively. If it is determined to display character information on the screen by the bilingual character information display means or the first language character information display means, the character information of the first language or the second language displayed on the screen is arranged in parallel. Further, a step of displaying the character information of the second language or the first language based on the determination on the same screen may be further provided.
[0059]
Further, in any of the language learning support methods of the present invention, the second language or the first language translated from the first language or the second language displayed on the screen, respectively, by the character information output determining means. If it is determined not to display the character information on the screen by the second language character information display means or the first language character information display means, the character information is displayed on the screen based on the determination result of the pronunciation matching degree determination means. A step of displaying, on the screen, a part in which the pronunciation in the first language or the second language is incorrect or the part where the pronunciation is accurate is distinguished from other parts by the correction information display means. Configuration.
[0060]
Furthermore, in any of the language learning support methods of the present invention, the criterion for determining the degree of pronunciation matching by the pronunciation matching degree determination means can be changed.
[0061]
Further, in any of the language learning support methods of the present invention, the second language or the first language translated from the first language or the second language displayed on the screen, respectively, by the character information output determining means. The second language character information display means or the first language character information display means determines that the character information display on the screen is performed, and the second language character information display means or the first language character information display means When performing the character information display of the second language or the first language, or when performing the processing of displaying the correction information by the correction information display means, the first language voice output means or the second language voice information output The means may be configured to further include a step of outputting a correct pronunciation in the first language or the second language.
[0062]
Alternatively, in any of the language learning support methods of the present invention, when an instruction to output a correct pronunciation is received, a first language audio information output unit that outputs a correct pronunciation in a first language or a second language output unit. The second language voice information output means for outputting correct pronunciation may further comprise a step of outputting correct pronunciation in the language requested by the instruction.
[0063]
For example, when receiving an instruction to output a correct pronunciation in a first language or a second language displayed in character information on a screen, a first language audio information output unit that outputs a correct pronunciation in a first language Or, further comprising a step of outputting correct pronunciation of the first language or the second language displayed as character information on the screen by the second language audio information output means for outputting correct pronunciation of the second language. Is to be done.
[0064]
The language learning support method of the present invention described above is executed using the above-described language learning support device of the present invention, and includes first language character information display means, second language character information display means in each step, As the voice information acquisition unit, the pronunciation matching degree determination unit, and the character information output determination unit, each unit constituting the language learning support device of the present invention can be used as it is.
[0065]
In other words, if the language learning support device configured as described above is used and operated in order, the language learning support method of the present invention can be implemented and the learner can be supported in language learning.
[0066]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of the present invention will be described with reference to FIGS.
[0067]
FIG. 32 illustrates a schematic configuration in the case where the language learning support device 1 of the present invention is realized by a computer such as a personal computer. FIGS. 33 to 38 are executed using the language learning support device. It is a flowchart explaining the preferable example of the language learning support method of this invention.
[0068]
Instruct the start of the language learning support method of the present invention by the language learning support device 1 of the present invention via the information acquiring means 21 realized by a keyboard, a pointing device, and the like. Enter Thus, a language database in which information relating to a first language and corresponding information relating to a second language are stored in association with each other according to an order predetermined by a computer program or based on a selected problem order. 30 is referred to, the character information of the first language or the character information of the second language, which is another language translated from the first language, is displayed in the first language character information display means 22 or the second language character information display means. 23 is displayed on the screen of the language learning support device 1 (step 101). 33 to 35, it is assumed that the first language is Japanese "I am a boy" and the second language is "I am a boy" which is an English translation of the first language. It is assumed that the second language "I am aboy" is displayed by the bilingual character information display means 23, and the input of this pronunciation is prompted.
[0069]
Subsequently, the learner inputs “I am a boy”, which is the pronunciation of “I am a boy”, through the voice information obtaining means 24 according to the instruction, and the language learning support apparatus 1 obtains the voice information. (Step 102).
[0070]
Next, the pronunciation matching degree determination unit 25 refers to the pronunciation information database 31 in which correct pronunciations of the first language and / or the second language are stored, and converts the sound information acquired by the speech information acquisition unit 24. The pronunciation included is compared with the correct pronunciation of the second language "I am a boy" displayed on the screen, and the degree of matching of the pronunciation is determined (step 103).
[0071]
Next, when the character information output determining means 26 determines, for example, that “the pronunciation matches” or “the correct pronunciation” based on the determination result of the pronunciation matching degree determining means 25, it is displayed on the screen. It is determined whether the first language "I am a boy", which is a translation of the second language "I am a boy", is displayed as character information on the screen by the first language character information display means 22 (step 104). ).
[0072]
Thus, based on the above determination, the first language character information display means 22 causes the character "I am a boy" to be displayed on the screen, for example, in parallel with the character "I am a boy" that is displayed on the screen. Is displayed (step 105).
[0073]
Instead of this step 105, the first language character information display means 22 displays an image of the character “I am a boy” and the second language voice output means 29 correctly pronounces “I am a boy” “ "I am a boy" may be output as a voice (step 106).
[0074]
The flowchart shown in FIG. 34 is different from the flowchart shown in FIG. 33 in that the pronunciation matching degree determination unit 25 has determined in step 103 that “the pronunciation is not consistent” and “the pronunciation is incorrect”. At 104, the character information output determination means 26 indicates a case where it is not possible to determine that the first language character information display means 22 displays character information on the screen.
[0075]
In this case, when the learner inputs an instruction of "requesting correct pronunciation output" through the information acquisition means 21 realized by a keyboard, a pointing device or the like (step 107), the second language sound output means 29 The correct pronunciation of "I am boy" of "I am boy" is output as voice (step 108).
[0076]
In step 103, if the pronunciation matching degree determination means 25 determines that the pronunciations do not match, etc., and if the character information output determination means 26 cannot determine to execute the display of the character information on the screen in step 104, it is repeated. The determination can be repeated by prompting the learner to input the pronunciation a predetermined number of times, such as the number of repetitions.
[0077]
The flowchart shown in FIG. 35 illustrates still another example of the learning support method described in the flowchart shown in FIG.
[0078]
In step 103, if the pronunciation matching degree determination means 25 determines that “pronunciation does not match” or the like, and if it is not determined in step 104 that the character information output determination means 26 will perform display of character information on the screen, By means 27, a part of the "I am a boy" displayed on the screen, where the pronunciation is not accurate, is displayed so that it can be distinguished from other parts (for example, highlighted) (step 109).
[0079]
Subsequently, the character "I am a boy" is displayed on the screen by the first language character information display means 22, for example, in parallel with the character "I am a boy" which has been displayed earlier. (Step 111).
[0080]
Step 109 and step 111 can be performed simultaneously.
[0081]
Also, instead of the above-mentioned step 109, the correction information display means 27 can distinguish a part of the “I am a boy” displayed on the screen where the pronunciation is incorrect from other parts (for example, Highlight) and at the same time, the correct pronunciation of "I am a boy" of "I am a boy" is output as voice by the second language voice output means 23 (step 110), and subsequently, the first language character information display means 22 is output. Accordingly, the character "I am a boy" can be displayed on the screen in parallel with the character "I am a boy" which has been image-displayed earlier (step 111).
[0082]
In this case as well, step 110 and step 111 can be performed simultaneously.
[0083]
Also in the case shown in FIG. 35, in step 103, the pronunciation matching degree determination means 25 determines that "pronunciation does not match" or the like, and in step 104, the character information output determination means 26 displays character information on the screen. If it cannot be determined to be executed, the determination can be repeated by prompting the learner to input a pronunciation a predetermined number of times, such as once again.
[0084]
The flow charts shown in FIGS. 36 to 38 display Japanese (first language) on the screen as character information, and provide the learner with the displayed Japanese (first language) to English (second language). And the pronunciation in the translated English (second language) is urged, and the English (second language) pronounced by the learner is acquired as audio information by the audio information obtaining means, and the pronunciation matching judgment is made. This is to determine the degree of matching of pronunciation by means.
[0085]
Instruct the start of the language learning support method of the present invention by the language learning support device 1 of the present invention via the information acquiring means 21 realized by a keyboard, a pointing device, and the like. Enter A language database in which information on a first language and corresponding information on a second language are stored in association with each other according to an order predetermined by a computer program or based on a selected problem. 30 is referred to, the first language character information "I am a boy" is displayed on the screen by the first language character information display means 22, and the input of pronunciation is prompted (step 201).
[0086]
Subsequently, the learner inputs "I am a boy" which is a pronunciation of "I am a boy" which is an English translation of Japanese "I am a boy" through the voice information acquisition means 24 in accordance with the instruction. Thereby, the language learning support device 1 acquires voice information (step 202).
[0087]
Next, the pronunciation matching degree determination unit 25 refers to the pronunciation information database 31 in which correct pronunciations of the first language and / or the second language are stored, and converts the sound information acquired by the speech information acquisition unit 24. The pronunciation included is compared with the correct pronunciation of "I am a boy" which is the English translation of the first language "I am a boy" displayed on the screen, and the degree of matching of the pronunciation is determined (step 203). ).
[0088]
Next, when the character information output determining means 26 determines, for example, that “the pronunciation matches” or “the correct pronunciation” based on the determination result of the pronunciation matching degree determining means 25, it is displayed on the screen. It is determined whether or not the second language “I am a boy” translated from the first language “I am a boy” is displayed as character information on the screen by the second language character information display means 23 (step 204).
[0089]
Thus, based on the above-mentioned determination, the character "I am a boy" is displayed on the screen by the second language character information display means 23, for example, in parallel with the character "I am a boy" displayed earlier. Is displayed (step 205).
[0090]
Instead of this step 205, the second language character information display means 23 displays an image of the character "I am a boy" and the second language sound output means 29 correctly pronounces "I am a boy". "I am a boy" may be output as a voice (step 206).
[0091]
The flowchart shown in FIG. 37 is different from the flowchart shown in FIG. 36 in that the pronunciation matching degree determination unit 25 has determined in step 103 that “the pronunciation does not match” and “the pronunciation is incorrect”. At 104, the character information output determination means 26 indicates a case where it is not possible to determine that the second language character information display means 23 will display character information on the screen.
[0092]
In this case, when the learner inputs an instruction of “requesting a correct pronunciation output” through the information acquisition unit 21 realized by a keyboard, a pointing device or the like (step 207), the second language audio output unit 29 The correct pronunciation of "I am boy""I am a boy" is output as voice (step 208).
[0093]
In step 203, if the pronunciation matching degree determination unit 25 determines that the pronunciation does not match, etc., and if the character information output determination unit 26 cannot determine to execute the display of character information on the screen in step 204, The determination can be repeated by prompting the learner to input the pronunciation a predetermined number of times, such as the number of repetitions.
[0094]
The flowchart shown in FIG. 38 illustrates still another example of the learning support method described in the flowchart shown in FIG.
[0095]
In step 203, if the pronunciation matching degree determination means 25 determines that the pronunciations do not match, etc., and if the character information output determination means 26 cannot determine to display the character information on the screen in step 204, the second language The character information display means 23 displays the character "I am a boy" in parallel with the character "I am a boy", which has been displayed as an image, and the correction information display means 27 displays this character on this screen. In the displayed "I am boy", a part whose pronunciation is not accurate is displayed so that it can be distinguished from other parts (for example, highlighted) (step 209).
[0096]
Instead of step 209, the character "I am a boy" is displayed by the second language character information display means 23 in parallel with the character "I am a boy" displayed earlier. At the same time, the correction information display means 27 displays (for example, highlights) a part of the "I am a boy" displayed on this screen that is not correctly pronounced so that it can be distinguished from other parts, and Alternatively, the correct pronunciation of "I am a boy" of "I am a boy" by the second language voice output means 29 may be output as voice (step 210).
[0097]
In the case of FIG. 38 as well, in step 203, the pronunciation matching degree determination means 25 determines that "pronunciation does not match" or the like, and in step 204, the character information output determination means 26 displays character information on the screen. If it cannot be determined to be executed, the determination can be repeated by prompting the learner to input a pronunciation a predetermined number of times, such as once again.
[0098]
In the figure, reference numeral 28 is a first language audio output unit.
[0099]
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[0100]
【Example】
FIG. 1 shows the overall configuration of a support device 1 according to the present invention. The support apparatus 1 has a back button 5, a repeat button 6, a teacher button 7, a vertical movement button 8, an enter button 9, and a built-in speaker 10 attached to a main body 4 having a first monitor 2 and a second monitor 3 as display means. Have been. In addition, a microphone 11a constituting a sound information acquisition unit for acquiring the pronunciation of the learner is connected, and this is connected to an integrated type with the headphone 11 as shown in FIG.
[0101]
It can be turned on and off separately from the power source of the main body 4 of the built-in speaker 10, and the volume can be adjusted.
[0102]
In this embodiment, a CD-ROM containing dedicated learning software is inserted into the main body 4 as indicated by an arrow 12 and operated. The main body 4 is equipped with a CPU, a memory, and the like, and the learning software converts voice obtained from the microphone 11a into digital data in cooperation with the main body 4, and stores previously stored English words and English sentences. A program for comparing with correct pronunciation and determining the degree of matching is incorporated. Further, the determination result is output and displayed on the first monitor 2, the second monitor 3, and in some cases, the external speaker 10 or the headphone 11.
[0103]
In this embodiment, Japanese is used as a first language (for example, a native language), and a second language (corresponding to translation) corresponding to the first language (another language translated from the first language) is used. Therefore, assuming English as the language that the learner is going to learn), we prepared software that can learn between Japanese and English.
[0104]
The first monitor 2 is used to display the question language, and the second monitor 3 is used to display the answer language. Further, on the first monitor 2 and the second monitor 3, various kinds of information necessary for progressing the learning are displayed. For example, learning menus such as a language selection menu screen (FIGS. 2 and 21) for selecting a question language and a chapter selection menu screen (FIGS. 3 and 22) are sequentially displayed.
[0105]
The return button 5 is a button used to return a screen displayed one after another to a previous screen. The repeat button 6 is used when repeatedly practicing one sentence, and allows the user to practice repeatedly. The teacher button 7 is used when a sentence or word that is set is not correctly pronounced or is not understood from the beginning, thereby displaying a correct pronunciation or language display as a model according to a learner's intention. . The up / down button 8 is used when making a selection on the menu screen, and the enter button 9 is used when, for example, the item selected on the menu screen is determined.
[0106]
An example of learning English using the support device 1 configured as described above will be described step by step.
[0107]
[When questions are displayed in English]
First, a description will be given of a case where the questions are displayed in English, the learner pronounces English based on the English display, determines the degree of matching of pronunciation, and finally displays the translated Japanese sentence.
[0108]
(1) First, the learning software is read into the main body 4 as indicated by an arrow 12, and when the program is started, a language selection menu screen for selecting a question language as shown in FIG. 2 is displayed on the second monitor 2. The learner operates the up / down button to highlight “English questions”. When the enter button 9 is pressed in this state, the screen is switched to a chapter selection menu screen as shown in FIG.
[0109]
(2) This learning software Chapter 1 to 5. It is composed of five chapters of the comprehensive check, and the learner can start from any chapter. However, when starting from the first chapter, the learner operates the up / down button 8 as shown in FIG. .1. "Is highlighted, and the enter button 9 is pressed. When the enter button 9 is pressed, the screen is switched to a screen as shown in FIG.
[0110]
(3) This learning software includes 1. Sentences, 2. Words, 3. It consists of items of ability check. First, a case where a sentence is learned will be described. When learning is to be performed on a sentence, “1. Sentence” is highlighted with the up / down button 8 as shown in FIG. When the enter button 9 is pressed, the first question of the first chapter and the first sentence in English are displayed on the first monitor 2 as shown in FIG.
[0111]
(4) The first problem of the first sentence in English is “I am a boy”, and this English sentence is displayed on the first monitor 2. The learner goes to the microphone 11a while watching this and pronounces in English. The support device 1 that has acquired the pronunciation of the learner determines whether or not the pronunciation of the learner is correct in cooperation with the learning software and the main body 1. At this time, the determination is made for each word.
[0112]
(5) As a result of the determination, if all pronunciations are determined to be correct, as shown in FIG. 6, the translated Japanese sentence "I am a boy" corresponding to the given "I am a boy" It is displayed on the second monitor 3. Also, at this time, the voice “I am a boy” is output to the built-in speaker 10 and the headphones 11. In this way, the translated Japanese sentence is shown only when all the pronunciations are determined to be correct, so that the learner can make an effort to learn the translated Japanese sentence quickly, Because the translation is shown, you can also acquire the translation skills.
On the other hand, as a result of the determination, when it is determined that some of the pronunciations are wrong, the wrong part is displayed in reverse video, and nothing is displayed on the second monitor 3. For example, when it is determined that the part of “boy” in the question “I am a boy” was wrong, the “I am boy” of the first monitor 2 shown in FIG. , “Boy” are displayed in reverse video, and the translated Japanese sentence is not displayed on the second monitor 3. When it is determined to be wrong, the user can return to the question screen (FIG. 5) by pressing the repeat button 6, and can repeatedly practice.
[0113]
(6) If the correct pronunciation is not possible after repeated practice, the teacher button 7 is pressed to output the correct pronunciation from the built-in speaker 10 and the headphone 11, and at the same time, the display state shown in FIG. it can. In other words, on the screen, a translated Japanese sentence is displayed on the second monitor 3 while a wrong portion (in this case, the portion of “boy”) is highlighted on the first monitor 2. Thereby, the correct pronunciation can be heard and the translation can be known. When the enter button 9 is pressed in the state shown in FIG. 8, the flow returns to the normal flow and learning can be continued.
Note that even when the pronunciation is not known from the beginning, by pressing the teacher button 7, it is possible to output a sound with correct pronunciation and display a translated Japanese sentence (not shown).
[0114]
(7) Each chapter includes a plurality of question sentences, and when a correct answer is obtained, the text is displayed continuously from the first question to the end of each chapter. When all the chapters are completed, the screen automatically returns to the chapter selection menu screen (FIG. 3). If you want to practice one sentence repeatedly on the way, you can repeat the same sentence by pressing the repeat button 6. To return to the normal flow, the repeat button 6 may be pressed again. By pressing the up / down movement button 8, the user can move to the previous or next sentence. Further, the user can return to the text, word, ability check selection menu screen (FIG. 4) and the chapter selection menu screen (FIG. 5) by pressing the return button 5.
[0115]
With the above flow, learning support when an English sentence is displayed is performed. If "word" is selected on the text, word, ability check selection menu screen (FIG. 4), the word can be learned in a similar flow. The way of performing the “word” learning itself is basically the same as the “sentence” learning, and a detailed description thereof will be omitted.
[0116]
(8) The learner who has completed the learning of “sentence” and “word” selects “3. ability check” on the menu for selecting a sentence, word and ability check as shown in FIG. You can check your ability by pressing. In the ability check, learning can proceed in an interactive manner.
[0117]
(9) When the ability check menu is selected, the English sentence “Where is the capital in Japan?” Is displayed on the first monitor 2 as shown in FIG. 10, and the sentence is displayed in English from the built-in speaker 10 and the headphones 11. Is output as voice. At this time, the translated Japanese sentence is not displayed on the second monitor 3.
[0118]
(10) The learner given the question (question) as shown in FIG. 10 pronounces the question English sentence “Where is the capital in Japan?” Displayed on the first monitor 2 into the microphone 11a in English, and then continues. Answer the questions in English. In this embodiment, the answer is "It is Tokyo". The support device 1 that has acquired the pronunciation of the learner determines whether or not the pronunciation of the learner is correct in cooperation with the learning software and the main body 1. As a result, when it is determined that the answer is correct, as shown in FIG. 11, the answer English text “It is Tokyo” is displayed below the question English text “Where is the capital in Japan?” And the second monitor 3 is displayed. Displays the English translation of the question and the English translation of the answer ("Where is the capital of Japan?", "Tokyo"). At the same time, voices are output in Japanese from the built-in speaker 10 and the headphone 11, such as "Where is the capital of Japan?" If a plurality of answers are possible, all of them are determined to be correct.
On the other hand, if the correct answer could not be obtained (if the answer was wrong or the pronunciation was incorrect), the English sentence to be set was highlighted as shown in FIG. No translation is displayed. Following this, "current understanding level" is shown. For example, as shown in FIG. 13, a message such as “current understanding level 70%” is displayed on the second monitor 3. In order to return to the normal flow from the display state shown in FIG.
[0119]
(11) If the answer is not understood or the answer cannot be made even when the English sentence is shown, the teacher button 7 is pressed to output the correct pronunciation to the built-in speaker 10 and the headphone 11 by voice. At the same time, as shown in FIG. 14, the translated Japanese sentence of the question English sentence and the answer English sentence is displayed on the second monitor 3. At this time, the order of screen display and audio output is as follows. First, the English sentence (“Where is the capital in Japan?”) Is displayed in an inverted state, and the English sentence (“Where is the capital in Japan?”) Is displayed in English. ) Is output as audio. Subsequently, the translated Japanese sentence (“Where is the capital of Japan?”) Of the English question is displayed on the second monitor 3 and is output as audio. Then, the answer English sentence ("It is Tokyo") is displayed on the first monitor and output as voice, and then the translated Japanese sentence of answer English ("Tokyo is") is displayed on the second monitor 3 and output as voice. Is done. Pressing the enter button 9 returns to the normal flow.
[0120]
(12) The ability check can be performed according to the above flow. A learner who has completed the ability check of each chapter can perform a comprehensive check (FIG. 15). In the comprehensive check, as a comprehensive summary of all chapters, 20 questions are randomly asked from the ability check of each chapter. The way of proceeding with the comprehensive check itself is the same as the ability check of each chapter, and therefore the description thereof is omitted.
[0121]
[When questions are displayed in Japanese]
Next, a description will be given of a case where the questions are displayed in Japanese, the learner pronounces English based on the Japanese display, judges the degree of matching of pronunciation, and finally displays the translated English sentence. .
[0122]
When displaying the questions in English, the learner should have pronounced the displayed English text as it is, but when displaying the questions in Japanese, the learner needs a process of translating from Japanese to English It becomes.
[0123]
(1) First, as in the case of displaying the questions in English, the learning software is read into the main body 4 as shown by arrow 12 (FIG. 1), and when the program is started, the question language as shown in FIG. 16 is selected. Since the language selection menu screen to be displayed is displayed on the second monitor 2, the learner operates the up / down movement button to highlight "Japanese questions". When the enter button 9 is pressed in this state, the screen is switched to a chapter selection menu screen as shown in FIG.
[0124]
(2) This learning software Chapter 1 to 5. It consists of five chapters of comprehensive check, and the learner can start from any chapter. However, when starting from the first chapter, the learner operates the up / down button 8 to select “1” as shown in FIG. .1. "Is highlighted, and the enter button 9 is pressed. When the enter button 9 is pressed, the screen is switched to a screen as shown in FIG.
[0125]
(3) This learning software includes 1. Sentences, 2. Words, 3. It consists of items of ability check. First, a case where a sentence is learned will be described. When learning with respect to a sentence is performed, the "1. Sentence" is highlighted with the up / down button 8 as shown in FIG. When the enter button 9 is pressed, the first question of the first chapter and the first sentence in Japanese are displayed on the first monitor 2 as shown in FIG.
[0126]
(4) The first problem of the first sentence in Japanese is "I am a boy", and this Japanese sentence is displayed on the first monitor 2. The learner looks at this, thinks about the translated English sentence, and pronounces the translated English sentence toward the microphone 11a. The support device 1 that has acquired the pronunciation of the learner determines whether or not the pronunciation of the learner is correct in cooperation with the learning software and the main body 1. At this time, the determination is made for each word. In this regard, it is the same as when the questions are given in English.
[0127]
(5) If all the pronunciations are determined to be correct as a result of the determination, as shown in FIG. 20, the translated English sentence "I am aboy" corresponding to the question "I am a boy" is the second. It is displayed on the monitor 3. At this time, “I am a boy” is output as sound to the built-in speaker 10 and the headphone 11. In this way, the learner thinks and pronounces the translated English sentence, and the translated English sentence is shown only when all pronunciations are determined to be correct. You can make an effort with motivation, and you can acquire further translation skills by showing the translation.
On the other hand, as a result of the determination, if it is determined that the pronunciation is partially incorrect or the translated English sentence itself is incorrect, the incorrect portion is highlighted and nothing is displayed on the second monitor 3. . For example, when it is determined that the "boy" portion of the "I am a boy", that is, the "boy" portion is incorrect, the "monitor" shown on the first monitor 2 as shown in FIG. Of "I am a boy", the "boy" portion is highlighted and the translated English text is not displayed on the second monitor 3. When it is determined to be incorrect, the user can return to the question screen (FIG. 19) by pressing the repeat button 6, and can repeatedly practice.
[0128]
In addition, if the translated English sentence that the learner thinks is correct is different, or if the translated English sentence that does not exist but is pronounced for the first time is different from all words, all of "I am a boy" is inverted Is displayed.
[0129]
(6) If the practice is repeated but correct pronunciation is not possible, the teacher button 7 is pressed to output the correct pronunciation from the built-in speaker 10 and the headphone 11, and at the same time, the display state shown in FIG. it can. That is, on the screen, the translated English sentence is displayed on the second monitor 3 while the wrong portion (in this case, the “boy” portion) is highlighted on the first monitor 2. Thereby, the correct pronunciation can be heard and the translation can be known. In the state shown in FIG. 22, if the enter button 9 is pressed, the flow returns to the normal flow and learning can be continued.
[0130]
When the pronunciation is not known from the beginning, or when the translated English sentence itself is unknown, pressing the teacher button 7 can output a sound with correct pronunciation and display a translated Japanese sentence (not shown).
[0131]
(7) Each chapter includes a plurality of question sentences, and when a correct answer is obtained, the text is displayed continuously from the first question to the end of each chapter. Upon completion of all the chapters, the screen automatically returns to the chapter selection menu screen (FIG. 17). If you want to practice one sentence repeatedly on the way, you can repeat the same sentence by pressing the repeat button 6. To return to the normal flow, the repeat button 6 may be pressed again. By pressing the up / down movement button 8, the user can move to the previous or next sentence. Further, the user can return to the text, word, ability check selection menu screen (FIG. 18) and the chapter selection menu screen (FIG. 17) by pressing the return button 5.
[0132]
With the above flow, learning support when a Japanese sentence is displayed is performed. If "word" is selected on the text, word, ability check selection menu screen (FIG. 18), the word can be learned in a similar flow. The way of performing the “word” learning itself is basically the same as the “sentence” learning, and a detailed description thereof will be omitted.
[0133]
(8) The learner who has completed the learning of “sentence” and “word” selects “3. ability check” on the menu for selecting a sentence, word and ability check as shown in FIG. You can check your ability by pressing. In the ability check, learning can proceed in an interactive manner.
[0134]
(9) When the ability check menu is selected, the Japanese sentence “Where is the capital of Japan?” Is displayed on the first monitor 2 as shown in FIG. Is output in Japanese. At this time, the translated Japanese sentence is not displayed on the second monitor 3.
[0135]
(10) The learner given the question (question) as shown in FIG. 24 looks at the Japanese sentence “Where is the capital of Japan?” Displayed on the first monitor 2 and thinks about the translated English sentence. The translated English sentence is pronounced in English toward the microphone 11a, and then the answer to the question is considered in English and answered in English. In this embodiment, the answer is "It is Tokyo". The support device 1 that has acquired the pronunciation of the learner determines whether or not the pronunciation of the learner is correct in cooperation with the learning software and the main body 1. As a result, when it is determined that the answer is correct, as shown in FIG. 25, the answer Japanese sentence "Tokyo" is displayed below the Japanese sentence "Where is the capital of Japan?" No. 3 displays the English translations of the question Japanese sentence and the answer Japanese sentence (“where is the capital in Japan?”, “It is Tokyo”). At the same time, the built-in speaker 10 and the headphone 11 output English as "Where is the capital in Japan?" And "It is Tokyo" in English. If a plurality of answers are possible, all of them are determined to be correct.
On the other hand, if the correct answer could not be obtained (if the answer was wrong or the pronunciation was incorrect), the Japanese sentence in question is highlighted as shown in FIG. No translation is displayed. Following this, "current understanding level" is shown. For example, as shown in FIG. 27, a message such as “current understanding level 70%” is displayed on the second monitor 3. In order to return to the normal flow from the display state shown in FIG. 27, the enter button 9 may be pressed.
[0136]
(11) In the case where the translated English sentence is not understood or the pronunciation is not understood even when the Japanese sentence is shown, the correct pronunciation is output to the built-in speaker 10 and the headphone 11 by pressing the teacher button 7. At the same time, the translated English sentence of the Japanese sentence and the answer Japanese sentence are displayed on the second monitor 3 as shown in FIG. The order of the screen display and audio output at this time is as follows. First, the Japanese sentence ("Where is the capital of Japan?") Is displayed in an inverted state, and the Japanese sentence in Japanese ("Japanese capital is Where is it?) Is output as audio. Subsequently, the translated English sentence of the subject Japanese sentence (“where is the capital in Japan?”) Is displayed on the second monitor 3 and is output as audio. Then, the answer Japanese sentence ("Tokyo") is displayed on the first monitor and output as voice, and then the translated English sentence of the answer Japanese sentence ("It is Tokyo") is displayed on the second monitor 3 and the sound is output. Is output. Pressing the enter button 9 returns to the normal flow.
[0137]
(12) The ability check can be performed according to the above flow. A learner who has completed the ability check of each chapter can perform a comprehensive check (FIG. 29). In the comprehensive check, as a comprehensive summary of all chapters, 20 questions are randomly asked from the ability check of each chapter. The way of proceeding with the comprehensive check itself is the same as the ability check of each chapter, and therefore the description thereof is omitted.
[0138]
[Select level]
As described above, the learner can proceed with learning when the questions are in English and when the questions are in Japanese.
[0139]
However, the ability level of the learner who uses the support device 1 is different, and even if the learners are the same person, the ability level increases as learning progresses.
[0140]
Therefore, the support device 1 is configured to compare the pronunciation of the learner with the correct pronunciation of English words and sentences stored in advance, and to change the criterion for determining the degree of matching. To select a level, a matching level selection screen is displayed as shown in FIG. 30. For example, when learning is performed at level 1, “level 1” is highlighted, and when the enter button 9 is pressed, learning at level 1 is performed. Can be started. If learning at level 1 becomes unsatisfactory, raise the level to level 2, level 3, and level 4 where more rigorous matching judgment is performed, and try to be able to pronounce more natively. Can be.
[0141]
It is also possible to change the level by replacing the learning software itself with one for lower-grade users and one for more advanced users.
[0142]
[Audio output mode]
The support device 1 of this embodiment has a voice output mode.
In the above embodiment, the English pronunciation is output from the built-in speaker 10 and the headphone 11 only when the correct pronunciation is made or when the teacher button 7 is pressed, but if the audio output mode is selected, When the English language is displayed on the screen, the correct English pronunciation is always output from the built-in speaker 10 and the headphone 11.
[0143]
For example, when the English question “I am a boy” is displayed as shown in FIG. 31, the built-in speaker 10 and the headphone 11 output “I am a boy” as a sound in correct English pronunciation.
[0144]
By setting the voice output mode in this way, for example, beginners can always hear correct pronunciation, so that learning progresses faster.
[0145]
As described above, the preferred embodiments of the present invention have been described with reference to the accompanying drawings. However, the present invention is not limited to such embodiments, and various modifications may be made within the technical scope understood from the claims. It can be changed to a different form.
[0146]
【The invention's effect】
As described above, with the use of the language learning support device of the present invention, the correct translation is displayed only when the correct pronunciation is made, so that the correct pronunciation and the correct translation can be acquired simultaneously.
[0147]
Further, when the pronunciation is not accurate, the display is made to be distinguished from the accurate portion, so that it is possible to know the portion that could not be correctly pronounced and to improve at an early stage.
[0148]
Furthermore, since the pronunciation matching determination means can change the determination criterion of the degree of matching, learning according to the level of the learner can be performed.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing an overall configuration of a support device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram of a state where “question in English” is selected on a language selection menu screen.
FIG. 3 is an explanatory diagram of a state where “first chapter” is selected on a chapter selection screen.
FIG. 4 is an explanatory diagram of a state where “sentence” is selected on a sentence, word, and ability check screen.
FIG. 5 is an explanatory diagram of a state in which a question is displayed in English text.
FIG. 6 is an explanatory diagram of a state where correct pronunciation is made and a translated Japanese sentence is displayed.
FIG. 7 is an explanatory diagram showing a state in which a part of the pronunciation is incorrect and a wrong part is highlighted;
8 is an explanatory diagram showing a state in which a teacher button is pressed to output a correct pronunciation as a voice, and a translated Japanese sentence is displayed in addition to the display shown in FIG. 7;
FIG. 9 is an explanatory diagram of a state in which “skill check” is selected on a sentence, word, and ability check screen.
FIG. 10 is an explanatory diagram of a state in which a question sentence is displayed in English.
FIG. 11 is an explanatory diagram showing a state in which a question sentence and an answer sentence are displayed in English and a question sentence and an answer sentence are displayed in Japanese.
FIG. 12 is an explanatory diagram showing a state in which the answer or pronunciation is wrong and the entire English question sentence is highlighted.
FIG. 13 is an explanatory diagram of a state in which the current understanding level determined by the ability check is displayed.
FIG. 14: The teacher button is pressed to display the English question sentence in a reversed state, the English answer sentence is displayed, and their correct pronunciation is output by voice. Further, these translated Japanese-Japanese sentences are displayed, and the voice is displayed. Explanatory drawing of the state which outputs.
FIG. 15 is an explanatory diagram of a state where “general check” is selected on the chapter selection screen.
FIG. 16 is an explanatory diagram of a state where “question in Japanese” is selected on the language selection menu screen.
FIG. 17 is an explanatory diagram of a state where “first chapter” is selected on the chapter selection screen.
FIG. 18 is an explanatory diagram of a state where “sentence” is selected on a sentence, word, and ability check screen.
FIG. 19 is an explanatory diagram of a state in which a question is displayed in a Japanese sentence.
FIG. 20 is an explanatory diagram of a state where correct pronunciation is made and a translated English sentence is displayed.
FIG. 21 is an explanatory diagram showing a state in which a part of a pronunciation is incorrect and a wrong part is highlighted;
FIG. 22 is an explanatory view showing a state in which a teacher button is pressed to output a correct pronunciation by voice, and a translated English sentence is displayed together with the display shown in FIG. 7;
FIG. 23 is an explanatory diagram of a state where “skill check” is selected on a sentence, word, and skill check screen.
FIG. 24 is an explanatory diagram of a state in which a question sentence is displayed in Japanese.
FIG. 25 is an explanatory diagram showing a state in which a question sentence and an answer sentence are displayed in Japanese and a question sentence and an answer sentence are displayed in English.
FIG. 26 is a state explanatory view in which the answer or pronunciation is incorrect and the entire Japanese question sentence is highlighted.
FIG. 27 is an explanatory diagram of a state in which the current understanding level determined by the ability check is displayed.
FIG. 28: Pressing the teacher button to display the Japanese question sentence in a reversed state, displaying the English answer sentence and outputting the correct pronunciation of the same, and further displaying these translated Japanese-Japanese sentences. FIG. 4 is an explanatory diagram of a state in which sound is output.
FIG. 29 is an explanatory diagram of a state where “general check” is selected on the chapter selection screen.
FIG. 30 is an explanatory diagram of a state where “level 1” is selected on the coincidence level selection screen.
FIG. 31 is a conceptual diagram showing a state in which sound is output from a built-in speaker and headphones.
FIG. 32 is an explanatory diagram showing a schematic configuration of a preferred embodiment of the language learning support device of the present invention.
FIG. 33 is a flowchart for explaining processing when a question is given in a second language (English) by the language learning support device shown in FIG. 32 and it is determined that “the pronunciation matches” and “the pronunciation is correct”; .
FIG. 34 illustrates a process performed when a question is given in a second language (English) by the language learning support device illustrated in FIG. 32 and it is determined that “pronunciation does not match” and “pronunciation is incorrect”. Flow diagram.
FIG. 35 is a flowchart for explaining another process when the determination shown in FIG. 33 is made;
FIG. 36 is a flowchart for explaining processing when a question is given in the first language (Japanese) by the language learning support device shown in FIG. 32 and it is determined that “the pronunciation matches” and “the pronunciation is correct”; FIG.
FIG. 37 describes processing when a question is given in the first language (Japanese) by the language learning support apparatus shown in FIG. 32 and it is determined that “pronunciation does not match” and “pronunciation is incorrect”. FIG.
FIG. 38 is a flowchart for explaining another process when the determination shown in FIG. 36 is made;
[Explanation of symbols]
1 support device
2 First monitor
3 Second monitor
4 Body
5 Back button
6 Repeat button
7 Teacher button
8 Up / Down button
9 Enter button
10 Built-in speaker
11 Headphones
21 Information acquisition means
22 First language character information display means
23 Second language character information display means
24 voice information acquisition means
25 Pronunciation matching level judgment means
26 Character information output determination means
27 Correction information display means
28 First language audio output means
29 Second language audio output means
30 language database
31 pronunciation information database

Claims (14)

第一の言語を文字情報で画面に表示する第一言語文字情報表示手段と、
前記第一の言語を翻訳した他の言語である第二の言語を文字情報で画面に表示する第二言語文字情報表示手段と、
音声情報を取得する音声情報取得手段と、
音声情報取得手段で取得した音声情報に含まれている発音を、画面に表示されている前記第一の言語又は第二の言語の正しい発音、又は、画面に表示されている前記第一の言語又は第二の言語に対応する第二の言語又は第一の言語の正しい発音と比較し、発音の一致度合いを判定する発音一致度判定手段と、
発音一致度判定手段の判定結果に基づき、前記第一言語文字情報表示手段又は第二言語文字情報表示手段による画面への文字情報表示を行わせるかどうかを決定する文字情報出力決定手段
とを備えていることを特徴とする語学学習支援装置。
First language character information display means for displaying the first language on the screen with character information,
A second language character information display means for displaying a second language, which is another language translated from the first language, on a screen with character information,
Voice information obtaining means for obtaining voice information;
The pronunciation included in the audio information acquired by the audio information acquisition means, the correct pronunciation of the first language or the second language displayed on the screen, or the first language displayed on the screen Or a pronunciation match determination means for comparing the correct pronunciation of the second language or the first language corresponding to the second language and determining the degree of matching of the pronunciation,
Character information output determining means for determining whether to display character information on a screen by the first language character information display means or the second language character information display means based on a determination result of the pronunciation matching degree determination means. A language learning support device characterized in that:
第一言語文字情報表示手段による画面への第一の言語の文字情報での表示及び、第二言語文字情報表示手段による画面への第二の言語の文字情報での表示は、第一言語文字情報表示手段による第一の言語の文字情報での表示、又は、第二言語文字情報表示手段による第二の言語の文字情報での表示のいずれか一方、又は、同一の画面への第一言語文字情報表示手段による第一の言語の表示と第二言語文字情報表示手段による第二の言語の表示が並列して行われるものであることを特徴とする請求項1記載の語学学習支援装置。The display of the first language character information on the screen by the first language character information display means and the display of the second language character information on the screen by the second language character information display means are the first language characters. Either display by the character information of the first language by the information display means, or display by the character information of the second language by the second language character information display means, or the first language on the same screen 2. The language learning support device according to claim 1, wherein the display of the first language by the character information display means and the display of the second language by the second language character information display means are performed in parallel. 音声情報取得手段で取得した音声情報が、画面に文字情報で表示されている第一の言語又は第二の言語の発音に相当する場合に、前記発音一致度判定手段の判定結果に基づき、画面に文字情報で表示されている第一の言語又は第二の言語中の発音が正確でなかった部分又は正確であった部分を他の部分と区別して表示する添削情報表示手段を更に備えていることを特徴とする請求項1又は2記載の語学学習支援装置。If the voice information obtained by the voice information obtaining means corresponds to the pronunciation of the first language or the second language displayed as character information on the screen, based on the determination result of the pronunciation matching degree determination means, the screen Further includes correction information display means for displaying a part in which the pronunciation in the first language or the second language displayed in the character information is incorrect or an accurate part is distinguished from other parts. The language learning support device according to claim 1 or 2, wherein: 発音一致度判定手段は、一致の度合いの判定基準を変更できることを特徴とする請求項1乃至3のいずれか一項記載の語学学習支援装置。The language learning support device according to any one of claims 1 to 3, wherein the pronunciation matching degree determination means can change a determination criterion of a matching degree. 第一の言語の正しい発音を出力する第一言語音声情報出力手段、又は、第二の言語の正しい発音を出力する第二言語音声情報出力手段、又は、前記第一言語音声情報出力手段と前記第二言語音声情報出力手段との双方を更に備えていることを特徴とする請求項1乃至4のいずれか一項記載の語学学習支援装置。A first language audio information output unit that outputs a correct pronunciation of the first language, or a second language audio information output unit that outputs a correct pronunciation of the second language, or the first language audio information output unit and the first The language learning support device according to any one of claims 1 to 4, further comprising both a second language voice information output unit. 第一言語音声情報出力手段による発音の出力および第二言語音声情報出力手段による発音の出力は、第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に第一の言語又は第二の言語が文字情報で表示される際、又は、前記添削情報表示手段によって添削情報が表示される際に、第一の言語又は第二の言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるものであることを特徴とする請求項5記載の語学学習支援装置。The output of the pronunciation by the first language audio information output means and the output of the pronunciation by the second language audio information output means are displayed on the screen by the first language character information display means or the second language character information display means. When the language of the first language or the second language is displayed as character information, or when the correction information is displayed by the correction information display means, the correct pronunciation of the first language or the second language is output by the first language audio information output means or the second language. 6. The language learning support apparatus according to claim 5, wherein the processing is performed by bilingual voice information output means. 第一言語音声情報出力手段による発音の出力および第二言語音声情報出力手段による発音の出力は、正しい発音の出力を求める指示を取得した際に、当該指示で要求された言語の正しい発音が第一言語音声情報出力手段又は第二言語音声情報出力手段によって行われるものであることを特徴とする請求項5記載の語学学習支援装置。The pronunciation output by the first language audio information output means and the pronunciation output by the second language audio information output means are, when an instruction to output the correct pronunciation is obtained, the correct pronunciation of the language requested by the instruction is output. 6. The language learning support apparatus according to claim 5, wherein the processing is performed by a monolingual audio information output unit or a second language audio information output unit. 第一の言語又は第一の言語を翻訳した他の言語である第二の言語の文字情報をそれぞれ第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に表示し発音の入力を促すステップ、
音声情報取得手段によって音声情報を取得するステップ、
音声情報取得手段によって取得した音声情報に含まれている発音を、発音一致度判定手段によって、前記画面に表示されている第一の言語又は第二の言語の正しい発音と比較し、発音の一致度合いを判定するステップ、
発音一致度判定手段の判定結果に基づき、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語を第二言語文字情報表示手段又は第一言語文字情報表示手段によって画面に文字情報で表示させるかどうかを決定するステップ、
とを備えていることを特徴とする語学学習支援方法。
The first language or the second language, which is another language translated from the first language, is displayed on the screen by the first language character information display means or the second language character information display means, respectively. Prompting,
Acquiring voice information by voice information obtaining means,
The pronunciation included in the audio information acquired by the audio information acquisition unit is compared with the correct pronunciation of the first language or the second language displayed on the screen by the pronunciation matching degree determination unit, and the pronunciation matches. Determining the degree;
The second language or the first language translated from the first language or the second language displayed on the screen is displayed in the second language by the character information output determining means based on the determination result of the pronunciation matching degree determining means. Determining whether to display the screen with character information by character information display means or first language character information display means,
A language learning support method, comprising:
第一の言語又は第一の言語を翻訳した他の言語である第二の言語の文字情報をそれぞれ第一言語文字情報表示手段又は第二言語文字情報表示手段によって画面に表示し発音の入力を促すステップ、
音声情報取得手段によって音声情報を取得するステップ、
音声情報取得手段によって取得した音声情報に含まれている発音を、発音一致度判定手段によって、前記画面に表示されている第一の言語又は第二の言語に対応する第二の言語又は第一の言語の正しい発音と比較し、発音の一致度合いを判定するステップ、
発音一致度判定手段の判定結果に基づき、文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語を第二言語文字情報表示手段又は第一言語文字情報表示手段によって画面に文字情報で表示させるかどうかを決定するステップ、
とを備えていることを特徴とする語学学習支援方法。
The first language or the second language, which is another language translated from the first language, is displayed on the screen by the first language character information display means or the second language character information display means, respectively. Prompting,
Acquiring voice information by voice information obtaining means,
The pronunciation included in the audio information acquired by the audio information acquisition unit is converted into a second language or a first language corresponding to the first language or the second language displayed on the screen by the pronunciation matching degree determination unit. Comparing the pronunciation with the correct pronunciation of the language to determine the degree of matching of the pronunciation,
The second language or the first language translated from the first language or the second language displayed on the screen is displayed in the second language by the character information output determining means based on the determination result of the pronunciation matching degree determining means. Determining whether to display the screen with character information by character information display means or first language character information display means,
A language learning support method, comprising:
文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行うと決定した場合に、画面に表示されていた第一の言語又は第二の言語の文字情報に並列させて当該決定に基づく第二の言語又は第一の言語の文字情報での表示を同一の画面に行うステップを更に備えていることを特徴とする請求項8又は9記載の語学学習支援方法。The second language character information display means or the first language character information display of the second language or the first language translated from the first language or the second language displayed on the screen, respectively, by the character information output determination means If it is determined to display the character information on the screen by the means, the second language or the first language based on the determination in parallel with the character information of the first language or the second language displayed on the screen 10. The language learning support method according to claim 8, further comprising a step of displaying the character information of the language on the same screen. 文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行わないと決定した場合に、前記発音一致度判定手段の判定結果に基づき画面に文字情報で表示されている第一の言語又は第二の言語中の発音が正確でなかった部分又は正確であった部分を、添削情報表示手段によって、他の部分と区別して画面に表示するステップを更に備えていることを特徴とする請求項8又は9記載の語学学習支援方法。The second language character information display means or the first language character information display of the second language or the first language translated from the first language or the second language displayed on the screen, respectively, by the character information output determination means Means for not displaying character information on the screen by the means, the pronunciation in the first language or the second language displayed in the character information on the screen based on the determination result of the pronunciation matching degree determination means. 10. The language learning support according to claim 8, further comprising a step of displaying an inaccurate portion or an inaccurate portion on a screen by the correction information display means so as to be distinguished from other portions. Method. 発音一致度判定手段による発音の一致の度合いの判定基準は変更可能であることを特徴とした請求項8乃至11のいずれか一項記載の語学学習支援方法。The language learning support method according to any one of claims 8 to 11, wherein a criterion for determining the degree of pronunciation matching by the pronunciation matching degree determination means can be changed. 文字情報出力決定手段によって、画面に表示されている第一の言語又は第二の言語をそれぞれ翻訳した第二の言語又は第一の言語の第二言語文字情報表示手段又は第一言語文字情報表示手段による画面への文字情報表示を行うと決定した場合、又は、前記添削情報表示手段によって添削情報が表示される際に、第二の言語の正しい発音を出力する第二言語音声情報出力手段又は第一の言語の正しい発音を出力する第一言語音声情報出力手段によって、第二の言語又は第一の言語の正しい発音の出力を行うステップが更に備えられていることを特徴とする請求項8乃至12のいずれか一項記載の語学学習支援方法。The second language character information display means or the first language character information display of the second language or the first language translated from the first language or the second language displayed on the screen, respectively, by the character information output determination means Means for displaying character information on the screen by the means, or when the correction information is displayed by the correction information display means, a second language audio information output means for outputting correct pronunciation of the second language or 9. The method according to claim 8, further comprising the step of outputting correct pronunciation of the second language or the first language by the first language audio information output means for outputting correct pronunciation of the first language. 13. The language learning support method according to any one of items 1 to 12. 正しい発音の出力を求める指示を受けた際に、第一の言語の正しい発音を出力する第一言語音声情報出力手段又は第二の言語の正しい発音を出力する第二言語音声情報出力手段によって、当該指示で要求された言語の正しい発音の出力を行うステップが更に備えられていることを特徴とする請求項8乃至13のいずれか一項記載の語学学習支援方法。When receiving an instruction to output a correct pronunciation, by a first language audio information output unit that outputs a correct pronunciation of the first language or a second language audio information output unit that outputs a correct pronunciation of the second language, 14. The language learning support method according to claim 8, further comprising a step of outputting a correct pronunciation in a language requested by the instruction.
JP2003048015A 2003-02-25 2003-02-25 Device and method of assisting language learning Pending JP2004258231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003048015A JP2004258231A (en) 2003-02-25 2003-02-25 Device and method of assisting language learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003048015A JP2004258231A (en) 2003-02-25 2003-02-25 Device and method of assisting language learning

Publications (1)

Publication Number Publication Date
JP2004258231A true JP2004258231A (en) 2004-09-16

Family

ID=33114101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003048015A Pending JP2004258231A (en) 2003-02-25 2003-02-25 Device and method of assisting language learning

Country Status (1)

Country Link
JP (1) JP2004258231A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467884B1 (en) * 2013-05-07 2014-12-02 정상기 Unlocking method for smart device with learning foreign word
JP2016071074A (en) * 2014-09-29 2016-05-09 ビッグローブ株式会社 Language learning device, control method of language learning device, and program
CN106652670A (en) * 2016-11-22 2017-05-10 天津海运职业学院 English translation learning apparatus
WO2023152942A1 (en) * 2022-02-14 2023-08-17 株式会社ムゴン Language learning system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467884B1 (en) * 2013-05-07 2014-12-02 정상기 Unlocking method for smart device with learning foreign word
JP2016071074A (en) * 2014-09-29 2016-05-09 ビッグローブ株式会社 Language learning device, control method of language learning device, and program
CN106652670A (en) * 2016-11-22 2017-05-10 天津海运职业学院 English translation learning apparatus
WO2023152942A1 (en) * 2022-02-14 2023-08-17 株式会社ムゴン Language learning system

Similar Documents

Publication Publication Date Title
US6324507B1 (en) Speech recognition enrollment for non-readers and displayless devices
KR20160111275A (en) Foreign language learning system and foreign language learning method
JP2001159865A (en) Method and device for leading interactive language learning
JP2004021102A (en) Conversation practice system and its method
JP2015036788A (en) Pronunciation learning device for foreign language
JP6466391B2 (en) Language learning device
KR20140078810A (en) Apparatus and method for learning rhythm pattern by using native speaker&#39;s pronunciation data and language data.
JP7135372B2 (en) LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM
JP2004258231A (en) Device and method of assisting language learning
KR20140087956A (en) Apparatus and method for learning phonics by using native speaker&#39;s pronunciation data and word and sentence and image data
KR20090054951A (en) Method for studying word and word studying apparatus thereof
KR20140075994A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thought unit
KR20140107067A (en) Apparatus and method for learning word by using native speakerpronunciation data and image data
CN109559575B (en) Learning support device, learning support system, and learning support method
KR20000049483A (en) Foreign language learning system using a method of voice signal. comparison
KR20140047838A (en) Hangul education system based on character-generative principles of cheonjyin
JP7118389B2 (en) Language learning device, language learning method, and language learning program
JP2006078802A (en) Device and method for supporting learning, and program
KR20140073768A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thoughtunit
JPH10228230A (en) Learning support device and problem answer showing method
JP2016224283A (en) Conversation training system for foreign language
JP2019079026A (en) Speech learning system and speech learning method
KR20140082127A (en) Apparatus and method for learning word by using native speaker&#39;s pronunciation data and origin of a word
JP2009075526A (en) Comprehensive english learning system using speech synthesis
JP2001337594A (en) Method for allowing learner to learn language, language learning system and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071204