JP7383325B1 - 英語学習システム、英語教授方法及びプログラム - Google Patents
英語学習システム、英語教授方法及びプログラム Download PDFInfo
- Publication number
- JP7383325B1 JP7383325B1 JP2023081425A JP2023081425A JP7383325B1 JP 7383325 B1 JP7383325 B1 JP 7383325B1 JP 2023081425 A JP2023081425 A JP 2023081425A JP 2023081425 A JP2023081425 A JP 2023081425A JP 7383325 B1 JP7383325 B1 JP 7383325B1
- Authority
- JP
- Japan
- Prior art keywords
- english
- pronunciation
- data
- japanese
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 101001077673 Homo sapiens Voltage-gated hydrogen channel 1 Proteins 0.000 claims description 19
- 102100025443 Voltage-gated hydrogen channel 1 Human genes 0.000 claims description 19
- 238000010586 diagram Methods 0.000 abstract description 11
- 238000013519 translation Methods 0.000 description 64
- 230000014616 translation Effects 0.000 description 64
- 230000008569 process Effects 0.000 description 38
- 230000006870 function Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 18
- 230000015572 biosynthetic process Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 230000004044 response Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 101000832443 Homo sapiens Synaptic vesicle 2-related protein Proteins 0.000 description 7
- 102100024514 Synaptic vesicle 2-related protein Human genes 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000013523 data management Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【解決手段】音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得し(S52)、上記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得し(S54,S55)、上記英語発音データ及び上記日本語発音データに基づき上記音声出力部に上記英文の発音音声と上記日本語文字列の発音音声とを同時に出力させるようにした(S56)。上記英文が複数の文節に区切られており、英文の文節ごとに、英語の発音時間と対応する日本語文字列の発音時間とが一致しているとよい。
【選択図】 図10
Description
そして、現在行われている教育で十分に英語スキルを高めることができていない原因の一つには、日本語と英語の文法構造や発音の違いをきちんと説明しないまま、単に文字面の意訳を見て暗記することを強調し、英語のロジックを定着させないため、英語という言葉の理解と思考訓練が充分できていないので、実用的な英語力不足に陥っていることが考えられる。
また、多くのネイティブ英語表現が英文法で説明できないので学校で体験できず、簡単な口語表現ほど日本語的意味の理解が難しい現状がある。
そして、本件発明者は、このVSOP英文法の考え方を発展させて利用することで、学習者に音声を聞かせて学習させる方式の英語教授を、効果的に行う手段を見出した。
さらに、上記英文の文節ごとに、上記英語発音データに基づく該文節の発音時間と、上記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致するとよい。
さらに、上記英文を、上記文節ごとに区切った状態で、上記文節ごとの抑揚と対応付けて、かつ、上記文節ごとに対応する上記部分日本語文字列と対応づけて表示部に表示させる表示制御部を設け、上記制御部が、上記表示部が上記英文及び上記部分日本語文字列を表示している状態で、上記音声出力部に上記英文の発音音声と上記日本語文字列の発音音声とを出力させるとよい。
また、上記の各英語学習システムにおいて、上記英文の上記複数の文節がそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であるとよい。
〔第1実施形態:図1A乃至図11〕
まず、この発明の第1実施形態の英語学習システムについて説明する。この英語学習システムは、この発明の英語教授方法を実行するために用いることができる。
図1Aに、第1実施形態の英語学習システムのハードウェア構成を示す。図1Bに、このうちユーザ端末100のハードウェア構成を示す。
サーバ装置200も同様なコンピュータとして構成することができるが、ユーザインタフェースは簡素でよい。
図2に示す各部の機能は、各装置のプロセッサが所要のプログラムを実行して所要のハードウェアを制御することにより実現することができる。このプログラムは、任意にインストール及びアンインストール可能であってよい。また、各部の機能の全部又は一部が専用のハードウェアによって実現されてもよい。また、各装置が備える機能の全部又は一部を、クラウド環境など、外部装置のリソースを用いて実現することも妨げられない。
サーバ装置200は、通信部211、例文DB(データベース)管理部221、抑揚データ管理部222を備え、これらの各部が参照するデータとしてデータベース230を備える。
表示制御部131は、予め用意されたフレームのデータに、渡された英文及び日本語文字列のデータを組み合わせて学習画面300のデータを生成し、表示部107にそのデータを渡して学習画面300を表示させる機能を備える。
英語学習システム1では、本件発明者が提唱するVSOP英文法(詳細は非特許文献1参照)に従い、学習用の英文を、主語(S)、判断語(V)、対象語(O)及び叙述語(P)の文節に区切っている。英文の構造が複雑である場合、文頭句(H)や形容詞的修飾語句(M)などこれら以外の文節を用いることもあるが、学習用としては、上記S、V、O、Pの4文節に区切ることができる英文を用いることが好ましい。
英文は、現行の、SV、SVC、SVO、SVOO、SVOCのいわゆる5文型を基本とする英文法では、基本要素として「Subject(主語)+Verb(動詞)」を考え、主語の後ろで「動詞(Verb)という特定の品詞名の言葉だけが使われている」という仮説で成り立っている。しかし、ネイティヴ・スピーカーが使っている実際の英文では、この部分は動詞だけでなく、動詞以外のいろいろな品詞の言葉が、動詞と同じ働きで使われていることが、VSOP英文法の研究により解明された。
主語(S)の後ろの部分に「判断語(Verdict)文節」という新しい概念を与えてみると、この「英語の判断語(V)文節」と呼びうる場所は「前部:判断詞(V1)+後部:判断内容語(V2)」という「前後二つの機能を持つ部分」に分かれていると考えられる。そして、前部の判断詞(V1)部分はdo(する),be(である),have(がある)の3つの言葉が基本になっており、これらは時制や文の操作に使う記号部分と考えられる。後部の判断内容語(V2)部分では、動詞を含んだいろいろな品詞(十一品詞)の言葉が共通の働きで使われて、判断の中核内容を表わしている。
叙述語(P)部分は、SVOのセットを主題(Theme)とした叙述(Rheme)になっているが、一語、複数語句、接続詞+節というようにいろいろな形があり、実質的に叙述語(P)文節と捉えることができる。
[V1]は、判断詞(V1)と同様な、時制や文の操作に使う記号部分となる語句が省略されていることを示し、P(V2+O)は、叙述語(P)が判断の中核内容を表す判断内容語(V2)とその判断の対象を示す対象語(O)で構成されることを示す。また、初めの対象語(O)が、実質的に、P(V2+O)中の判断内容語(V2)と対応する主語(S)となる。
これによって、英語のロジックの論理構造を一つにフレーム化でき、日本語ロジックの論理構造を基盤に持つ日本人の日本語レイヤの上に、英語のロジックレイヤを投影することができ、バイリンガル構造が獲得できる。
そして、SVOPの文節の単位で英語と日本語と対応付けて捉えることにより、英語と日本語を共通のロジックで理解することができるので、日本語ネイティブにとって英語の理解が容易になり、効率のよい英語学習を実現することができる。なお、英文の内容によっては、SVOPのうち1又は複数の文節が省略される場合もある。
また、ここでは平叙文についてのみ説明したが、疑問文ではV1がSの前に移動していると考えることができるし、否定文ではV1とV2の間に補助語(Aid)としてnotが入っていると考えることができる。
図4の枠外右側に示すように様々な品詞の単語が判断内容語(V2)に該当し得るが、いずれの品詞がV2となる場合でも、文節毎に、図3に示した意味の日本語訳を対応付け、これらを英語と同じ順番で連結することで、英文全体に対し一応意味の通る日本語訳を作ることができる。
英語学習システム1は、操作検出部125がユーザによる学習開始操作を検出すると、英文文節データ取得部121及び日本語文字列データ取得部122が、通信部111,211を介してサーバ装置200から学習用の英文及びその英文と対応する日本語文字列のデータを取得し、表示制御部131が、それらのデータに基づき表示部107に図5に示すような学習画面300を表示させる。学習用の英文は、図6Aの例文DBに登録された例文から適宜な条件で選択したものである。
図6Aに示すように、例文DBには、多数(ここではn個)の例文データが登録されており、各例文データは1つの例文の内容を示す。
各例文データは、文節構成データと、英文を構成する各文節(ここではS、V、O、P)の内容を示す文節データと、文全体に関する情報を示す全体データと、書誌情報等のその他データとを含む。
各文節データは、英単語列、英発音記号列、英発音データ、英発音時間、和訳文字列、日発音データ、日発音時間を含む。
英単語列は、英文のうち該当の文節に含まれる英単語の列である。
英発音記号列は、英単語列と対応する発音を示す発音記号である。
英発音時間は、英発音データに基づき標準的な条件で発音音声を合成した場合の、発音音声の再生時間である。
日発音時間は、日発音データに基づき標準的な条件で発音音声を合成した場合の、発音音声の再生時間である。
和意訳文字列は、英文全体を意訳した日本語の文字列である。和意訳文字列は文節の区切りがわかるようなものでなくてよく、自然な日本語であることが好ましい。
意訳発音データは、和意訳文字列の発音音声を音声合成ソフトに合成させるために用いるデータである。和意訳文字列を参照して合成が可能であれば、和意訳文字列自体を日発音データとして用いることができる。
その他データには、平叙文、疑問文、否定文等の文の種類を示すデータを含めることが考えられる。
文節表示部310は、学習用の英文を、文節ごとに区切った状態で文節ごとの抑揚と対応付けて、かつ、文節ごとに対応する日本語文字列と対応づけて表示する領域である。より具体的には、文節名欄311、抑揚欄312、英例文欄313、発音記号欄314、和訳欄315を備え、各文節と対応する情報を、その文節と対応する列に表示する。どの文節の欄を設けるかは、文節構成データに基づき定めることができる。
発音記号欄314は、英例文欄313と対応する発音記号を表示する欄であり、各文節データ中の英発音記号列に基づき表示できる。
和訳欄315は、英例文欄313と対応する日本語を表示する欄であり、各文節データ中の和訳文字列に基づき表示できる。
直訳再生ボタン352は、日本語直訳の音声出力指示を受け付けるためのボタンである。
意訳再生ボタン353は、日本語意訳の音声出力指示を受け付けるためのボタンである。
前例文ボタン355及び次例文ボタン356はそれぞれ、学習画面300に表示する例文を前又は次の別の文に変更する指示を受け付けるためのボタンである。
なお、特に断らない限り、以下の各フローチャートの処理において、ユーザ端末100とサーバ装置200とが通信する際には、ユーザ端末100又はそのオペレータは何らかの手段により英語学習システム1の正当な利用者として認証されている。
この場合、ユーザ端末100はまず、サーバ装置200にアクセスし、データベース230中の例文DBから表示する英文の例文データを取得する(S11)。どの例文データを取得するかは、適宜なアルゴリズムで定めればよい。第2実施形態で説明するように、レベルや利用シーンの設定に基づき抽出できるようにしてもよい。また、ユーザ端末100は、サーバ装置200から、当該例文に含まれる各文節の抑揚データも取得する(S12)。ここで取得した例文データと抑揚データは、図7の処理の終了後も、次に図7の処理を行うまで保持しておく。
VSOP英文法に従って文節が区分されていれば、文節単位で抑揚と英例文と和訳を並べて表示されたものを見るだけでも、学習者にとって英語と日本語の対応関係や英語のロジックがわかりやすく、英語の意味やロジックを効果的に脳に定着させ、学習することができる。
この表示を見ながら、以下に説明する処理により再生される英語と日本語の発音を聞き、さらに英語を発音することにより、学習者は一層効果的に英語の意味やロジックを効果的に脳に定着させ、学習することができる。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS22~S24の処理を行う(S21,S25,S26)。
これを各文節データに対して順次行うことにより、文節毎に予め定めた抑揚を付した、英例文全体の自然な発音音声を、音声出力部106から出力することができる。
ステップS23の抑揚を付す処理においては、単語ごとに、その文節内での位置に応じて、抑揚データが示す文節全体の抑揚のうちどの部分の抑揚を(図5において表示されたどの矢印と対応する抑揚を)付すかを決定する。
また、ステップS24での音声データの生成は、英発音データ及び抑揚データ等の必要なデータを、適宜な公知の音声合成ソフトに入力して音声合成させることで、実行できる。この音声合成ソフトに抑揚データを入力することを、ステップS23での抑揚の付加と捉えることができる。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS32,S33の処理を行う(S31,S34,S35)。
なお、日本語においても、対応する英語の文節区切りが文節の区切りがわかるように、文節間に若干の間隔を開けてもよい。このことで、学習者に対し、日本語の聴取を通じても英語のロジックを印象付けることができる。
この場合、ユーザ端末100は、表示中の例文の例文データから、全体データ中の意訳発音データを取得し(S41)、そのデータに基づいて図9AのステップS33と同様に日本語の発音音声の音声データ(波形データ)を生成し、その生成された音声データを再生して音声出力部106へ出力する(S42)。
この処理により、英例文と対応する自然な表現の日本語翻訳の発音音声を、音声出力部106から出力することができる。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS52~S56の処理を行う(S51,S57,S58)。
ここでは、日本語の再生速度を調整する例について説明したが、英語の再生速度、あるいは日本語と英語の双方の再生速度を調整して、英語と日本語の再生時間を一致させてもよい。
これを聴いた、学習者は、英語と日本語の対応関係や英語のロジックをわかりやすく把握することができ、英語の意味やロジックを効果的に脳に定着させ、学習することができる。
文節間に若干の間隔を開けてもよいことは図8等の場合と同様であるが、この場合には英語と日本語で間隔を合わせ、出力タイミングがずれないようにする。
このことで、視覚と聴覚から同時に英語と日本語の対応関係の感覚的な刺激を受けることができ、この点でも、脳への定着効果と学習効果を高めることができる。
しかし、VSOP英文法に従って英文の文節を区切ることは必須ではない。他の考え方に基づき英文を文節に区切った場合でも、文節毎にある程度英語と日本語の対応関係を学習者に認識させることができ、英語と日本語の文節を同じ順番に並べてもある程度意味の通る日本語訳を作ることができるのであれば、VSOP英文法を用いた場合に類する効果を得られること考えられる。
これらの音声出力も、学習者が注目する箇所のみを聞きたい場合に有用である。
次に、この発明の第2実施形態の英語学習システムについて説明する。
第2実施形態の英語学習システムは、英語の文節の構造をより細かく規定し学習画面300に表示するようにした点と、学習画面300に表示する例文の選択方法をより詳細に規定した点が第1実施形態と異なるのみであり、その他の点は第1実施形態と共通である。従って、これらの点に関連する内容について説明し、第1実施形態と共通する又は対応する箇所には、第1実施形態と同じ符号を用いる。
第2実施形態においては、図12に示すように、第1実施形態で用いたSVOP各文節内に、さらに細かく機能に応じた区切りを設けている。この区切りを、ここでは「小文節」と呼ぶ。また、抑揚を、小文節ごとに規定している。このことで、各英単語にどの抑揚を付すかの対応関係を明確にすることができる。そして、学習画面300に小文節欄316を設け、小文節の名前と抑揚を表示している。英例文欄313及び発音記号欄314の表示も、小文節ごとに行っている。
以上の変更に伴い、例文DBにおける例文データの構成も第1実施形態と異なる。
図13の各例文データは、書誌データ、英文を構成する各文節(ここではS、V、O、P)の内容を示す文節データと、文全体に関する情報を示す全体データと、その他データとを含む。
書誌データは、例文の選択に用いるレベル、V2種類(V2小文節の品詞)や使用場面のデータと、図6Aの文節構成データを含む。全体データとその他データは図6Aの例と同様である。
文節データは、小文節構成データ、文節訳文字列、日発音データ、日発音時間を含む。これらのうち文節訳文字列は、図6Aの和訳文字列と同じものであり、日発音データ及び日発音時間も、図6Aの例と同様である。
小文節データは、表記データ、抑揚データ、英単語列、英発音記号列、英発音データ、英発音時間、直訳文字列を含む。
これらのうち表記データは、小文節を学習画面300の小文節欄316でどう表記するかを示すデータである。小文節には、O文節中の右側3つのV2-Mod-Oのように、文節と小文節の間の中間的な括りを持つものもあるが、その中間的な括りの情報も表記データに含まれる。
直訳文字列は、直訳欄317に表示する、該当の小文節の英語と対応する日本語文字列のデータである。
すなわち、ユーザ端末100は、表示中の例文のN番目の文節の各小文節データから英発音データを取得し(S71)、取得した各英発音データに、同じ小文節データ中の抑揚データに基づき抑揚を付加する(S72)。そして、抑揚付加後の各英発音データを連結してN番目の文節の英発音データを生成する(S73)。英発音時間も、各小文節データ中の英発音時間を加算してN番目の文節の英発音を算出する(S74)。全体で見れば、この処理により、1つの文節の英発音データに、小文節単位の抑揚を繋げた文節単位の抑揚を付すことができる。
図8のステップS22及びS23の処理も同様に変更される。
さらに、抑揚を容易に細かく設定することができるので、より自然な抑揚で英語音声を出力することができる。また、英文の構造をより細かい単位で表示することができるので、学習者に対し、英語のロジックをより詳細に提示し、深く理解させることができる。
なお、第2実施形態において、日本語も、英語と同様に小文節毎に日発音データ及び日発音時間を用意し、小文節毎に英語と日本語で発音時間と発音タイミングを合わせて出力することも妨げられない。
この波形データに、予め文節と対応する抑揚が付されていれば、図8のステップS23、図10のステップS53等の処理でさらに抑揚を付すことは必須ではない。すなわち、音声出力の際に抑揚データを用いる必要はない。
また、発音時間に関しては、上述の実施形態のように音声出力の都度音声データを合成する場合でも、音声データの合成後にサンプル数等からカウントするようにしてもよい。このようにすれば、発音時間のデータを予め用意しておく必要はない。
英語と対応付ける言語を、複数の候補からユーザが選択できるようにしてもよい。この場合、各文節データ等として、英語以外に当該複数の候補の言語のデータを用意しておけばよい。
上記の音声データ又は発音データは、音声出力部に学習用の英文の発音音声を出力させるための英語発音データと、この英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を上記音声出力部に出力させるための日本語発音データとにより構成することができる。また、上記英文の文節ごとに、上記英語発音データに基づく該文節の発音時間と、上記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致するとよい。
また、英語発音データ及び日本語発音データは、音声出力部に音声出力をさせるためのデータであれば、波形データであっても、音声合成ソフトに音声合成を行わせるためのデータであっても、それ以外の形式のデータであってもよい。
また、以上説明してきた各実施形態及び変形例の構成は、相互に矛盾しない限り任意に組み合わせて実施可能であることは勿論である。
Claims (15)
- 音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得する第1取得部と、
前記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得する第2取得部と、
前記英語発音データ及び前記日本語発音データに基づき前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを同時に出力させる制御部とを備え、
前記英文は、複数の文節に区切られており、
前記日本語文字列は、前記英文の各前記文節と対応する部分日本語文字列が連結されたものであることを特徴とする英語学習システム。 - 請求項1に記載の英語学習システムであって、
前記英文の文節ごとに、前記英語発音データに基づく該文節の発音時間と、前記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致することを特徴とする英語学習システム。 - 請求項1に記載の英語学習システムであって、
前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語学習システム。 - 請求項3に記載の英語学習システムであって、
前記英文を、前記文節ごとに区切った状態で、前記文節ごとの抑揚と対応付けて、かつ、前記文節ごとに対応する前記部分日本語文字列と対応づけて表示部に表示させる表示制御部を備え、
前記制御部は、前記表示部が前記英文及び前記部分日本語文字列を表示している状態で、前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを出力させることを特徴とする英語学習システム。 - 請求項2に記載の英語学習システムであって、
前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語学習システム。 - 請求項1に記載の英語学習システムであって、
前記音声出力部はステレオのヘッドホン又はイヤホンであり、
前記制御部は、前記英文の発音音声と前記日本語文字列の発音音声との一方を前記ステレオのL側のみに、他方をR側のみに出力させることを特徴とする英語学習システム。 - 請求項1乃至6のいずれか一項に記載の英語学習システムであって、
前記英文の前記複数の文節はそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であることを特徴とする英語学習システム。 - 音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得する第1手順と、
前記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得する第2取得手順と、
前記英語発音データ及び前記日本語発音データに基づき前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを同時に出力させる制御手順とを備え、
前記英文は、複数の文節に区切られており、
前記日本語文字列は、前記英文の各前記文節と対応する部分日本語文字列が連結されたものであることを特徴とする英語教授方法。 - 請求項8に記載の英語教授方法であって、
前記英文の文節ごとに、前記英語発音データに基づく該文節の発音時間と、前記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致することを特徴とする英語教授方法。 - 請求項8に記載の英語教授方法であって、
前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語教授方法。 - 請求項10に記載の英語教授方法であって、
前記英文を、前記文節ごとに区切った状態で、前記文節ごとの抑揚と対応付けて、かつ、前記文節ごとに対応する前記部分日本語文字列と対応づけて表示部に表示させる表示制御手順を備え、
前記制御手順は、前記表示部が前記英文及び前記部分日本語文字列を表示している状態で、前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを出力させる手順であることを特徴とする英語教授方法。 - 請求項9に記載の英語教授方法であって、
前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語教授方法。 - 請求項8に記載の英語教授方法であって、
前記音声出力部はステレオのヘッドホン又はイヤホンであり、
前記制御手順は、前記英文の発音音声と前記日本語文字列の発音音声との一方を前記ステレオのL側のみに、他方をR側のみに出力させる手順であることを特徴とする英語教授方法。 - 請求項8乃至13のいずれか一項に記載の英語教授方法であって、
前記英文の前記複数の文節はそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であることを特徴とする英語教授方法。 - コンピュータに、請求項8乃至13のいずれか一項に記載の英語教授方法の各手順を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023081425A JP7383325B1 (ja) | 2023-05-17 | 2023-05-17 | 英語学習システム、英語教授方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023081425A JP7383325B1 (ja) | 2023-05-17 | 2023-05-17 | 英語学習システム、英語教授方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7383325B1 true JP7383325B1 (ja) | 2023-11-20 |
Family
ID=88833483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023081425A Active JP7383325B1 (ja) | 2023-05-17 | 2023-05-17 | 英語学習システム、英語教授方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7383325B1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004184619A (ja) | 2002-12-02 | 2004-07-02 | Yamaha Corp | 語学習得・演奏練習システム |
JP2005326811A (ja) | 2004-04-14 | 2005-11-24 | Matsushita Electric Ind Co Ltd | 音声合成装置および音声合成方法 |
-
2023
- 2023-05-17 JP JP2023081425A patent/JP7383325B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004184619A (ja) | 2002-12-02 | 2004-07-02 | Yamaha Corp | 語学習得・演奏練習システム |
JP2005326811A (ja) | 2004-04-14 | 2005-11-24 | Matsushita Electric Ind Co Ltd | 音声合成装置および音声合成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Erdener et al. | The role of audiovisual speech and orthographic information in nonnative speech production | |
KR100900085B1 (ko) | 외국어 학습 제어방법 | |
US20130196292A1 (en) | Method and system for multimedia-based language-learning, and computer program therefor | |
KR20160111292A (ko) | 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법 | |
Al-Jasser | The effect of teaching English phonotactics on the lexical segmentation of English as a foreign language | |
JP5580019B2 (ja) | 語学学習支援システム及び語学学習支援方法 | |
Georgiou | Bit and beat are heard as the same: Mapping the vowel perceptual patterns of Greek-English bilingual children | |
KR100900081B1 (ko) | 외국어 학습 제어방법 | |
Georgiou et al. | Perceptual realization of Greek consonants by Russian monolingual speakers | |
Bundgaard-Nielsen et al. | Discrimination of multiple coronal stop contrasts in Wubuy (Australia): A natural referent consonant account | |
KR20190041105A (ko) | 학습자의 문장입력 및 음성입력을 이용한 학습 시스템 및 그 방법 | |
US20060183088A1 (en) | Audio-visual language teaching material and audio-visual languages teaching method | |
Fitria | Utilizing Text-to-Speech Technology: Natural Reader in Teaching Pronunciation | |
Husby et al. | Dealing with L1 background and L2 dialects in Norwegian CAPT | |
JP7383325B1 (ja) | 英語学習システム、英語教授方法及びプログラム | |
KR20030079497A (ko) | 대화형 언어학습 시스템 및 서비스방법 | |
KR102235789B1 (ko) | 강의 콘텐츠를 이용한 외국어 교습 방법 및 이를 위한 장치 | |
Florente | How movie dubbing can help native Chinese speakers’ English pronunciation | |
Alfaifi | Syllabification of coda consonant clusters in Najdi and Hijazi Arabic | |
KR20170097419A (ko) | 한국어 학습 시스템 및 이를 이용한 한국어 학습 방법 | |
JP2008032788A (ja) | 語学教材データ作成用プログラム | |
Aksenova | Corrective aspects of ICT in the development of musical hearing in children with hearing disabilities | |
Grayson | Russian Lyric Diction: A practical guide with introduction and annotations and a bibliography with annotations on selected sources | |
JP6957069B1 (ja) | 学習支援システム | |
JP2009075526A (ja) | 音声合成利用の総合的英語学習システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230518 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |