JP7383325B1 - 英語学習システム、英語教授方法及びプログラム - Google Patents

英語学習システム、英語教授方法及びプログラム Download PDF

Info

Publication number
JP7383325B1
JP7383325B1 JP2023081425A JP2023081425A JP7383325B1 JP 7383325 B1 JP7383325 B1 JP 7383325B1 JP 2023081425 A JP2023081425 A JP 2023081425A JP 2023081425 A JP2023081425 A JP 2023081425A JP 7383325 B1 JP7383325 B1 JP 7383325B1
Authority
JP
Japan
Prior art keywords
english
pronunciation
data
japanese
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023081425A
Other languages
English (en)
Inventor
尚樹 西巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2023081425A priority Critical patent/JP7383325B1/ja
Application granted granted Critical
Publication of JP7383325B1 publication Critical patent/JP7383325B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

Figure 0007383325000001
【課題】学習者に音声を聞かせて学習させる方式の英語教授を、効果的に行えるようにする。
【解決手段】音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得し(S52)、上記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得し(S54,S55)、上記英語発音データ及び上記日本語発音データに基づき上記音声出力部に上記英文の発音音声と上記日本語文字列の発音音声とを同時に出力させるようにした(S56)。上記英文が複数の文節に区切られており、英文の文節ごとに、英語の発音時間と対応する日本語文字列の発音時間とが一致しているとよい。
【選択図】 図10

Description

この発明は、学習者に音声を聞かせて学習させるための英語学習システム、英語教授方法及びプログラムに関する。
従来から、例えば特許文献1に記載のように、英語の音声を必要に応じて日本語の音声と合わせて聞かせることにより、学習者に英語を学習させる英語学習装置が知られている。
特開2014-85403号公報
西巻尚樹著,「Get The Real 英語参考書 改訂版」,星雲社,2015年
日本では、公教育も含め英語教育が盛んに行われているが、これらの教育を受けても十分に英語を使いこなせない人は多い。特に、聞く、話すスキルにおいてこの点が顕著である。
そして、現在行われている教育で十分に英語スキルを高めることができていない原因の一つには、日本語と英語の文法構造や発音の違いをきちんと説明しないまま、単に文字面の意訳を見て暗記することを強調し、英語のロジックを定着させないため、英語という言葉の理解と思考訓練が充分できていないので、実用的な英語力不足に陥っていることが考えられる。
また、多くのネイティブ英語表現が英文法で説明できないので学校で体験できず、簡単な口語表現ほど日本語的意味の理解が難しい現状がある。
このような現状から、本件発明者は、日本の英語問題の核心は「現行の英文法自体が口語英語には不適合で、文構造とその音韻との関係が明瞭化されておらず、仮に学校で教えていることを全部覚えていたとしても英語が機能しない」ことであると考え、日本人が英語理解・使用力を改善しうる新しい英文法として、非特許文献1に記載のようなVSOP英文法を提案した。
日本語と英語とは、語順が違うことを筆頭に、文法構造、発想法、発音発声法、全てにおいて大きく異なっているので、今までは英語を語順どおりに日本人が理解又は翻訳することには困難であったが、このVSOP英文法を用いることにより「英文と日本語との近似対応部分が抽出できたので文頭から直読直解すること」が可能になる。
そして、本件発明者は、このVSOP英文法の考え方を発展させて利用することで、学習者に音声を聞かせて学習させる方式の英語教授を、効果的に行う手段を見出した。
この発明は、このような背景に基づきなされたものであり、学習者に音声を聞かせて学習させる方式の英語教授を、効果的に行えるようにすることを目的とする。
この発明の英語学習システムは、上記の目的を達成するため、音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得する第1取得部と、上記英語発音データによる発音音声と同じ時間で上記英文と対応する日本語文字列の発音音声を上記音声出力部に出力させるための日本語発音データを取得する第2取得部と、上記英語発音データ及び上記日本語発音データに基づき上記音声出力部に上記英文の発音音声と上記日本語文字列の発音音声とを同時に出力させる制御部とを備えるものである。
このような英語学習システムにおいて、上記英文が、複数の文節に区切られており、上記日本語文字列が、上記英文の各上記文節と対応する部分日本語文字列が連結されたものであるとよい。
さらに、上記英文の文節ごとに、上記英語発音データに基づく該文節の発音時間と、上記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致するとよい。
また、上記の各英語学習システムにおいて、上記英語発音データに基づく上記英文の発音には、上記文節毎に予め定められた抑揚が付されているとよい。
さらに、上記英文を、上記文節ごとに区切った状態で、上記文節ごとの抑揚と対応付けて、かつ、上記文節ごとに対応する上記部分日本語文字列と対応づけて表示部に表示させる表示制御部を設け、上記制御部が、上記表示部が上記英文及び上記部分日本語文字列を表示している状態で、上記音声出力部に上記英文の発音音声と上記日本語文字列の発音音声とを出力させるとよい。
また、上記の各英語学習システムにおいて、上記音声出力部はステレオのヘッドホン又はイヤホンであり、上記制御部は、上記英文の発音音声と上記日本語文字列の発音音声との一方を上記ステレオのL側のみに、他方をR側のみに出力させるとよい。
また、上記の各英語学習システムにおいて、上記英文の上記複数の文節がそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であるとよい。
以上のような本発明は、システムの発明として実施する他、装置、方法、プログラム、プログラムを記録した記録媒体など、任意の態様で実施可能である。
以上のような発明によれば、学習者に音声を聞かせて学習させる方式の英語教授を、効果的に行うことができる。
図1Aは、この発明の第1実施形態である英語学習システムのハードウェア構成を示すブロック図である。図1Bは、ユーザ端末100のハードウェア構成を示すブロック図である。 図2は、図1に示したユーザ端末100及びサーバ装置200が備える機能の構成を示す機能ブロック図である。 図3は、第1実施形態において用いる、英文を文節毎に区切る手法の一例として、VSOP英文法に従った文節区切りについて説明するための図である。 図4は、VSOP英文法に従って文節に区切った英文及び、その英文の各文節と対応する日本語文字列の例を示す図である。 図5は、ユーザに英語を学習させる際にユーザ端末100が表示する学習画面300の例を示す図である。 図6A及び図6Bはそれぞれ、第1実施形態である英語学習システムにおいて使用するデータの例を示す図である。 図7は、ユーザ端末100が例文表示指示に応じて実行する処理のフローチャートである。 図8は、ユーザ端末100が英語全文再生指示に応じて実行する処理のフローチャートである。 図9Aは、ユーザ端末100が直訳文再生指示に応じて実行する処理のフローチャートである。図9Bは、ユーザ端末100が意訳文再生指示に応じて実行する処理のフローチャートである。 図10は、ユーザ端末100が日英同時全文再生指示に応じて実行する処理のフローチャートである。 図11は、図10の処理で行われる再生時間の調整について説明するための図である。 図12は、この発明の第2実施形態である英語学習システムにおける学習画面の例を示す、図5と対応する図である。 図13は、第2実施形態の英語学習システムにおいて使用するデータの例を示す、図6と対応する図である。 図14は、第2実施形態の英語学習システムにおいてユーザ端末100が、図10の処理の一部を置き換えて実行する処理のフローチャートである。
この発明の実施形態について、図面を参照しながら説明する。
〔第1実施形態:図1A乃至図11〕
まず、この発明の第1実施形態の英語学習システムについて説明する。この英語学習システムは、この発明の英語教授方法を実行するために用いることができる。
図1Aに、第1実施形態の英語学習システムのハードウェア構成を示す。図1Bに、このうちユーザ端末100のハードウェア構成を示す。
図1Aに示す英語学習システム1は、ユーザ端末100とサーバ装置200とをネットワーク400により接続して構成したものである。ネットワーク400は、コンピュータ間の通信を可能とする任意の通信路であり、例えばインターネットやローカルエリアネットワークを用いることができる。ユーザ端末100の数も任意であり、ユーザ端末100のサーバ装置200との間の接続は動的なもので構わない。すなわち、ユーザ端末100は、ユーザの操作に応じて又は自動的に、任意のタイミングでサーバ装置200に接続することができる。
図1Bに示すように、ユーザ端末100は、プロセッサ101、メモリ102、ストレージ103、ネットワーク400を介した通信のための通信I/F104、オペレータから操作を受け付けるための操作部105、オペレータに対して音声を出力するための音声出力部106、オペレータに対して画面を呈示するための表示部107をシステムバス等の通信路108によって接続したコンピュータにより構成することができる。
一例として、操作部105はタッチパネルやマウス、音声出力部106はステレオのスピーカやヘッドホン、イヤホン、表示部107は液晶ディスプレイや有機ELディスプレイにより構成することができるが、これらに限られない。これらの各部は、内蔵であっても外付けの機器として設けてもよい。
サーバ装置200も同様なコンピュータとして構成することができるが、ユーザインタフェースは簡素でよい。
以上のような英語学習システム1は、例えば、学習環境を提供する事業者がサーバ装置200を設置し、学習者が、自身が所有するユーザ端末100からこのサーバ装置200にアクセスして構成することができる。学習環境を提供する事業者がユーザ端末100も用意し、学習者に使わせるようにしてもよい。
次に図2に、図1に示したユーザ端末100及びサーバ装置200が備える、ユーザ端末100のオペレータに英語を学習させるための機能の構成を示す。
図2に示す各部の機能は、各装置のプロセッサが所要のプログラムを実行して所要のハードウェアを制御することにより実現することができる。このプログラムは、任意にインストール及びアンインストール可能であってよい。また、各部の機能の全部又は一部が専用のハードウェアによって実現されてもよい。また、各装置が備える機能の全部又は一部を、クラウド環境など、外部装置のリソースを用いて実現することも妨げられない。
また、サーバ装置200側にウェブサーバ機能を設け、ユーザ端末100側の機能の全部又は一部を、ユーザ端末100からウェブブラウザ等を用いてサーバ装置200にアクセスしたことに応じて表示されるウェブページを通じて実質的に提供することも考えられる。
図2に示すように、ユーザ端末100は、通信部111、英文文節データ取得部121、日本語文字列データ取得部122、英語発音データ取得部123、日本語発音データ取得124、操作検出部125の機能を備える。操作部105、音声出力部106、表示部107は、図1Bに示したハードウェアと対応する機能を示す。
サーバ装置200は、通信部211、例文DB(データベース)管理部221、抑揚データ管理部222を備え、これらの各部が参照するデータとしてデータベース230を備える。
これらのうちユーザ端末100の通信部111は、サーバ装置200の通信部211に対し、他の各部の動作に必要なデータや処理を要求し、通信部211からその要求に応じたデータや処理結果を取得して他の各部の供給する機能を備える。通信部111の機能は、ウェブクライアントの機能として構成することができる。
英文文節データ取得部121は、図5に示す学習画面300の表示等に用いる、文節毎に区切られた学習用の英文のデータを取得する機能を備える。日本語文字列データ取得部122は、その英文の各文節と対応する日本語文字列のデータを取得する機能を備える。また、英文文節データ取得部121及び日本語文字列データ取得部122は、それぞれ取得したデータを表示制御部131に渡し、学習画面300を表示させる機能も備える。
表示制御部131は、予め用意されたフレームのデータに、渡された英文及び日本語文字列のデータを組み合わせて学習画面300のデータを生成し、表示部107にそのデータを渡して学習画面300を表示させる機能を備える。
英語発音データ取得部123は、音声出力に用いる、学習用の英文の文節ごとの発音データと、その再生時の長さを示す発音時間データを取得する機能を備える。日本語発音データ取得部124は、その英文の各文節と対応する日本語文字列の音声出力に用いる発音データと、その再生時の長さを示す発音時間データを取得する機能を備える。また、英語発音データ取得部123及び日本語発音データ取得部124は、それぞれ取得したデータを音声信号生成部132に渡し、そのデータに基づく音声出力を行わせる機能も備える。なお、発音データは、音声そのものを示す波形データであっても、音声合成ソフトや読み上げソフトに読み込ませて音声の波形データを生成させるための、文字列、発音、抑揚等を示すデータであってもよい。
音声信号生成部132は、渡された各発音データ及び発音時間データに基づき、文節毎に英語と日本語の再生時間を一致させる調整を行った英語と日本語の音声信号を生成して音声出力部106に渡し、英語と日本語の発音音声を同時に出力させる機能を備える。このとき、ステレオのLR2系統のうち、英語を一方の系統(例えばL側)のみに、日本語を他方の系統(例えばR側)のみに出力できるようにするとよい。しかし、これは必須ではなく、単に英語音声と日本語音声を混合して出力してもよい。系統を分けるか、単に混合するかをユーザが選択できるようにしてもよい。
操作検出部125は、操作部105を介して学習画面300等に対してなされたユーザの操作を検出し、その操作に応じた動作を通信部111を介して他の各部に要求する機能を備える。
一方、サーバ装置200側の通信部211は、通信部111からの要求に応じて、例文DB管理部221及び抑揚データ管理部222を介してデータベース230から必要なデータを取得して通信部111に返す機能を備える。通信部211の機能は、ウェブサーバの機能として構成することができる。
例文DB管理部221及び抑揚データ管理部222はそれぞれ、データベース230に格納された、図6Aに示す例文DB及び図6Bに示す抑揚データにアクセスする機能を備える。データベース230は、これらのデータを含め、英語学習システム1の動作に必要なデータを保持する。データベース230は、サーバ装置200の外部のデータベースサーバに設けてもよい。
次に、英語学習システム1で用いている、学習用の英文を文節に区切る手法について説明する。
英語学習システム1では、本件発明者が提唱するVSOP英文法(詳細は非特許文献1参照)に従い、学習用の英文を、主語(S)、判断語(V)、対象語(O)及び叙述語(P)の文節に区切っている。英文の構造が複雑である場合、文頭句(H)や形容詞的修飾語句(M)などこれら以外の文節を用いることもあるが、学習用としては、上記S、V、O、Pの4文節に区切ることができる英文を用いることが好ましい。
図3に、VSOP英文法のS、V、O、Pの各文節を構成する語と、対応する日本語の意味を示す。
英文は、現行の、SV、SVC、SVO、SVOO、SVOCのいわゆる5文型を基本とする英文法では、基本要素として「Subject(主語)+Verb(動詞)」を考え、主語の後ろで「動詞(Verb)という特定の品詞名の言葉だけが使われている」という仮説で成り立っている。しかし、ネイティヴ・スピーカーが使っている実際の英文では、この部分は動詞だけでなく、動詞以外のいろいろな品詞の言葉が、動詞と同じ働きで使われていることが、VSOP英文法の研究により解明された。
すなわち、現行の英文法の主語(S)の後ろの部分を「品詞名:動詞(Verb)」で呼ぶことで、説明できない言葉の組み合わせが出てくるので、この部分の言葉の働きを品詞名で呼ばずに「言葉の働きを表す文節名」で呼べばよい。
主語(S)の後ろの部分に「判断語(Verdict)文節」という新しい概念を与えてみると、この「英語の判断語(V)文節」と呼びうる場所は「前部:判断詞(V1)+後部:判断内容語(V2)」という「前後二つの機能を持つ部分」に分かれていると考えられる。そして、前部の判断詞(V1)部分はdo(する),be(である),have(がある)の3つの言葉が基本になっており、これらは時制や文の操作に使う記号部分と考えられる。後部の判断内容語(V2)部分では、動詞を含んだいろいろな品詞(十一品詞)の言葉が共通の働きで使われて、判断の中核内容を表わしている。
また、判断内容語(V2)の直前には、判断内容語(V2)に対して修飾的補助的に使われる言葉である補助語(Aid)が置かれることもある。補助語(Aid)には、動詞由来の補助語(Verbal Aid)と副詞由来の補助語(Adverbial Aid)と、その他いろいろな言葉がある。
すなわち、VSOP英文法に従うと、英文では、現行の英文法と同様な、動作の主体を表す語による主語(S)文節の後ろに、時制や文の操作に使う記号部分となる判断詞(V1)と、判断の中核内容を表す判断内容語(V2)による判断語(V)文節が存在すると考えられる。補助語(Aid)を含めて考えると、判断語(V)文節の構成は、判断詞(V1)+補助語(Aid)+判断内容語(V2)となる。
また、判断語(V)文節の直後、すなわち判断内容語(V2)の直後には、判断内容語(V2)が表す判断の対象を示す対象語(O)が「具体名詞句」で言われていることになる。対象語(O)は前置詞が付いていても、付いていなくても対象語(O)になっており、前置詞が無い対象語(O)は、現行の英文法において目的語(O)と呼ばれるものに相当する。これは、対象語(O)がその後ろの言葉=叙述語(P)の主語になって使われているからで、現行の英文法における目的語(O)は、VSOP英文法における対象語(O)の部分集合となっている。VSOP英文法における対象語(O)は、もちろん複数の語で構成されることもあり、実質的には対象語(O)文節であると捉えることができる。
以上のような判断内容語(V2)とその後ろの対象語(O)文節の組み合わせである「V2-O」は、英文の情報の中核(基本ユニット)になっている。このV2-Oの前に、操作部分としてS-V1が組み合わされ、S-V1-V2-Oとなることで、文の基本3要素(3文節)であるSVOが形作られるという一般構造式を導き出すことができる。
これら3文節のSVOセットは、「英文の主題」となる。そして、この後ろに「叙述語(P)」が加わることで、SVO-Pという形で、有意味な一つの英文の一般式SVOPになるという英語の共通したパターンが導き出せる。
叙述語(P)部分は、SVOのセットを主題(Theme)とした叙述(Rheme)になっているが、一語、複数語句、接続詞+節というようにいろいろな形があり、実質的に叙述語(P)文節と捉えることができる。
なお、叙述語(P)が複数語句で構成される場合、対象語(O)-叙述語(P)の部分の構造はO-[V1]-P(V2+O)と記述できる。
[V1]は、判断詞(V1)と同様な、時制や文の操作に使う記号部分となる語句が省略されていることを示し、P(V2+O)は、叙述語(P)が判断の中核内容を表す判断内容語(V2)とその判断の対象を示す対象語(O)で構成されることを示す。また、初めの対象語(O)が、実質的に、P(V2+O)中の判断内容語(V2)と対応する主語(S)となる。
この、判断詞(V1)が抜けた主語・述語関係を「ネクサス(Nexus)」と言い、英語表現の重要部分となる。
これによって、英語のロジックの論理構造を一つにフレーム化でき、日本語ロジックの論理構造を基盤に持つ日本人の日本語レイヤの上に、英語のロジックレイヤを投影することができ、バイリンガル構造が獲得できる。
従来、日本人は動詞中心の英文法のせいで「英文の中心情報は動詞である」と捉えてきたが、このような英文法だと英文全体の四分の三:75%以上があてはまらず、「熟語暗記」の対象となってしまう。実は、英文の中核重要情報は判断の対象語(O)の具体名詞で、ここに使う言葉がその文の使用範囲を決め、ここの語句を制御することで、その文の用途分類が区別できる。さらに、その後ろの叙述語(P)が、文の意味を決定している。対象語(O)の直前の言葉を品詞ではなく、話し手の判断を表す判断内容語(V2)という働きで捉えることによって、殆どの英文パターンがSVOPという文節分類でパターン化でき、日本語との対応ができ直読直解になるのである。
すなわち、SVOPの文節に区分した英文は、各文節に対し、図3に示すような概ね「Sが」、「V2する/なる/である のは」、「Oに対して」、「(それは)Pです」の意味を持つ日本語訳を対応付け、これらを英語と同じ順番で連結することで、英文全体に対し一応意味の通る日本語訳を作ることができる。
そして、SVOPの文節の単位で英語と日本語と対応付けて捉えることにより、英語と日本語を共通のロジックで理解することができるので、日本語ネイティブにとって英語の理解が容易になり、効率のよい英語学習を実現することができる。なお、英文の内容によっては、SVOPのうち1又は複数の文節が省略される場合もある。
また、本件発明者は、英文をSVOPの文節に区切った場合、ネイティブが発音する英文が、その文節毎に特定の抑揚パターンを持つことを見出した。従って、各文節と対応する発音音声を、その文節と対応する抑揚パターンを持つ状態で用意すれば、各文節と対応する発音音声を単に連結することで、英文全体を自然に発音した発音音声を得ることができる。
また、ここでは平叙文についてのみ説明したが、疑問文ではV1がSの前に移動していると考えることができるし、否定文ではV1とV2の間に補助語(Aid)としてnotが入っていると考えることができる。
次に、図4に、VSOP英文法に従って文節に区切った英文及び、その英文の各文節と対応する意味の日本語文字列の例を示す。
図4の枠外右側に示すように様々な品詞の単語が判断内容語(V2)に該当し得るが、いずれの品詞がV2となる場合でも、文節毎に、図3に示した意味の日本語訳を対応付け、これらを英語と同じ順番で連結することで、英文全体に対し一応意味の通る日本語訳を作ることができる。
次に、図5に、英語学習システム1がユーザに英語を学習させる際にユーザ端末100が表示する学習画面300の例を示す。図6A及び図6Bに、この学習画面300の表示及び学習画面300に対する指示に応じた発音音声の出力に用いるデータの例を示す。
英語学習システム1は、操作検出部125がユーザによる学習開始操作を検出すると、英文文節データ取得部121及び日本語文字列データ取得部122が、通信部111,211を介してサーバ装置200から学習用の英文及びその英文と対応する日本語文字列のデータを取得し、表示制御部131が、それらのデータに基づき表示部107に図5に示すような学習画面300を表示させる。学習用の英文は、図6Aの例文DBに登録された例文から適宜な条件で選択したものである。
先に、例文DBに登録される例文のデータの構成について説明する。
図6Aに示すように、例文DBには、多数(ここではn個)の例文データが登録されており、各例文データは1つの例文の内容を示す。
各例文データは、文節構成データと、英文を構成する各文節(ここではS、V、O、P)の内容を示す文節データと、文全体に関する情報を示す全体データと、書誌情報等のその他データとを含む。
文節構成データは、英文を構成する文節の並びを規定するデータである。平叙文の場合にはS-V-O-Pの並びであるが、疑問文ではV1-S-V2-O-Pといった並びとなる。
各文節データは、英単語列、英発音記号列、英発音データ、英発音時間、和訳文字列、日発音データ、日発音時間を含む。
英単語列は、英文のうち該当の文節に含まれる英単語の列である。
英発音記号列は、英単語列と対応する発音を示す発音記号である。
英発音データは、ここでは、該当の文節の英語発音音声を音声合成ソフトに合成させるために用いるデータである。英単語列、英発音記号列、抑揚データ等を参照して合成が可能であれば、これらを英発音データとして用いることができる。
英発音時間は、英発音データに基づき標準的な条件で発音音声を合成した場合の、発音音声の再生時間である。
和訳文字列は、該当の文節の英語と対応する日本語の文字列であり、部分日本語文字列に該当する。和訳文字列は文として意味を成している必要はなく、該当の文節の意味を表していればよい。各文節の英文中の位置付け及び意味は図3を用いて説明したものであるが、表現は図3に示した通りでなくてよい。図4に例示したような様々な表現が考え得られる。
日発音データは、該当の文節の和訳文字列の発音音声を音声合成ソフトに合成させるために用いるデータである。和訳文字列を参照して合成が可能であれば、和訳文字列自体を日発音データとして用いることができる。
日発音時間は、日発音データに基づき標準的な条件で発音音声を合成した場合の、発音音声の再生時間である。
次に、全体データは、和意訳文字列、意訳発音データ、意訳発音時間を含む。
和意訳文字列は、英文全体を意訳した日本語の文字列である。和意訳文字列は文節の区切りがわかるようなものでなくてよく、自然な日本語であることが好ましい。
意訳発音データは、和意訳文字列の発音音声を音声合成ソフトに合成させるために用いるデータである。和意訳文字列を参照して合成が可能であれば、和意訳文字列自体を日発音データとして用いることができる。
意訳発音時間は、意訳発音データに基づき標準的な条件で発音音声を合成した場合の、発音音声の再生時間である。
その他データには、平叙文、疑問文、否定文等の文の種類を示すデータを含めることが考えられる。
以上のような例文DBのデータは、全て人手で入力して作成してもよい。また、予め各文節の文節データを、前後にどのような意味内容の文節を繋げられるかを示す接続データと共に作成しておき、接続データに従って各文節の文節データを繋げ、自動的に多数の例文の例文データを作成してもよい。この場合でも、和意訳文字列と意訳発音データのみは人手で英文を翻訳して入力してもよい。
図5の説明に戻ると、学習画面300は、文節表示部310、英文表示部330、訳文表示部340と、各種の操作部321~324,351~356を備える。
文節表示部310は、学習用の英文を、文節ごとに区切った状態で文節ごとの抑揚と対応付けて、かつ、文節ごとに対応する日本語文字列と対応づけて表示する領域である。より具体的には、文節名欄311、抑揚欄312、英例文欄313、発音記号欄314、和訳欄315を備え、各文節と対応する情報を、その文節と対応する列に表示する。どの文節の欄を設けるかは、文節構成データに基づき定めることができる。
文節名欄311は、文節の名称を表示する欄であり、各文節と対応する音声の出力指示を受け付けるための文節再生ボタン321~324も備える。この音声出力は、該当文節の英語と日本語の発音音声を、発音時間を揃えて同時に再生するものである。
抑揚欄312は、各文節と対応する英語の抑揚を表示する欄である。抑揚は、図6Bに示す抑揚データのように文節ごとに予め用意されたものである。図5の例では、上向きの矢印でピッチを上げることを示し、下向きの矢印でピッチを下げることを示す。また、各欄の水平方向の位置が、左から右に向かって時間経過を示す。必ずしも各矢印と単語が対応しているわけではなく、各矢印は大まかな時間範囲を示す。ただし、後述のように実際に文節に抑揚を付す際には、単語ごとに、その文節内での位置に応じてどの矢印と対応する抑揚を付すかを決定する。
V文節の末尾で上向きの矢印が2つ並んでいる箇所は、ピッチを大きく上げることを示す。↑↑のV文節末尾と、↓のO文節先頭では、実際の話者の発音で1オクターブ以上の音程差がある一方、発音の時間差(間隙)がないことが通常である。各矢印に応じてピッチをどのように変化させるかは、固定であっても、ユーザの指示に応じて又は自動的に変更できるようにしてもよい。変更ができるようにすれば、英語の意味と抑揚の関係を任意に強調して学習することができ、より効果的な学習が可能となる。
なお、抑揚データは文節毎に固定の内容でよい。疑問文や平叙疑問文で末尾のピッチを上げる場合、疑問用のP文節を、他の種類の文用のP文節と区別して定義しておけばよい。あるいは、例文データ中に文の種類を示す種類データを持たせて置き、抑揚のみ、種類データに基づき選択できるようにしてもよい。
英例文欄313は、英文の各文節を構成する部分を表示する欄であり、各文節データ中の英単語列に基づき表示できる。
発音記号欄314は、英例文欄313と対応する発音記号を表示する欄であり、各文節データ中の英発音記号列に基づき表示できる。
和訳欄315は、英例文欄313と対応する日本語を表示する欄であり、各文節データ中の和訳文字列に基づき表示できる。
英文表示部330は、英文の全文を表示する欄である。図5の例では文節区切りのない全文と、文節区切りを入れた全文とを表示している。前者は、各文節データ中の英単語列を連結し、文の種類に応じて末尾にピリオドやクエスチョンマークを追加して構成することができる。後者は、文節データ中の英単語列を連結する際に、間に文節区切りを示す記号を挟んで構成できる。図5の例では、文節区切りの記号としては判断語(V)の前後は「/」を用い、OとPの間には、上述したようにこの間にV1が省略され発音上もやや間隙があることを示す「^」を用いている。
訳文表示部340は、英文を翻訳した日本語の全文を表示する欄である。図5の例では文節毎の和訳を繋げた直訳と、英文全体を自然な日本語に翻訳した意訳とを表示している。前者は、各文節データ中の和訳文字列を連結して構成することができる。後者は、全体データ中の和意訳文字列である。
英語再生ボタン351は、英語全文の音声出力指示を受け付けるためのボタンである。
直訳再生ボタン352は、日本語直訳の音声出力指示を受け付けるためのボタンである。
意訳再生ボタン353は、日本語意訳の音声出力指示を受け付けるためのボタンである。
同時再生ボタン354は、全文の、英語と日本語での同時音声出力の指示を受け付けるためのボタンである。この出力は、英語の発音音声と、その英語と対応する日本語の発音音声とを、文節毎に発音時間を揃えて同時に出力するものである。その結果、文全体の発音時間も、英語と日本語とで一致することになる。
前例文ボタン355及び次例文ボタン356はそれぞれ、学習画面300に表示する例文を前又は次の別の文に変更する指示を受け付けるためのボタンである。
次に、ユーザ端末100(のプロセッサ101)が、以上説明した各機能を実現するために実行する処理及び動作の例について、図7乃至図11を参照しつつ説明する。以上の処理の実行を通じてユーザ端末100の利用者に英語を教授する方法が、この発明の英語教授方法の実施形態に該当する。
なお、特に断らない限り、以下の各フローチャートの処理において、ユーザ端末100とサーバ装置200とが通信する際には、ユーザ端末100又はそのオペレータは何らかの手段により英語学習システム1の正当な利用者として認証されている。
図7に示すのは、前例文ボタン355又は次例文ボタン356の操作等による例文表示指示を検出した場合の処理である。
この場合、ユーザ端末100はまず、サーバ装置200にアクセスし、データベース230中の例文DBから表示する英文の例文データを取得する(S11)。どの例文データを取得するかは、適宜なアルゴリズムで定めればよい。第2実施形態で説明するように、レベルや利用シーンの設定に基づき抽出できるようにしてもよい。また、ユーザ端末100は、サーバ装置200から、当該例文に含まれる各文節の抑揚データも取得する(S12)。ここで取得した例文データと抑揚データは、図7の処理の終了後も、次に図7の処理を行うまで保持しておく。
次に、ユーザ端末100は、取得した抑揚データに基づき各文節の抑揚欄312を表示する(S13)。また、例文データに含まれる各文節の英単語列、英発音記号列、及び和訳文字列のデータに基づき、各文節の英例文欄313、発音記号欄314及び和訳欄315を表示する(S14~S16)。さらに、これらのデータに基づき、図5を参照して説明したように、英文表示部330及び訳文表示部340に、英語及び日本語の全文をそれぞれ表示して(S17~S18)、処理を終了する。
ユーザ端末100は、以上の処理により、ユーザに学習させるための新しい英文を、文節毎に日本語と対応するように学習画面300に表示することができる。
VSOP英文法に従って文節が区分されていれば、文節単位で抑揚と英例文と和訳を並べて表示されたものを見るだけでも、学習者にとって英語と日本語の対応関係や英語のロジックがわかりやすく、英語の意味やロジックを効果的に脳に定着させ、学習することができる。
この表示を見ながら、以下に説明する処理により再生される英語と日本語の発音を聞き、さらに英語を発音することにより、学習者は一層効果的に英語の意味やロジックを効果的に脳に定着させ、学習することができる。
図8に示すのは、英語再生ボタン351の操作等による英語全文再生指示を検出した場合の処理である。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS22~S24の処理を行う(S21,S25,S26)。
すなわち、表示中の例文の例文データから、文節データ中の英発音データを取得し(S22)、その文節の抑揚データに基づき抑揚を付加(S23)する。そして、抑揚付加後の英発音データに基づき英語の発音音声の音声データ(波形データ)を生成し、その生成された音声データを再生して音声出力部106へ出力する(S24)。
これを各文節データに対して順次行うことにより、文節毎に予め定めた抑揚を付した、英例文全体の自然な発音音声を、音声出力部106から出力することができる。
ステップS23の抑揚を付す処理においては、単語ごとに、その文節内での位置に応じて、抑揚データが示す文節全体の抑揚のうちどの部分の抑揚を(図5において表示されたどの矢印と対応する抑揚を)付すかを決定する。
なお、文節の区切りがわかるように、文節間に若干の間隔を開けてもよい。特に、O文節とP文節の間には、他の文節間よりも長めの間隔を開けると、自然な英文に聞こえる。
また、ステップS24での音声データの生成は、英発音データ及び抑揚データ等の必要なデータを、適宜な公知の音声合成ソフトに入力して音声合成させることで、実行できる。この音声合成ソフトに抑揚データを入力することを、ステップS23での抑揚の付加と捉えることができる。
図9Aに示すのは、直訳再生ボタン352の操作等による直訳文再生指示を検出した場合の処理である。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS32,S33の処理を行う(S31,S34,S35)。
すなわち、表示中の例文の例文データから、文節データ中の日発音データを取得し(S32)、そのデータに基づいて日本語の発音音声の音声データ(波形データ)を生成し、その生成された音声データを再生して音声出力部106へ出力する(S33)。ステップS33での音声データの生成は、日発音データ等の必要なデータを、適宜な公知の音声合成ソフトに入力して音声合成させることで、実行できる。
これを各文節データに対して順次行うことにより、英語の語順と対応しつつある程度意味の通る日本語翻訳の発音音声を、音声出力部106から出力することができる。
なお、日本語においても、対応する英語の文節区切りが文節の区切りがわかるように、文節間に若干の間隔を開けてもよい。このことで、学習者に対し、日本語の聴取を通じても英語のロジックを印象付けることができる。
図9Bに示すのは、意訳再生ボタン353の操作等による意訳文再生指示を検出した場合の処理である。
この場合、ユーザ端末100は、表示中の例文の例文データから、全体データ中の意訳発音データを取得し(S41)、そのデータに基づいて図9AのステップS33と同様に日本語の発音音声の音声データ(波形データ)を生成し、その生成された音声データを再生して音声出力部106へ出力する(S42)。
この処理により、英例文と対応する自然な表現の日本語翻訳の発音音声を、音声出力部106から出力することができる。
図10に示すのは、同時再生ボタン354の操作等による日英同時全文再生指示を検出した場合の処理である。
この場合、ユーザ端末100は表示中の例文の例文データに含まれる各文節データ(1番目~Nmax番目の文節データ)に対して順次、ステップS52~S56の処理を行う(S51,S57,S58)。
すなわち、まず図8のステップS22及びS23と同様に英発音データを取得して抑揚を付加(S52,S53)する。また、図9AのステップS32と同様に日発音データを取得する(S54)。その後、処理対象の文節データの中の英発音時間データと日発音時間データとに基づき、取得した日発音データの再生速度を、処理対象の文節における英語と日本語の再生時間が一致するように設定する(S55)。この設定は、図11に示すように、例えば英語と日本語を通常の再生速度で再生すると英語の再生時間がTe、日本語の再生時間がTjとなる場合に、日本語の再生速度を通常のTe/Tj倍とすることで、日本語の再生時間をTeに合わせるように行うことができる。
ユーザ端末100は、以上の後、ステップS53での抑揚付加後の英発音データに基づき生成した音声データを再生して音声出力部106のR系統へ出力し、ステップS54で取得した日発音データに基づき生成した音声データをステップS55で設定した再生速度で英語音声データと同時に再生し音声出力部106のL系統へ出力する(S56)。音声データの生成は、図8乃至図9Bの処理と同様に音声合成ソフトを用いて行うことができる。
以上の処理のステップS52、S53における、英文の発音音声を出力させるための(ここでは抑揚が付加された)英発音データを取得するための処理が第1手順の処理に該当し、この処理においてユーザ端末100のプロセッサ101が第1取得部として機能する。また、ステップS54、S55における、英語の発音音声と同じ時間で日本語の発音音声を出力させるための日発音データと再生時間の設定を取得するための処理が第2手順の処理に該当し、この処理においてプロセッサ101が第2取得部として機能する。ステップS56の処理が制御手順の処理に該当し、この処理においてプロセッサ101が制御部として機能する。
ここでは、日本語の再生速度を調整する例について説明したが、英語の再生速度、あるいは日本語と英語の双方の再生速度を調整して、英語と日本語の再生時間を一致させてもよい。
以上のステップS52乃至S56の処理を各文節データに対して順次行うことにより、文節毎に予め定めた抑揚を付した、英例文全体の自然な発音音声と、英語の語順と対応しつつある程度意味の通る日本語翻訳の発音音声とを、英語の文節毎に英語と日本語との発音時間が一致するように出力することができる。
これを聴いた、学習者は、英語と日本語の対応関係や英語のロジックをわかりやすく把握することができ、英語の意味やロジックを効果的に脳に定着させ、学習することができる。
学習者がヘッドホンやイヤホンで音声を聴く場合、英語と日本語をそれぞれステレオの別系統から出力することで、英語と日本語を学習者に別の耳で聞かせることができ、一層英語と日本語の対比をしやすくすることができる。このような出力は、英語と日本語を異なる側に音像定位させた1のステレオ音声データを作成して再生することでも実現できる。
また、聞くと同時にこれを真似して学習者自身にも英語又は日本語を発音させることで、一層、脳への定着効果と学習効果を高めることができるので、音声出力と同時に発音を促す表示を行うとよい。
文節間に若干の間隔を開けてもよいことは図8等の場合と同様であるが、この場合には英語と日本語で間隔を合わせ、出力タイミングがずれないようにする。
また、ユーザは学習画面300から日英同時全文再生指示を行うので、発音音声を聴く際には、学習画面300上で、英文が、文節ごとに区切った状態で、文節ごとの抑揚と対応付けて、かつ、文節ごとに対応する部分日本語文字列と対応づけて表示されたものを見ながら、上記英語と日本語の発音音声を聴くことになる。
このことで、視覚と聴覚から同時に英語と日本語の対応関係の感覚的な刺激を受けることができ、この点でも、脳への定着効果と学習効果を高めることができる。
このような効果がえられるのは、VSOP英文法を用いると、英語と日本語の文節を同じ順番に並べながら、ある程度意味の通る日本語訳を作ることができるので、文全体あるいは文節毎に英語と日本語の再生時間を合わせることにより、英語と日本語の音声とロジックの対応関係がわかりやすい状態で学習者に提示できる点に負うところが大きい。
しかし、VSOP英文法に従って英文の文節を区切ることは必須ではない。他の考え方に基づき英文を文節に区切った場合でも、文節毎にある程度英語と日本語の対応関係を学習者に認識させることができ、英語と日本語の文節を同じ順番に並べてもある程度意味の通る日本語訳を作ることができるのであれば、VSOP英文法を用いた場合に類する効果を得られること考えられる。
以上の他、ユーザ端末100は、文節再生ボタン321~324の操作に応じて、文節単位で、英語と日本語の発音音声を、発音時間が一致するように出力することができる。このための処理は、図10のステップS52乃至S56の処理を、操作された文節再生ボタンと対応する文節についてのみ行うものである。
また、ユーザ端末100は、英例文欄313及び和訳欄315の、各文節と対応する列の操作に応じて、当該文節のみを英語又は日本語で発音する音声を出力することができる。このための処理は、図8のステップS22乃至S24の処理、または図9のステップS32及びS33の処理を、操作された列と対応する文節についてのみ行うものである。
これらの音声出力も、学習者が注目する箇所のみを聞きたい場合に有用である。
〔第2実施形態:図12乃至図14〕
次に、この発明の第2実施形態の英語学習システムについて説明する。
第2実施形態の英語学習システムは、英語の文節の構造をより細かく規定し学習画面300に表示するようにした点と、学習画面300に表示する例文の選択方法をより詳細に規定した点が第1実施形態と異なるのみであり、その他の点は第1実施形態と共通である。従って、これらの点に関連する内容について説明し、第1実施形態と共通する又は対応する箇所には、第1実施形態と同じ符号を用いる。
図12に、第2実施形態における学習画面300の例を示す。
第2実施形態においては、図12に示すように、第1実施形態で用いたSVOP各文節内に、さらに細かく機能に応じた区切りを設けている。この区切りを、ここでは「小文節」と呼ぶ。また、抑揚を、小文節ごとに規定している。このことで、各英単語にどの抑揚を付すかの対応関係を明確にすることができる。そして、学習画面300に小文節欄316を設け、小文節の名前と抑揚を表示している。英例文欄313及び発音記号欄314の表示も、小文節ごとに行っている。
また、日本語訳も、図5における和訳欄315と対応する文節単位の和訳は文節訳として表示し、これよりもさらに細かい小文節の単位で英語と対応付けた日本語を、直訳欄317に表示している。ただし、小文節単位で英語と日本語を対応付ける場合、文節間の繋がりを示す日本語文字を英語と対応付けると却って不自然になってしまう。そこで、直訳欄317では、このような日本語文字を文節の間に表示するようにしている。S文節とV文節の間の「が」等がこれに該当する。
さらに、学習画面300に、レベル選択欄361、V2種類選択欄362及び使用場面選択欄363を設け、表示させる英文を、そのレベルや、判断語(V文節)中の判断内容語(V2小文節)の品詞(図3及び図4参照)、文の使用場面(日常、旅行、趣味、仕事など)から選択できるようにしている。次例文ボタン356が操作され別の英文を学習画面300に表示させる場合、ユーザ端末100は、レベル選択欄361、V2種類選択欄362及び使用場面選択欄363で設定された条件に合う例文を、例文DBから選択する。このことで、学習者は、自身のレベルや自身が想定する英語の利用シーンに合った例文を用いて学習することができる。
以上の変更に伴い、例文DBにおける例文データの構成も第1実施形態と異なる。
図13に、第2実施形態における例文DBのデータの例を示す。
図13の各例文データは、書誌データ、英文を構成する各文節(ここではS、V、O、P)の内容を示す文節データと、文全体に関する情報を示す全体データと、その他データとを含む。
書誌データは、例文の選択に用いるレベル、V2種類(V2小文節の品詞)や使用場面のデータと、図6Aの文節構成データを含む。全体データとその他データは図6Aの例と同様である。
文節データは、小文節構成データ、文節訳文字列、日発音データ、日発音時間を含む。これらのうち文節訳文字列は、図6Aの和訳文字列と同じものであり、日発音データ及び日発音時間も、図6Aの例と同様である。
小文節構成データは、文節に含まれる小文節数のデータと、その数だけの小文節データとを含む。1の小文節データが1の小文節に関するデータである。
小文節データは、表記データ、抑揚データ、英単語列、英発音記号列、英発音データ、英発音時間、直訳文字列を含む。
これらのうち表記データは、小文節を学習画面300の小文節欄316でどう表記するかを示すデータである。小文節には、O文節中の右側3つのV2-Mod-Oのように、文節と小文節の間の中間的な括りを持つものもあるが、その中間的な括りの情報も表記データに含まれる。
抑揚データ、英単語列、英発音データ、英発音時間は、1の小文節に関するデータであることを除けば、図6Aで文節データに含まれていた同名のデータと同じものである。
直訳文字列は、直訳欄317に表示する、該当の小文節の英語と対応する日本語文字列のデータである。
以上の例文データは、音声出力に関する点では、抑揚データ、英発音データ、英発音時間の各データが、文節毎でなく小文節毎に用意されている点が第1実施形態と大きく異なる。このため、第2実施形態では、1文節分の英語音声データを生成するために、各小文節の英発音データを連結する。
これに対応し、第2実施形態では、例えば図10のステップS52及びS53の処理が、図14に示すものに変更される。
すなわち、ユーザ端末100は、表示中の例文のN番目の文節の各小文節データから英発音データを取得し(S71)、取得した各英発音データに、同じ小文節データ中の抑揚データに基づき抑揚を付加する(S72)。そして、抑揚付加後の各英発音データを連結してN番目の文節の英発音データを生成する(S73)。英発音時間も、各小文節データ中の英発音時間を加算してN番目の文節の英発音を算出する(S74)。全体で見れば、この処理により、1つの文節の英発音データに、小文節単位の抑揚を繋げた文節単位の抑揚を付すことができる。
図8のステップS22及びS23の処理も同様に変更される。
一方、日本語については、直訳欄317に表示された単位では細かすぎて意味が取りにくいので、文節毎に日発音データ及び日発音時間を用意しており、第1実施形態の場合と同様な処理で音声出力を行うことができる。
以上のように、英語に文節よりも細かい単位の区分けを規定した場合でも、第1実施形態の場合と同様な、英語と日本語の発音音声の出力を行うことができる。
さらに、抑揚を容易に細かく設定することができるので、より自然な抑揚で英語音声を出力することができる。また、英文の構造をより細かい単位で表示することができるので、学習者に対し、英語のロジックをより詳細に提示し、深く理解させることができる。
なお、第2実施形態において、日本語も、英語と同様に小文節毎に日発音データ及び日発音時間を用意し、小文節毎に英語と日本語で発音時間と発音タイミングを合わせて出力することも妨げられない。
以上で実施形態の説明を終了するが、この発明において、システムや装置の具体的な構成、具体的な処理の手順、データの形式、画面の表示内容、ネットワークの構成等は、実施形態で説明したものに限るものではない。
例えば、上述した実施形態では、英語や日本語の発音音声の音声データの生成に音声合成ソフトを用いる例について説明したが、発音データとして、波形データを予め作成して登録しておいてもよい。作成は、音声合成を用いても、人が発音した音声を録音して行ってもよい。またこの場合、図8のステップS23、図10のステップS53等における抑揚の付加は、適宜公知の手法により、波形データに対して音声のピッチを変更する加工を行うことで実現できる。
この波形データに、予め文節と対応する抑揚が付されていれば、図8のステップS23、図10のステップS53等の処理でさらに抑揚を付すことは必須ではない。すなわち、音声出力の際に抑揚データを用いる必要はない。
各文節の英発音データと日発音データとを波形データとして用意する場合、それらの波形データを同じ再生時間となるように予め調整しておけば、図10の処理において調整することは必須ではない。すなわち、図10の処理では、予め用意しておいた英発音データと日発音データを再生するだけでも、英文の文節ごとに、英語と日本語との発音時間が一致するように、英文の発音音声と日本語の発音音声とを同時に出力することができる。すなわち、音声出力の際に英語及び日本語の発音時間のデータを用いる必要はない。
また、発音時間に関しては、上述の実施形態のように音声出力の都度音声データを合成する場合でも、音声データの合成後にサンプル数等からカウントするようにしてもよい。このようにすれば、発音時間のデータを予め用意しておく必要はない。
また、英発音データと日発音データとを文節ごとに用意しておけば、文節単位で英語を組み替えて多数の英例文を容易に作成することができるが、これは必須ではない。予め、英文の文節ごとに、英語と日本語との発音時間が一致するように調整した上で、各文節の英発音データを連結した英文全体の発音データと、各文節と対応する日発音データを連結した日本語全体の発音データとを、例文全体と対応付けて用意しておけば、図10の処理では、それらの英語と日本語の発音データを単に再生するだけでも、英文の文節ごとに、英語と日本語との発音時間が一致するように、英文の発音音声と日本語の発音音声とを同時に出力することができる。
また、英文の文節ごとに、英語と日本語との発音時間が一致するようにすることも必須ではない。英文全体と、これと対応する日本語全体とで発音時間が一致していれば、一致していない場合に比べて、英語と日本語の対応関係をわかりやすくする効果を一定程度得ることができる。
また、学習画面300のような画面を表示することは必須ではなく、コンピュータが自動的に例文を順次選択し、選択した例文の英語と日本語の音声を自動的に出力する構成であっても、英語と日本語で発音時間を合わせて同時に出力することで、特に英語の文節ごとに発音時間を合わせることで、上述した実施形態の場合と同様な効果がある程度は得られる。
また、上述の実施形態では、日本語話者に英語を学習させることを想定し、英語と日本語とを出力する例について説明したが、日本語に代えて他の言語を用いてもよい。英語を文節ごとに区切って、文節毎に他の言語の文字列や発音音声と対応付けることや、再生時間を一致させることは、日本語以外の言語についても可能である。従って、日本語を英語以外の他の言語に置き換えた場合でも、当該他の言語の話者に英語を学習させるための英語学習システムや英語教授方法として、上述した実施形態の場合と同様な効果を得ることができる。
英語と対応付ける言語を、複数の候補からユーザが選択できるようにしてもよい。この場合、各文節データ等として、英語以外に当該複数の候補の言語のデータを用意しておけばよい。
また、上述した実施形態の英語学習システム1及びその変形例と同様な英語学習が可能な英語学習システムを、端末装置からウェブブラウザ等の汎用ソフトウェアを用いてサーバ装置にアクセスしたことに応じて表示や出力されるウェブページ等の画面や音声を通じて実質的に提供することも考えられる。
この場合、サーバ装置ら端末装置に送信される、学習画面300の表示や学習画面300での操作受け付けのための画面のデータ、英語や日本語の音声出力(個別の出力も、同時出力も含む)のための音声データ又は発音データ等に、受信側の端末装置を、上述したユーザ端末100のように動作させるための構造を有するデータが含まれることになる。
上記の音声データ又は発音データは、音声出力部に学習用の英文の発音音声を出力させるための英語発音データと、この英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を上記音声出力部に出力させるための日本語発音データとにより構成することができる。また、上記英文の文節ごとに、上記英語発音データに基づく該文節の発音時間と、上記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致するとよい。
発音時間の調整を行うために、英語及び/又は日本語の発音データに、文全体の又は文節ごとの再生時間や再生速度の情報が対応付けられていてもよい。
また、英語発音データ及び日本語発音データは、音声出力部に音声出力をさせるためのデータであれば、波形データであっても、音声合成ソフトに音声合成を行わせるためのデータであっても、それ以外の形式のデータであってもよい。
また、この発明のプログラムの実施形態は、コンピュータに所要のハードウェアを制御させて上述した実施形態におけるユーザ端末100あるいはサーバ装置200の機能を実現さるためのプログラムである。
このようなプログラムは、はじめからコンピュータに備えるROMや他の不揮発性記憶媒体(フラッシュメモリ,EEPROM等)などに格納しておいてもよい。しかし、メモリカード、CD、DVD、ブルーレイディスク等の任意の不揮発性記録媒体に記録して提供することもできる。それらの記録媒体に記録されたプログラムをコンピュータにインストールして実行させることにより、上述した各機能を実現させることができる。
さらに、ネットワークに接続され、プログラムを記録した記録媒体を備える外部装置あるいはプログラムを記憶手段に記憶した外部装置からダウンロードし、コンピュータにインストールして実行させることも可能である。
また、以上説明してきた各実施形態及び変形例の構成は、相互に矛盾しない限り任意に組み合わせて実施可能であることは勿論である。
1:英語学習システム、100:ユーザ端末、108:通信路、200:サーバ装置、300:学習画面、310:文節表示部、311:文節名欄、312:抑揚欄、313:英例文欄、314:発音記号欄、315:和訳欄、316:小文節欄、317:直訳欄、321~324:文節再生ボタン、330:英文表示部、340:訳文表示部、351:英語再生ボタン、352:直訳再生ボタン、353:意訳再生ボタン、354:同時再生ボタン、355:前例文ボタン、356:次例文ボタン、361:レベル選択欄、362:V2種類選択欄、363:使用場面選択欄、400:ネットワーク

Claims (15)

  1. 音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得する第1取得部と、
    前記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得する第2取得部と、
    前記英語発音データ及び前記日本語発音データに基づき前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを同時に出力させる制御部とを備え
    前記英文は、複数の文節に区切られており、
    前記日本語文字列は、前記英文の各前記文節と対応する部分日本語文字列が連結されたものであることを特徴とする英語学習システム。
  2. 請求項に記載の英語学習システムであって、
    前記英文の文節ごとに、前記英語発音データに基づく該文節の発音時間と、前記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致することを特徴とする英語学習システム。
  3. 請求項に記載の英語学習システムであって、
    前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語学習システム。
  4. 請求項に記載の英語学習システムであって、
    前記英文を、前記文節ごとに区切った状態で、前記文節ごとの抑揚と対応付けて、かつ、前記文節ごとに対応する前記部分日本語文字列と対応づけて表示部に表示させる表示制御部を備え、
    前記制御部は、前記表示部が前記英文及び前記部分日本語文字列を表示している状態で、前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを出力させることを特徴とする英語学習システム。
  5. 請求項に記載の英語学習システムであって、
    前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語学習システム。
  6. 請求項1に記載の英語学習システムであって、
    前記音声出力部はステレオのヘッドホン又はイヤホンであり、
    前記制御部は、前記英文の発音音声と前記日本語文字列の発音音声との一方を前記ステレオのL側のみに、他方をR側のみに出力させることを特徴とする英語学習システム。
  7. 請求項1乃至6のいずれか一項に記載の英語学習システムであって、
    前記英文の前記複数の文節はそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であることを特徴とする英語学習システム。
  8. 音声出力部に学習用の英文の発音音声を出力させるための英語発音データを取得する第1手順と、
    前記英語発音データによる発音音声と同じ時間で前記英文と対応する日本語文字列の発音音声を前記音声出力部に出力させるための日本語発音データを取得する第2取得手順と、
    前記英語発音データ及び前記日本語発音データに基づき前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを同時に出力させる制御手順とを備え
    前記英文は、複数の文節に区切られており、
    前記日本語文字列は、前記英文の各前記文節と対応する部分日本語文字列が連結されたものであることを特徴とする英語教授方法。
  9. 請求項に記載の英語教授方法であって、
    前記英文の文節ごとに、前記英語発音データに基づく該文節の発音時間と、前記日本語発音データに基づく該文節と対応する部分日本語文字列の発音時間とが一致することを特徴とする英語教授方法。
  10. 請求項に記載の英語教授方法であって、
    前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語教授方法。
  11. 請求項10に記載の英語教授方法であって、
    前記英文を、前記文節ごとに区切った状態で、前記文節ごとの抑揚と対応付けて、かつ、前記文節ごとに対応する前記部分日本語文字列と対応づけて表示部に表示させる表示制御手順を備え、
    前記制御手順は、前記表示部が前記英文及び前記部分日本語文字列を表示している状態で、前記音声出力部に前記英文の発音音声と前記日本語文字列の発音音声とを出力させる手順であることを特徴とする英語教授方法。
  12. 請求項に記載の英語教授方法であって、
    前記英語発音データに基づく前記英文の発音には、前記文節毎に予め定められた抑揚が付されていることを特徴とする英語教授方法。
  13. 請求項に記載の英語教授方法であって、
    前記音声出力部はステレオのヘッドホン又はイヤホンであり、
    前記制御手順は、前記英文の発音音声と前記日本語文字列の発音音声との一方を前記ステレオのL側のみに、他方をR側のみに出力させる手順であることを特徴とする英語教授方法。
  14. 請求項8乃至13のいずれか一項に記載の英語教授方法であって、
    前記英文の前記複数の文節はそれぞれ、VSOP英文法における主語(S)、判断語(V)、対象語(O)及び叙述語(P)を構成する文節であることを特徴とする英語教授方法。
  15. コンピュータに、請求項8乃至13のいずれか一項に記載の英語教授方法の各手順を実行させるためのプログラム。
JP2023081425A 2023-05-17 2023-05-17 英語学習システム、英語教授方法及びプログラム Active JP7383325B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023081425A JP7383325B1 (ja) 2023-05-17 2023-05-17 英語学習システム、英語教授方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023081425A JP7383325B1 (ja) 2023-05-17 2023-05-17 英語学習システム、英語教授方法及びプログラム

Publications (1)

Publication Number Publication Date
JP7383325B1 true JP7383325B1 (ja) 2023-11-20

Family

ID=88833483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023081425A Active JP7383325B1 (ja) 2023-05-17 2023-05-17 英語学習システム、英語教授方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7383325B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184619A (ja) 2002-12-02 2004-07-02 Yamaha Corp 語学習得・演奏練習システム
JP2005326811A (ja) 2004-04-14 2005-11-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184619A (ja) 2002-12-02 2004-07-02 Yamaha Corp 語学習得・演奏練習システム
JP2005326811A (ja) 2004-04-14 2005-11-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法

Similar Documents

Publication Publication Date Title
Erdener et al. The role of audiovisual speech and orthographic information in nonnative speech production
KR100900085B1 (ko) 외국어 학습 제어방법
US20130196292A1 (en) Method and system for multimedia-based language-learning, and computer program therefor
KR20160111292A (ko) 말하기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법
Al-Jasser The effect of teaching English phonotactics on the lexical segmentation of English as a foreign language
JP5580019B2 (ja) 語学学習支援システム及び語学学習支援方法
Georgiou Bit and beat are heard as the same: Mapping the vowel perceptual patterns of Greek-English bilingual children
KR100900081B1 (ko) 외국어 학습 제어방법
Georgiou et al. Perceptual realization of Greek consonants by Russian monolingual speakers
Bundgaard-Nielsen et al. Discrimination of multiple coronal stop contrasts in Wubuy (Australia): A natural referent consonant account
KR20190041105A (ko) 학습자의 문장입력 및 음성입력을 이용한 학습 시스템 및 그 방법
US20060183088A1 (en) Audio-visual language teaching material and audio-visual languages teaching method
Fitria Utilizing Text-to-Speech Technology: Natural Reader in Teaching Pronunciation
Husby et al. Dealing with L1 background and L2 dialects in Norwegian CAPT
JP7383325B1 (ja) 英語学習システム、英語教授方法及びプログラム
KR20030079497A (ko) 대화형 언어학습 시스템 및 서비스방법
KR102235789B1 (ko) 강의 콘텐츠를 이용한 외국어 교습 방법 및 이를 위한 장치
Florente How movie dubbing can help native Chinese speakers’ English pronunciation
Alfaifi Syllabification of coda consonant clusters in Najdi and Hijazi Arabic
KR20170097419A (ko) 한국어 학습 시스템 및 이를 이용한 한국어 학습 방법
JP2008032788A (ja) 語学教材データ作成用プログラム
Aksenova Corrective aspects of ICT in the development of musical hearing in children with hearing disabilities
Grayson Russian Lyric Diction: A practical guide with introduction and annotations and a bibliography with annotations on selected sources
JP6957069B1 (ja) 学習支援システム
JP2009075526A (ja) 音声合成利用の総合的英語学習システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230518

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231031

R150 Certificate of patent or registration of utility model

Ref document number: 7383325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150