JP3988270B2 - 発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム - Google Patents
発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP3988270B2 JP3988270B2 JP24042598A JP24042598A JP3988270B2 JP 3988270 B2 JP3988270 B2 JP 3988270B2 JP 24042598 A JP24042598 A JP 24042598A JP 24042598 A JP24042598 A JP 24042598A JP 3988270 B2 JP3988270 B2 JP 3988270B2
- Authority
- JP
- Japan
- Prior art keywords
- pronunciation
- display
- pitch
- sentence
- learner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Description
【発明の属する技術分野】
この発明は、学習者が発音した発音状態を表示するための発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラムに関するものである。
【0002】
【従来の技術】
近年、外国語の習得を希望する人(以下、学習者と呼ぶ)が多くなっている。我々日本人は、日本語そのものの独特の抑揚の少ない発音(アクセントやイントネーション)から、例えば英語等の抑揚の大きな外国語を発音することを苦手とする人が多い。このような外国語の習得を希望する学習者は、例えば独学によって外国語を習得したり、外国語専門の学習機関に通う場合が多い。
【0003】
このような独学による学習者は、自身の発音の悪さを自分自身で自覚して矯正する事が極めて困難である。一方、外国語専門の学習機関に通う学習者は、自身の発音を教師によって指摘して矯正してもらうことができる。しかし、教師は、口頭でその発音上の悪さを指摘するので、学習者にとっては具体的に視覚によってどの発音が悪いのか明確に認識できない場合がある。
【0004】
そこで、従来、このような発音の状態を具体的に学習者に知らせるための発音表示装置が存在していた。この発音表示装置の例としては、例えば特開昭61−13299号公報によって開示されている基本周波数パターン補正装置や特開平7−295466号公報に開示されている英会話学習方法及び学習装置が存在する。
【0005】
【発明が解決しようとする課題】
ところが、これらの装置に共通する欠点は、学習者(発音者)の発音を記録して分析し、学習者の発音を波形で表示している点である。学習者の発音に限らず、音を波形で表示している状態でこの波形が好ましい波形であるかどうかを識別するには相当の知識や経験等が要求される。従って、例えば外国語をこれから習得しようとする学習者が、自身の発音の波形を見せられたところで発音の状態を認識することは不可能である。
【0006】
そこでこの発明は上記課題を解消し、発音を容易に視覚的・客観的に認識することができる安価な発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラムを提供することを目的としている。
【0007】
【課題を解決するための手段】
上記目的は、この発明にあっては、予め用意された文章を学習者に読ませてその発音を録音し、前記発音を分析して予め決められた基準に基づいて前記発音の状態を表示手段に表示するための発音表示装置であって、
発音を録音するための録音手段と、
録音された発音の強弱を表すパワー及び高低を表すピッチのそれぞれの信号レベルを抽出するための抽出手段と、
抽出されたパワー及びピッチをそれぞれ複数の段階に分類するための分類手段と、
予め決められた基準に基づいて、分類されたパワーを複数の段階を表す強弱記号に変換し、且つ、分類されたピッチを複数の高低を表す音調曲線に変換し、予め用意された文章と、強弱記号と、音調曲線とを表示手段に表示する変換表示手段と、を備え、
予め決められた基準として、事前に学習者により発音された音声情報が抽出手段により分析され、標準値に変換されて学習者声質情報記憶部に記憶された基準範囲情報が用いられ、
強弱記号は、予め用意された文章の近傍に表示され、
音調曲線は、予め用意された文章に重なるように表示されることを特徴とする発音表示装置により、達成される。
【0008】
この発明では、学習者は、予め用意された文章を発音表示装置に録音手段を使用して録音する。発音表示装置は、録音された発音の音声情報に含まれる要素を分析して抽出し、要素の信号レベルによって予め決められた基準に基づいてその要素の信号レベルを識別子に変換して表示手段に表示する。
【0009】
【発明の実施の形態】
以下、この発明の好適な実施の形態を添付図面に基づいて詳細に説明する。
なお、以下に述べる実施の形態は、この発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、この発明の範囲は、以下の説明において特にこの発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
【0010】
図1は、この発明の好ましい実施形態としての発音表示装置の外観の一例を示す斜視図である。
発音表示装置1は、コンピュータ21(発音表示手段)及びこのコンピュータ21に設けられた音声取得部7(録音手段)を有する。
上記コンピュータ21は、例えば通常使用されている安価なパーソナルコンピュータやワークステーション等のコンピュータである。コンピュータ21は、その外観上、中央演算処理装置(CPU)等の制御部を有する本体21a、本体21aに設けられたディスク装置13(以下、ディスクドライブとも呼ぶ)、本体21aに設けられた音声出力部23、ポインティングデバイス3及び表示部5を有し、好ましくはキーボード11を有する。コンピュータ21には、マイク等の上記音声取得部7が接続されている。尚、ディスク装置13及び音声出力部23は、本体21aの外部に配置されていても良く、音声取得部7は、本体21aに内蔵されていても良い。
【0011】
コンピュータ21は、例えば後述するイントネーション表示システム(プログラム)を格納する情報記録媒体15(発音表示機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体)の情報を少なくとも読み出すことができるディスク装置13を備えている。従って、コンピュータ21には、この情報記録媒体15に格納されているプログラムをインストールすることができる。この情報記録媒体15は、例えばコンパクトディスク(CD−ROM)、フレキシブルディスク(フロッピーディスク)等である。
【0012】
図2は、図1の発音表示装置の詳細な電気的な構成例を示すブロック図である。
発音表示装置1は、制御部9、表示部5、記憶部17、ディスク装置13、外部記憶部19、音声出力部23及び音声取得部7を有し、好ましくはキーボード11を有する。
【0013】
上記制御部9は、表示部5、記憶部17、ディスク装置13、外部記憶部19、音声出力部23及び音声取得部7と接続されており、好ましくはキーボード11と接続されている。制御部9は、接続された上述の各ブロックを制御するためのものである。制御部9は、例えば図1の情報記録媒体15からインストールされた前述のイントネーション表示システムを例えばハードディスク等の外部記憶部19に格納し、必要な時にイントネーション表示システムを、例えばメモリ等の記憶部17を作業領域としながら実行する。
【0014】
上記表示部5は、前述のイントネーション表示システムによって図1のように画面24が表示される。この画面24については、後述する。表示部5は、例えばCRT(Cathode Ray Tube)や液晶ディスプレイである。上記音声出力部23は、例えばスピーカ等である。上記音声取得部7は、例えば前述のようにマイク等である。
【0015】
上記キーボード11は、例えばマウス等のポインティングデバイス3に不慣れな学習者のためにポインティングデバイス3の代わりにイントネーション表示システムを操作するために設けられたコンピュータ21の操作部である。キーボード11は、ポインティングデバイス3を使用すればよいので、必須ではない。
【0016】
図3は、図1のイントネーション表示システムの処理の一例を示すソフトウェア構成図である。
イントネーション表示システムは、例えば外部記憶部13に格納した又は格納する情報を読み込み又は書き込みしながら、記憶部17上で動作するものとして説明する。
【0017】
上記記憶部17上では、制御部9の制御によって、音声取得部7、抽出処理部38、分類処理部39、標準値変換処理部40、記号変換処理部41、登録処理部42及び表示処理部43が動作する。この際には、これらの内の一部の処理部が、外部記憶部13のモデル文章情報46及び学習者声質情報45と情報交換をしながら動作する。尚、発音表示装置1は、図3のような各処理部によって処理する必要はなく、いずれかの処理をまとめたり、いずれかの処理を分割しても同様の処理を行うことができる。
【0018】
上記音声取得部7は、図1等の音声取得部7を制御するための例えばドライバソフトウェア等である。音声取得部7は、学習者が発音した音声情報を取得する。
【0019】
上記抽出処理部38は、音声取得部7によって取得された音声情報において少なくとも1つの要素、この説明では音声情報を分析して例えばピッチ成分(音の高低の要素)とパワー成分(音の強弱の要素)とを抽出する。ここで、これらの要素の抽出方法(分析方法)としては、以下のような方法を採用することができる。
【0020】
従来から用いられている分析方法の一例としては、短時間自己相関分析法、短時間スペクトル分析法、ケプストラム分析法、帯域フィルタバンク分析法、合成による分析法(A−b−S法)又は線形予測分析法(LPC(Linear Prediction))等がある。
【0021】
上記分類処理部39は、抽出処理部38にて抽出されたピッチ成分(要素)及びパワー成分(要素)を、それぞれその成分の最大値と最小値とを算出し、各時間毎の各成分が最大値及び最小値の間でどの程度の大きさ(信号レベル)であるかを分類する。分類処理部39は、各時間における各成分の値を複数の段階に分類する。尚、分類処理部39は、後述する標準値変換処理部40にて標準値に変換されたピッチ成分及びパワー成分を分類しても同様であることはいうまでもない。以下の説明では、一例としてこの順番(分類処理部39にて処理後標準値変換処理部40で処理)で説明する。
【0022】
上記標準値変換処理部40は、好ましくは存在していた方が良く、抽出処理部38によって抽出されたピッチ成分及びパワー成分を標準値に変換する。ここでいう標準値とは、記号変換処理部41の処理(や分類処理部39の処理)を行う上で各要素の信号レベルが所定の範囲内である方がよいことからこの範囲を示すものである。
【0023】
例えばピッチ成分について以下のような変数を設定する。
Pa:声の高い学習者のピッチ
Pb:声の低い学習者のピッチ
Ps:標準的な声の高さのピッチ
尚、この説明中で使用する「ピッチ」とは、特に指定しない限りピッチ周波数を示し、ピッチ周波数は、
ピッチ周波数=1/ピッチ周期
という関係がある。
図4(A)の声の高い学習者のピッチ周期Paは、{(Pa+Pb)/2}/Pa倍されることにより、図4(C)のピッチ周期標準値Psに変換され、図4(B)の声の低い学習者のピッチ周期Pbは、{(Pa+Pb)/2}/Pb倍されることにより、図4(C)のピッチ周期標準値Psに変換される。
【0024】
略同様にパワー成分について以下のような変数を設定する。
Ia:声の大きい学習者のパワー
Ib:声の小さい学習者のパワー
Is:標準的な声の大きさのパワー
図5(A)の声の大きい学習者のパワーIaは、{(Ia+Ib)/2}/Ia倍されることにより、図5(C)のIsのような値に変換され、図5(B)の声の小さい学習者のパワーIbは、{(Ia+Ib)/2}/Ib倍されることにより、図5(C)のパワー標準値Isに変換される。
【0025】
上記記号変換処理部41は、標準値変換処理部40によって変換された分類処理部39によって複数の区分に分類された各時間におけるピッチ成分やパワー成分をその区分毎に分けて、各時間におけるそれぞれの強弱等を表す記号(識別子)に変換(置換)する。この記号の一例としては、図13のような例えばパワー成分を表す記号31(「●」)を用いてその記号の大小によってパワーの強弱を表し、図14のような例えばピッチ成分を表す音調曲線32を用いてそのピッチの高低を表す。ここで、音調曲線32は、例えば図14のように音調曲線32が上部に配置されている時は音が高く、下部に配置されている時は音が低いことを示している。
【0026】
上記登録処理部42は、学習者が発音を録音した際に自己の音声情報を外部記録部13の学習者声質情報45に格納する。上記表示処理部43は、モデル文章情報46の後述するモデル文章やその発音情報(ピッチ成分やパワー成分)を読み出して、図1の表示部5に表示したり、記号変換処理部41によって記号31等に変換された学習者の発音情報を図1の表示部5に表示する。
【0027】
図6は、学習者によって発音された図3の学習者性質情報45に格納された音声情報の特性を表す図である。図7は、図6の音声情報においてある時点における周波数と強度の関係を表した特性を示す図である。
図6において波線で表現されている音声情報は、実際には図7(A)のように細かく振動しているが、波線の頂上を追跡して図7(B)のように簡略化して表現している。以下の説明では、学習者は例えば英語を学習しており、「Thisis a pen.」という文章29について学習しているものとする。尚、この文章29は、図3のモデル文章情報46に予め用意してあるものとする。
また、以下の説明では、図6の第1単語音25として「This」、第2単語音26として「is」、第3単語音27として「a」、第4単語音28として「pen」を設定する。
【0028】
図6では、例えば1つの文章29に対して前述した4つの単語音(単語単位の音)がある。これらの各単語音は、図6においてはパワー成分、周波数成分及び時間成分という3つの成分を有することが示されている。図6においてある周波数における強度の時間変化を取ると、図8のように各単語音25〜28は横方向に連続的に配置される。つまり、時間の経過に沿って、学習者が「This is a pen.」と発音したことを示している。
【0029】
この発明の好ましい実施形態としての発音表示装置は以下のようであるが、次に図1〜図16を参照しながらその動作(発音表示方法)について説明する。
発音表示装置1には、図1のようにイントネーション表示システム(プログラム)が格納された情報記録媒体15からインストールされており、現在イントネーション表示システムが起動されている状態である。図1の表示部5には、画面24として図10のような画面が表示されている。
【0030】
発音標準化・登録処理
図9は、学習者の発音を標準化して登録する処理の一例を示すフローチャートである。
学習者は、まず自己の声質を登録するために「音声登録」ボタン36を押す。発音表示装置1は、音声出力部23によって例えば「ピー」という発信音の後から学習者の任意の文章等の発音を図1の音声取得部7によって録音して、その音声情報を図3の学習者声質情報45に記録する(ステップST1)。抽出処理部38は、学習者声質情報45に記録された音声情報を読み出して、分析し、前述したように例えばピッチ成分及びパワー成分を抽出する(ステップST2)。
【0031】
標準値変換処理部40は、前述したように抽出された各時間におけるパワー成分をパワー成分の最大値Iaと最小値Ibを取得し(ステップST3)、標準値Isに変換する(ステップST4)。
【0032】
標準値変換処理部40は、前述したように抽出された各時間におけるピッチ成分をピッチ成分の最大値Pbと最小値Paを取得し(ステップST5)、標準値Psに変換する(ステップST6)。
【0033】
図3の登録処理部42は、上述のパワー成分及びピッチ成分を学習者声質情報45に記録(登録)する(ステップST7)。この学習者声質情報45に格納される学習者の声質情報は、後述する発音表示処理にて行われる各要素の標準値化の処理の要素の信号レベルの基準範囲情報として使用される。
【0034】
発音表示処理
学習者は、図10の「発音の表示」ボタン33を押して、図12のような画面が表示部5に表示される。
図11は、学習者の発音を記号化して表示する処理の一例を示すフローチャートである。
【0035】
学習者は、図12の画面24にて「モデル発音出力」ボタン34を押す。発音表示装置1は、図3のように表示処理部43によってモデル文章情報46の文章29が読み出され、図1の表示部5に文章29が表示され、音声出力部23から文章29のモデル音声(モデル発音)が出力される。
【0036】
モデル音声の出力が終了すると、音声出力部23によって例えば「ピー」という発信音が出力され、学習者は、そのモデル音声をまねて発音し、その音声情報を音声取得部7によって録音して(ステップST10)、外部記憶部19等に記録する。抽出処理部38は、この音声情報を読み出して、分析し、前述したように例えばピッチ成分及びパワー成分を抽出する(ステップST11)。
【0037】
標準値変換処理部40は、前述したように抽出された各時間におけるパワー成分をパワー成分の最大値Iaと最小値Ibを取得し(ステップST12)、要素の信号レベルの基準範囲に包含されるように標準値Isに変換する(ステップST13)。この際、標準値Isへ変換するのは、後述する記号変換処理部40の処理を行う上で、各要素の成分の信号レベルが大幅に異なると記号変換がしづらいためである。
【0038】
分類処理部39は、抽出された各時間におけるパワー成分をパワー成分の最大値Ia及び最小値Ibに基づいて複数の分類に分ける。そして、記号変換処理部41は、各時間におけるパワー成分をその強弱により複数分類されたことに基づいて異なる記号「●」の大小に変換する(ステップST15)。
【0039】
標準値変換処理部40は、抽出された各時間におけるピッチ成分をピッチ成分の最大値Pbと最小値Paを取得し(ステップST16)、要素の信号レベルの基準範囲に包含されるように標準値Psに変換する(ステップST17)。
【0040】
分類処理部39は、抽出された各時間におけるピッチ成分をピッチ成分の最大値Pa及び最小値Pbに基づいて複数の分類に分ける。そして、記号変換処理部41は、各時間におけるピッチ成分をその高低により複数分類されたことに基づいて図14のような異なるピッチの高低を表す音調曲線32に変換する(ステップST19)。
【0041】
図3の表示処理部43は、音声情報を構成する少なくとも1つの要素に対する強弱や高低によって表示部5に記号等を表示する。
この表示の第1の例としては、図13のようにパワー成分の強弱に対応して記号「●」の大小を表示しても良い。
【0042】
この表示の第2の例としては、図14のようにピッチ成分の高低によって音調曲線32を表示しても良い。
【0043】
この表示の第3の例としては、図15のようにパワー成分の強弱に対応して記号「●」の大小を表示し、且つ図14のようにピッチ成分の高低によって音調曲線32を表示しても良い。
【0044】
これにより、例えば英語の発音様なパワーとピッチとが異なる場合があるような発音でも両者の違いを視認することができる。
【0045】
この表示の第4の例としては、図16のようにモデル発音としての文章29が例えば上側又は下側に配置するようにしてもよい。
【0046】
これにより、学習者は、モデル発音と自己の発音の違いを視覚的・客観的に明確かつ容易に理解することができる。従って、学習者の学習効率を向上させることができる。
【0047】
図13〜16の表示例では、記号31は文章29の下に、音調曲線32は文章29に重なるように配置されるようになっているが、逆の組み合わせでも良し、記号31及び音調曲線32が、共に文章29に重ならないようにしても良い。
【0048】
この発明の実施形態によれば、学習者は、予め用意された文章を発音表示装置1に音声取得部7を使用して録音する。発音表示装置1は、録音された発音の音声情報に含まれる要素を分析して抽出し、要素の信号レベルによって予め決められた基準に基づいてその要素の信号レベルを記号31や音調曲線32に変換して表示部5に表示する。
よって、このような発音表示装置1(発音表示方法)は、発音を学習者に対して容易に視覚的・客観的に認識させることができる。このため、学習者は、発音の分析結果を理解するのに専門知識を必要としない。学習者は、例えば外国語等のように不慣れな語学を学習する際に、発音の矯正を容易に行うことができる。また、発音表示装置1は、例えば言語障害者の発話指導にも適用することができる。また、発音表示装置1は、一般的に普及しているいわゆるパーソナルコンピュータのようなコンピュータを使用しているので、安価に製造することができる。
【0049】
ところでこの発明は上述した実施形態に限定されるものではない。
上述の実施形態では、語学を学習することが前提として説明されているがこれに限られず、音を視覚的に表示するようなもの全般に適用することができる。
【0050】
【発明の効果】
以上説明したように、この発明によれば、発音を容易に視覚的・客観的に認識することができる安価な発音表示装置、発音表示方法及び発音表示機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体を提供することができる。
【図面の簡単な説明】
【図1】この発明の好ましい実施形態としての発音表示装置の外観の一例を示す斜視図。
【図2】図1の発音表示装置の詳細な電気的な構成例を示すブロック図。
【図3】図1のイントネーション表示システムの処理の一例を示すソフトウェア構成図。
【図4】ピッチ成分を標準化する方法を示す図。
【図5】パワー成分を標準化する方法を示す図。
【図6】学習者によって発音された図3の学習者性質情報45に格納された音声情報の特性を表す図。
【図7】図6の波形を単純化して表示するための単純化方法を示す図。
【図8】図6の音声情報を軸を変更して表した特性を示す図。
【図9】学習者の発音を標準化して登録する処理の一例を示すフローチャート。
【図10】図1の画面の一例を示す図。
【図11】学習者の発音を記号化して表示する処理の一例を示すフローチャート。
【図12】図1の画面の一例を示す図。
【図13】図1の画面の一例を示す図。
【図14】図1の画面の一例を示す図。
【図15】図1の画面の一例を示す図。
【図16】図1の画面の一例を示す図。
【符号の説明】
1・・・発音表示装置(イントネーション表示システム)、3・・・ポインティングデバイス、5・・・表示部(表示手段)、7・・・音声取得部(録音手段)、15・・・情報記録媒体(発音表示機能を有するプログラムを記録したコンピュータ読み取り可能な情報記録媒体)、21・・・コンピュータ(発音表示手段)、23・・・音声出力部、29・・・文章、38・・・抽出処理部(抽出手段)、39・・・分類処理部(分類手段)、40・・・標準値変換処理部(標準値変換手段)、41・・・記号変換処理部(変換表示手段)、43・・・表示処理部(変換表示手段、表示手段)
Claims (6)
- 予め用意された文章を学習者に読ませてその発音を録音し、前記発音を分析して予め決められた基準に基づいて前記発音の状態を表示手段に表示するための発音表示装置であって、
前記発音を録音するための録音手段と、
録音された前記発音の強弱を表すパワー及び高低を表すピッチのそれぞれの信号レベルを抽出するための抽出手段と、
抽出された前記パワー及び前記ピッチをそれぞれ複数の段階に分類するための分類手段と、
予め決められた基準に基づいて、分類された前記パワーを複数の段階を表す強弱記号に変換し、且つ、分類された前記ピッチを複数の高低を表す音調曲線に変換し、前記予め用意された文章と、前記強弱記号と、前記音調曲線とを前記表示手段に表示する変換表示手段と、を備え、
前記予め決められた基準として、事前に前記学習者により発音された音声情報が上記抽出手段により分析され、標準値に変換されて学習者声質情報記憶部に記憶された基準範囲情報が用いられ、
前記強弱記号は、前記予め用意された文章の近傍に表示され、
前記音調曲線は、前記予め用意された文章に重なるように表示されることを特徴とする発音表示装置。 - 前記変換表示手段は、
前記予め用意された文章のモデル発音を示す表示を前記表示手段にさらに表示することを特徴とする請求項1に記載の発音表示装置。 - 予め用意された文章を学習者に読ませてその発音を録音し、前記発音を分析して予め決められた基準に基づいて前記発音の状態を表示手段に表示するための発音表示方法であって、
前記発音を録音し、
録音された前記発音の強弱を表すパワー及び高低を表すピッチのそれぞれの信号レベルを抽出し、
抽出された前記パワー及び前記ピッチをそれぞれ複数の段階に分類し、
予め決められた基準に基づいて、分類された前記パワーを複数の段階を表す強弱記号に変換し、且つ、分類された前記ピッチを複数の高低を表す音調曲線に変換し、前記予め用意された文章と、前記強弱記号と、前記音調曲線とを前記表示手段に表示し、
前記予め決められた基準として、事前に前記学習者が発音した音声情報を分析し、標準値に変換して学習者声質情報記憶部に記憶した基準範囲情報を用い、
前記強弱記号を前記予め用意された文章の近傍に表示し、前記音調曲線を前記予め用意された文章に重なるように表示することを特徴とする発音表示方法。 - 前記変換表示手段は、
前記予め用意された文章のモデル発音を示す表示を前記表示手段に表示することを特徴とする請求項3に記載の発音表示方法。 - 予め用意された文章を学習者に読ませてその発音を録音し、前記発音を分析して予め決められた基準に基づいて前記発音の状態を表示手段に表示するための発音表示機能を実行させるプログラムであって、
前記発音を録音し、
録音された前記発音の強弱を表すパワー及び高低を表すピッチのそれぞれの信号レベルを抽出し、
抽出された前記パワー及び前記ピッチをそれぞれ複数の段階に分類し、
予め決められた基準に基づいて、分類された前記パワーを複数の段階を表す強弱記号に変換し、且つ、分類された前記ピッチを複数の高低を表す音調曲線に変換し、前記予め用意された文章と、前記強弱記号と、前記音調曲線とを前記表示手段に表示し、
前記予め決められた基準として、事前に前記学習者が発音した音声情報を分析し、標準 値に変換して学習者声質情報記憶部に記憶した基準範囲情報を用い、
前記強弱記号を前記予め用意された文章の近傍に表示し、前記音調曲線を前記予め用意された文章に重なるように表示することを特徴とする発音表示機能をコンピュータに実行させるためのプログラム。 - 前記変換表示手段は、
前記予め用意された文章のモデル発音を示す表示を前記表示手段に表示することを特徴とする請求項5に記載の発音表示機能をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24042598A JP3988270B2 (ja) | 1998-08-26 | 1998-08-26 | 発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24042598A JP3988270B2 (ja) | 1998-08-26 | 1998-08-26 | 発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000075778A JP2000075778A (ja) | 2000-03-14 |
JP3988270B2 true JP3988270B2 (ja) | 2007-10-10 |
Family
ID=17059299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24042598A Expired - Fee Related JP3988270B2 (ja) | 1998-08-26 | 1998-08-26 | 発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3988270B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4543919B2 (ja) * | 2004-12-22 | 2010-09-15 | ヤマハ株式会社 | 語学学習装置 |
KR101333946B1 (ko) * | 2013-05-13 | 2013-11-27 | 김미정 | 스마트기기를 이용한 드로잉기법 기반의 영어 말하기 학습 기구 |
-
1998
- 1998-08-26 JP JP24042598A patent/JP3988270B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000075778A (ja) | 2000-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6397185B1 (en) | Language independent suprasegmental pronunciation tutoring system and methods | |
US7280964B2 (en) | Method of recognizing spoken language with recognition of language color | |
US6134529A (en) | Speech recognition apparatus and method for learning | |
US6963841B2 (en) | Speech training method with alternative proper pronunciation database | |
JP3520022B2 (ja) | 外国語学習装置、外国語学習方法および媒体 | |
RU2340007C2 (ru) | Устройство и способ для произнесения фонем | |
Chun | Teaching tone and intonation with microcomputers | |
TW556152B (en) | Interface of automatically labeling phonic symbols for correcting user's pronunciation, and systems and methods | |
US20070003913A1 (en) | Educational verbo-visualizer interface system | |
JP2001159865A (ja) | 対話型語学指導のための方法および装置 | |
Hincks | Technology and learning pronunciation | |
US20060053012A1 (en) | Speech mapping system and method | |
JP2000019941A (ja) | 発音学習装置 | |
Lambacher et al. | Identification of English voiceless fricatives by Japanese listeners: The influence of vowel context on sensitivity and response bias | |
Hiller et al. | An Automated System for Computer‐Aided Pronunciation Learning | |
Kabashima et al. | Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings | |
Hamidi et al. | Automatic Speech Recognition: A Shifted Role in Early Speech Intervention? | |
JP3988270B2 (ja) | 発音表示装置、発音表示方法及び発音表示機能をコンピュータに実行させるためのプログラム | |
Price et al. | Assessment of emerging reading skills in young native speakers and language learners | |
WO1999013446A1 (en) | Interactive system for teaching speech pronunciation and reading | |
WO2001082291A1 (en) | Speech recognition and training methods and systems | |
JP2006139162A (ja) | 語学学習装置 | |
JP3621624B2 (ja) | 外国語学習装置、外国語学習方法および媒体 | |
JP2001282096A (ja) | 外国語発音評価装置 | |
JP2007071904A (ja) | 地域別発音学習支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070403 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070709 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |