JP2006139162A - 語学学習装置 - Google Patents

語学学習装置 Download PDF

Info

Publication number
JP2006139162A
JP2006139162A JP2004329983A JP2004329983A JP2006139162A JP 2006139162 A JP2006139162 A JP 2006139162A JP 2004329983 A JP2004329983 A JP 2004329983A JP 2004329983 A JP2004329983 A JP 2004329983A JP 2006139162 A JP2006139162 A JP 2006139162A
Authority
JP
Japan
Prior art keywords
voice
user
model
language learning
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004329983A
Other languages
English (en)
Inventor
Sukeyuki Shibuya
資之 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004329983A priority Critical patent/JP2006139162A/ja
Publication of JP2006139162A publication Critical patent/JP2006139162A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】 発音の悪い部分あるいは間違った部分を容易に特定できる語学学習システムを提供すること。
【解決手段】 本発明は、模範音声を記憶する模範音声記憶手段と、ユーザの音声であるユーザ音声を取得する音声取得手段と、前記模範音声記憶手段に記憶された模範音声と、前記音声取得手段により取得されたユーザ音声を比較する比較手段と、前記比較手段による比較結果に基づいて、前記模範音声と前記ユーザ音声との相違点を抽出する相違点抽出手段と、前記相違点抽出手段により抽出された相違点が存在する部分について強調すべき態様を指示する強調指示データを生成する強調手段と、前記強調手段により生成された強調指示データに基づく態様に合わせて前記模範音声を出力する出力手段と、を有する語学学習装置を提供する。
【選択図】 図3

Description

本発明は、語学学習を支援する語学学習システムに関する。
外国語あるいは母国語の語学学習、特に、発音あるいは発話の独習においては、CD(Compact Disk)等の記録媒体に記録された模範音声を再生し、その模範音声の真似をして発音あるいは発話するという学習方法が広く用いられている。これは模範音声の真似をすることで正しい発音を身につけることを目的とするものである。ここで、学習をより効果的に進めるためには、模範音声と自分の音声との差を客観的に評価する必要がある。しかし、CDに記録された模範音声を聞いてその真似をするだけでは、自分の発した音声と模範音声との差を具体的に把握することが困難であるという問題があった。
このような問題を解決する技術として、例えば特許文献1に記載の技術がある。特許文献1には、ユーザが発した音声の抑揚と模範音声の抑揚とを比較し、差がある部分について修正指示を行う技術が開示されている。
特開2002−244547号公報
しかし、特許文献1に記載の技術によれば、ユーザが発した音声の抑揚と模範音声の抑揚との比較はできるものの、ユーザの発音と模範音声の発音が異なっている部分(ユーザの発音の悪い部分あるいは間違った部分)を具体的に特定することは困難であった。
本発明は上述の事情に鑑みてなされたものであり、自分の発音の悪い部分あるいは間違った部分を容易に特定できる語学学習システムを提供することを目的とする。
上記の課題を解決するため、本発明は、模範音声を記憶する模範音声記憶手段と、ユーザの音声であるユーザ音声を取得する音声取得手段と、前記模範音声記憶手段に記憶された模範音声と、前記音声取得手段により取得されたユーザ音声を比較する比較手段と、前記比較手段による比較結果に基づいて、前記模範音声と前記ユーザ音声との相違点を抽出する相違点抽出手段と、前記相違点抽出手段により抽出された相違点が存在する部分について強調すべき態様を指示する強調指示データを生成する強調手段と、前記強調手段により生成された強調指示データに基づく態様に合わせて前記模範音声を出力する出力手段と、を有する語学学習装置を提供する。
この語学学習装置によれば、模範音声とユーザ音声との差異点が抽出され、差異点に相当する部分が強調されて出力される。したがって、ユーザは自分の発音の悪い部分あるいは間違った部分を容易に特定できる。
好ましい態様において、前記模範音声記憶手段が模範音声とその模範音声を特定する文字列とを記憶しており、前記語学学習装置が、前記模範音声記憶手段に記憶された模範音声から、前記ユーザ音声と最も近いものを検索する検索手段と、前記検索手段により検索された模範音声を特定する文字列を表示する表示手段とを有する。
この態様によれば、自分の発音が間違っていた場合に、その間違った発音に対応する文字列が表示されるので、ユーザは自分の間違いがどのようなものであったか認識することができる。
さらに別の好ましい態様において、この語学学習装置は、前記ユーザ音声を記憶するユーザ音声記憶手段と、前記ユーザ音声記憶手段に記憶されたユーザ音声から、前記ユーザの音声パラメータを取得するパラメータ取得手段と、前記パラメータ取得手段により取得された音声パラメータに基づいて声質変換を行う声質変換手段とを有する。
この態様によれば、ユーザ音声と模範音声とで異なる部分があった場合は、差異点が強調された模範音声がユーザ自身の声に近い声で再生されるため、ユーザはその模範音声の真似をしやすくなり、より効果的に学習を行うことができる。
この語学学習装置によれば、自分の発音の悪い部分あるいは間違った部分が強調されるので、その部分を容易に特定することができる。また、模範音声のうち間違った部分に対応する箇所が強調されるので、それを真似することにより効果的に学習を行うことができる。
以下、図面を参照して本発明の実施形態について説明する。
<第1実施形態>
図1は、本発明の第1実施形態に係る語学学習装置100のハードウェア構成を示すブロック図である。CPU(Central Processing Unit)101は、RAM(Random Access Memory)102を作業エリアとして、ROM(Read Only Memory)103あるいはHDD(Hard Disk Drive)104に記憶されているプログラムを読み出して実行する。HDD104は、各種アプリケーションプログラムやデータを記憶する記憶装置である。本実施形態に関して、特に、HDD104は、語学学習プログラム、この語学学習プログラムで使用する模範音声データを記録した模範音声データベースDB1、およびテキストデータから音声合成を行う際に使用する音節辞書D1を記憶している(後述)。
ディスプレイ105は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等、CPU101の制御下で文字や画像を表示する表示装置である。マイク106は、ユーザの音声を取得するための集音装置であり、ユーザの発した音声に対応する音声信号を出力する。音声処理部107は、マイク106により出力されたアナログ音声信号をデジタル音声データに変換する機能や、HDD104に記憶された音声データを音声信号に変換してスピーカ108に出力する機能を有する。また、ユーザはキーボード109を操作することにより、語学学習装置100に対して指示入力を行うことができる。各構成要素は、バス110を介して相互に接続されている。
図2は、模範音声データベースDB1の内容を示す図である。模範音声データベースDB1は、語学学習に用いる例文(例えば、英語の学習において「How was your weekend?」等の例文)のテキストデータを記憶した例文テキストデータベースDB2、および音節単位の音声波形をデジタル化した音声波形データと発音記号等その音節を特定する識別子とを記憶した音節データベースDB3から構成される。後述するように、CPU101は、例文のテキストデータに基づいて、必要な音声波形データを組み合わせることにより例文の音声データを生成する。
さらにHDD104には、本実施形態に係る語学学習プログラムが記憶されている。CPU101がこの語学学習プログラムを実行することにより、語学学習装置100は本実施形態に係る語学学習装置としての機能を具備する。
図3は、語学学習装置100の機能構成を示すブロック図である。模範音声記憶部111は、模範音声の音声データを記憶しており、図1に示すハードウェア構成におけるHDD104に相当する。音声比較部112は、音声取得部115により取得したユーザ音声と模範音声とを比較し、差異点を抽出する。差異点強調部113は、音声比較部112が抽出した差異点に基づいて、模範音声において差異があった箇所を強調する。出力部114は、差異点強調部113により強調された差異点を、音声あるいは映像として出力する。ユーザはこの強調された差異点を聴覚的あるいは視覚的に認識することができる。
続いて、語学学習装置100の動作について説明する。
ユーザがキーボード109を操作して語学学習プログラムの実行を指示すると、CPU101は、HDD104から語学学習プログラムを読み出して実行する。語学学習プログラムを実行することにより、語学学習装置100は図3に示す機能を具備する。
図4は、本実施形態に係る語学学習装置100の動作を示すフローチャートである。
語学学習プログラムを実行すると、ディスプレイ105上に、例文の選択を促すメッセージが表示される。ユーザはディスプレイ105上に表示されたメッセージに従い、例文を選択する(ステップS101)。CPU101は選択された例文に基づいて例文の音声データを生成する(ステップS102)。具体的には次のとおりである。
CPU101は、例文テキストデータベースDB2に記録されている例文テキストデータから、選択された例文に対応するものを抽出する。CPU101は、例文を単語毎に分解し、HDD104に記憶されている音節辞書D1を参照して音節データを組み合わせて単語の音声データとする。ここで、音節辞書D1は、単語と、その単語に対応する発音記号を音節に区分して記録した辞書である。CPU101は、発音記号に基づいて音節ごとの音声データを抽出する。CPU101は、こうして生成された単語の音声データをさらに結合し、単語間に適切な間を挿入する等の後処理を行い例文の模範音声データを生成する。音声データを結合する際には補間処理等の必要な処理を行う。CPU101は、生成した模範音声データを音声処理部107に出力する。
音声処理部107は受け取った模範音声データをデジタル/アナログ変換して例文の模範音声信号を生成する。音声処理部107は、生成した模範音声信号をスピーカ108に出力する。こうしてスピーカ108から模範音声が出力される(ステップS103)。なお、このとき音声と同時に例文のテキストデータをディスプレイ105に表示してもよい。模範音声を再生した後、CPU101は、ディスプレイ105にユーザに発声を促すメッセージを表示する。
スピーカ108から発せられた模範音声を聞いたユーザは、マイク106に向かって、模範音声を真似て例文を発声する。マイク106は、ユーザの発した音声を電気信号に変換し、ユーザ音声信号として出力する(ステップS104)。
音声比較部112は、マイク106から出力されたユーザ音声信号をアナログ/デジタル変換して得られたユーザ音声データと、模範音声データとを比較し、差異点を抽出する(ステップS105)。この処理は例えば次のように行われる。音声比較部112は、模範音声データを音節に分解する。模範音声データは、音節の区切り位置を示す情報を含んでいる。音節の区切り位置を示す情報は、例えば音節ごとの音声データを結合する際に付加される。模範音声データはこの情報に基づいて音節に分解される。音声比較部112はさらに、ユーザ音声データを、模範音声データと同じ位置で音節に分解する。音声比較部112は、音節に分解された模範音声データが示す波形およびユーザ音声信号が示す波形をフーリエ変換して得られた振幅スペクトルの対数を求め、それをフーリエ逆変換して音節ごとのスペクトル包絡を得る。
図5は、模範音声(上)およびユーザ音声(下)のスペクトル包絡を例示する図である。図5に示されるスペクトル包絡は、音節I、音節II、音節IIIの3つの音節から構成されている。音声比較部112は、得られたスペクトル包絡を音節ごとに比較する。音声比較部112は、模範音声のスペクトル包絡とユーザ音声のスペクトル包絡との差異が、あらかじめ決められたしきい値を超えた場合は、その音節の発音が悪いものと判断する。模範音声とユーザ音声との差異は、例えば、特徴的なフォルマントの周波数とスペクトル密度とをスペクトル密度−周波数図に表したときの2点間の距離によって求めてもよいし、特定の周波数においてスペクトル密度を比較することによって求めてもよい。図5に示される例では、CPU101は音節IIについて発音がわるいものと判断する。CPU101は
、発音が悪い部分があったことを示すフラグを記録したデータFを生成し、RAM102に記憶する。発音が悪い部分が無い場合は、CPU101は、そのことを示すデータFを生成し、RAM102に記憶する。さらに、音声比較部112は、その音節の発音の良否を示すフラグを記録したデータDを生成し、RAM102に記憶する。すなわち、データDは、音節ごとにユーザの発音の良否を示している。音声比較部112はこのようにしてすべての音節について模範音声のスペクトルとユーザ音声のスペクトルを比較する。RAM102には、発音が悪い(模範音声と異なる)と判断された音節を特定するデータDが記憶されている。
再び図4を参照して説明する。CPU101は、データFに基づいてユーザの発音に悪い部分(模範音声と異なっている部分)が存在するか否か判断する(ステップS106)。ユーザの発音に悪い部分がある場合、CPU101は、以下で説明する差異点強調処理を行う(ステップS107)。これにより、差異点が強調された模範音声が再生される。ユーザの発音に悪い部分が無い場合、CPU101は「良好です」等のメッセージをディスプレイ105に表示する。そして次の例文に移行する等の処理を行う。
CPU101は、RAM102に記憶されたデータDに基づいて差異点強調処理を行う。差異点を強調する態様としては、再生速度を遅くする(ゆっくりと発音する)、音量を増加させる等が考えられるが、ここでは再生速度を遅くする態様について説明する。
CPU101は、変数aを設定しRAM102に記憶する。変数aは、発声速度を遅くする割合を示す変数である。本実施形態においては、変数aの初期値として「4」が設定される。これは、ユーザの発音が模範音声と異なっていた音節について、再生速度を1/4に低下させることを意味する。
CPU101は、RAM102に記憶された変数aおよびデータDを参照して模範音声データをに対し差異点強調処理を行う。すなわち、ユーザの発音が模範音声と異なっていたことを示すフラグが立っている音節については、音声波形を時間軸方向にa倍するようにデータを加工する。本実施形態において、CPU101は音節IIについて再生速度が1
/4となるようにデータを加工する。CPU101は、こうして差異点強調処理を施した模範音声データを音声処理部107に出力する。音声処理部107は、前述の場合と同様に模範音声データをデジタル/アナログ変換して差異点が強調された例文の模範音声信号を生成する。音声処理部107は、生成した模範音声信号をスピーカ108に出力する。こうしてスピーカ108から模範音声が出力される。このとき、ユーザの発音が模範音声と異なっていた部分がゆっくりと再生される。例えば、「How was your weekend?」の「was」の部分の発音が模範音声と異なっていた場合には、他の部分と比較して「was」の部分が強調(デフォルメ)されてゆっくり(1/4のスピードで)と再生される。したがってユーザは、自分の発音が模範音声と異なっていた部分について強調された模範音声を聞くことにより、自分の発音の悪い部分を正確に認識することができる。
なお、上述の説明では1つの例文に対し強調の態様を示す変数aを1つ設定する場合について説明したが、強調の態様を示す変数を音節ごとに設定する構成としてもよい。その場合、データDは音節ごとの発音の良否と、発音が悪い場合の強調の態様を示す変数を指定するデータとを含む。
差異点が強調された模範音声を再生した後、CPU101は、ユーザに模範音声の発声を促すメッセージを表示する。模範音声と自分の発音が異なっていた部分が強調された模範音声を聞いたユーザは、マイク106に向かって再度模範音声を真似て例文を発音する。語学学習装置100は、標準速度で模範音声を再生したとき同様に、ユーザの発音の良否を判定する。ユーザの発音が悪いと判断された場合、CPU101は、変数aの値を1増加させる。そして前述の場合と同様に差異点強調処理を行う。このとき変数aの値は1増加しているので、ユーザの発音が模範音声と異なっていた部分は、さらにゆっくりと(1/5のスピードで)再生される。
逆に、ユーザの発音がよいと判断された場合、CPU101は、変数aの値を1減少させる。そして前述の場合と同様に差異点強調処理を行う。このとき変数aの値は1減少しているので、発音の悪かった部分は1回目のときよりも標準速度に近いスピードで再生される。差異点が強調された模範音声を再生した後、CPU101は、再度ユーザに模範音声の発声を促すメッセージを表示する。
以上の処理を繰り返し実行することにより、ユーザの発音の悪かった部分は最初ゆっくりと再生されるが、ユーザの発音が改善されるにつれてだんだんと標準速度に近づいていく。逆にユーザの発音が改善されない場合はさらにゆっくりと再生されるようになる。このように、発音が悪かった部分は強調されて再生されるので、ユーザは自身の発音が悪かった部分を正確に認識することができる。また、強調された音声はユーザの発音が改善されるにつれて徐々に標準状態に近づいていくので、ユーザの習熟状況に応じて強調の度合いを変化させることができる。
<第2実施形態>
続いて、本発明の第2実施形態について説明する。
図6は、本実施形態に係る語学学習装置200の機能構成を示すブロック図である。図6において、第1実施形態に係る語学学習装置100と共通する構成要素には同一の参照番号を付している。語学学習装置100と共通する構成要素についてはその説明を省略する。また、語学学習装置200のハードウェア構成は語学学習装置100と同一であるのでその説明を省略する。
パラメータ記憶部117は、ユーザの声の特徴を示すパラメータであるユーザ音声パラメータを記憶している。音質変換部116は、パラメータ記憶部117に記憶されたユーザ音声パラメータと、模範音声データベースDB1に記録された音声データとに基づいて声質変換を行う。すなわち、本実施形態においては、差異点を強調した模範音声を再生する際に、ユーザ自身の声(によく似た合成音声)で模範音声が再生される。したがってユーザは自分の声を真似すればよいので、発音を真似しやすい。
続いて本実施形態における語学学習装置200の動作について説明する。
ユーザがキーボード109を操作して語学学習プログラムの実行を指示すると、CPU101は、HDD104から語学学習プログラムを読み出して実行する。語学学習プログラムを実行することにより、語学学習装置200は図6に示す機能を具備する。
図7は語学学習装置200の動作を示すフローチャートである。第1実施形態で説明したように、まずユーザが例文を選択する(ステップS201)。CPU101は選択された例文に基づいて例文の音声データを生成する(ステップS202)。生成された音声データは音声処理部107においてデジタル/アナログ変換された後にスピーカ108から模範音声として出力される(ステップS203)。ユーザは模範音声を真似して例文を発声する(ステップS204)。ユーザの音声はマイク106から音声信号として出力される。CPU101は、模範音声とユーザ音声との差異点を抽出し(ステップS205)、必要であれば(ステップS206:YES)第1実施形態と同様に差異点強調処理を行う(ステップS207)。ここまでの動作は第1実施形態と同一であるので詳細な説明は省略する。
続いてCPU101は、差異点が強調された模範音声データを基にして、声質変換処理を行う(ステップS208)。声質変換処理は、例えば以下のように行われる。
HDD104は、ユーザの音声を特徴つけるパラメータであるユーザ音声パラメータを記憶している。本実施形態において、パラメータとしては音声信号のピッチ、および周波数と振幅の組が記憶されている。ユーザ音声パラメータは、あらかじめHDD104に記憶しておいてもよいし、語学学習装置200における語学学習の開始時にパラメータ採取に必要な基本文をユーザに発生させ、パラメータを採取することとしてもよい。
CPU101は、差異点が強調された模範音声データを周波数成分と振幅成分に分離する。CPU101は、得られた周波数成分および振幅成分を正規化する。CPU101は、正規化された周波数成分に、ユーザ音声パラメータのピッチ情報を混合する。さらに、CPU101は振幅成分に対してもユーザ音声パラメータの振幅情報を混合する。なお、これらの混合の際に、混合の割合を可変とする構成としてもよい。
CPU101はこうしてユーザ音声パラメータが反映された周波数成分および振幅成分から、音声波形を生成する。この音声はユーザの声に近いものとなっている。CPU101は生成した音声データを音声処理部107に出力する。音声処理部107は、音声データをデジタル/アナログ変換してスピーカ108に出力する。スピーカ108からは、模範音声との差異点が強調され、かつユーザ自身の声に似せられた音声が出力される。
差異点が強調された模範音声を再生した後、CPU101は、ユーザに模範音声の発声を促すメッセージを表示する。模範音声と自分の発音が異なっていた部分が強調された模範音声を聞いたユーザは、マイク106に向かって再度模範音声を真似て例文を発音する。語学学習装置200は、標準速度で模範音声を再生したとき同様に、ユーザの発音の良否を判定する。ユーザの発音が悪いと判断された場合、CPU101は、差異点をさらに強調して再生し、発音が改善したと判断された場合は、CPU101は、強調された差異点を元の自然な発音に近づける。
以上の処理を繰り返し実行することにより、ユーザの発音の悪かった部分は最初ゆっくりと再生されるが、ユーザの発音が改善されるにつれてだんだんと標準速度に近づいていく。逆にユーザの発音が改善されない場合はさらにゆっくりと再生されるようになる。この際、差異点が強調された音声はユーザ自身の声に似た声で再生されるので、ユーザは自分の声を真似すればよく、正しい発音を理解しやすい。
<変形例>
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。
上述の実施形態においては、ユーザ音声を音節に分解する際に、模範音声の音節と同じ位置で音節に分解する態様について説明したが、本発明はこれに限定されるものではない。例えば、ユーザ音声と模範音声とをそれぞれフーリエ変換したスペクトルを比較してピークの対応付けを行うことにより、音声スペクトルを基に音節に分解する構成としてもよい。
また、ユーザ音声と模範音声に差異点があった場合に、音声データの強調処理に加えて、ディスプレイ105に発音が悪い部分を表示する構成としてもよい。CPU101は、発音が悪い音節を特定するフラグを記録したデータDに基づいて発音が悪い音節を特定し、その音節に対応する部分をディスプレイ105上で明示する。例えば、「How was your weekend?」の「was」の部分の発音が模範音声と異なっていた場合には、ディスプレイ105に「How ??? your weekend?」のように表示する。これにより、ユーザは聴覚および視覚の両面から、自分の発音の悪い部分を確認することができる。
さらに、発音の悪い部分があった場合に、音声データの強調処理に加えて、その発音の悪い部分がネイティブスピーカーにはどのように聞こえているかを表示する構成としてもよい。この場合、CPU101は、ユーザの発音が悪い音節が存在した場合、音節データベースDB3から、波形の似た音声データを検索する。CPU101は、検索した音声データに対応付けられている発音記号から、これに対応するアルファベットの文字列を抽出する。CPU101は、この文字列を発音が悪い音節に対応する部分に表示する。例えば、ユーザの「rice」という言葉の発音が悪かった場合、CPU101は音節データベースDB3を検索し、「lice」という言葉を抽出する。そして例文の「rice」に代えて「lice」という文字列を表示する。この際、大きい文字で表示したり、文字色を変えたりといったように、発音が悪い部分を特定できるように表示する。
また、上述の実施形態においては、模範音声データベースDB1に記憶されている模範音声は音節単位のものであったが、これは単語単位あるいは文単位で区分された音声であったもよい。
また、上述の実施形態においては、CPU101が語学学習プログラムを実行することにより、各実施形態に係る語学学習装置が図3あるいは図6に示される機能を具備する態様について説明したが、各実施形態に係る語学学習装置が図3あるいは図6に示される各機能構成要素に対応する回路等を有する構成としてもよい。
本発明の第1実施形態に係る語学学習装置100のハードウェア構成を示すブロック図である。 模範音声データベースDB1の内容を示す図である。 語学学習装置100の機能構成を示すブロック図である。 同実施形態に係る語学学習装置100の動作を示すフローチャートである。 模範音声(上)およびユーザ音声(下)のスペクトル包絡を例示する図である。 本発明の第2実施形態に係る語学学習装置200の機能構成を示すブロック図である。 同実施形態に係る語学学習装置200の動作を示すフローチャートである。
符号の説明
100…語学学習装置、101…CPU、102…RAM、103…ROM、104…HDD、105…ディスプレイ、106…マイク、107…音声処理部、108…スピーカ、109…キーボード、110…バス、111…模範音声記憶部、112…音声比較部、113…差異点強調部、114…出力部、116…音質変換部、117…パラメータ記憶部、200…語学学習装置

Claims (3)

  1. 模範音声を記憶する模範音声記憶手段と、
    ユーザの音声であるユーザ音声を取得する音声取得手段と、
    前記模範音声記憶手段に記憶された模範音声と、前記音声取得手段により取得されたユーザ音声を比較する比較手段と、
    前記比較手段による比較結果に基づいて、前記模範音声と前記ユーザ音声との相違点を抽出する相違点抽出手段と、
    前記相違点抽出手段により抽出された相違点が存在する部分について強調すべき態様を指示する強調指示データを生成する強調手段と、
    前記強調手段により生成された強調指示データに基づく態様に合わせて前記模範音声を出力する出力手段と、
    を有する語学学習装置。
  2. 前記模範音声記憶手段が模範音声とその模範音声を特定する文字列とを記憶しており、
    前記語学学習装置が、
    前記模範音声記憶手段に記憶された模範音声から、前記ユーザ音声と最も近いものを検索する検索手段と、
    前記検索手段により検索された模範音声を特定する文字列を表示する表示手段と、
    をさらに有する請求項1に記載の語学学習装置。
  3. 前記ユーザ音声を記憶するユーザ音声記憶手段と、
    前記ユーザ音声記憶手段に記憶されたユーザ音声から、前記ユーザの音声パラメータを取得するパラメータ取得手段と、
    前記パラメータ取得手段により取得された音声パラメータに基づいて声質変換を行う声質変換手段と、
    をさらに有する請求項1に記載の語学学習装置。
JP2004329983A 2004-11-15 2004-11-15 語学学習装置 Withdrawn JP2006139162A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004329983A JP2006139162A (ja) 2004-11-15 2004-11-15 語学学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004329983A JP2006139162A (ja) 2004-11-15 2004-11-15 語学学習装置

Publications (1)

Publication Number Publication Date
JP2006139162A true JP2006139162A (ja) 2006-06-01

Family

ID=36620019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004329983A Withdrawn JP2006139162A (ja) 2004-11-15 2004-11-15 語学学習装置

Country Status (1)

Country Link
JP (1) JP2006139162A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040344A (ja) * 2006-08-09 2008-02-21 Yamaha Corp 音声評価装置
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム
JP2017009872A (ja) * 2015-06-24 2017-01-12 カシオ計算機株式会社 学習支援装置およびプログラム
JP2021043306A (ja) * 2019-09-10 2021-03-18 カシオ計算機株式会社 電子機器、音声再生方法、およびプログラム
JP2021110874A (ja) * 2020-01-14 2021-08-02 シンレイ チョウ 発話練習プログラム、発話練習方法、及び、発話練習装置
WO2021251222A1 (ja) * 2020-06-08 2021-12-16 ソニーグループ株式会社 学習装置、提示装置及び技術習得方法
WO2023152942A1 (ja) * 2022-02-14 2023-08-17 株式会社ムゴン 言語学習システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040344A (ja) * 2006-08-09 2008-02-21 Yamaha Corp 音声評価装置
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム
JP2017009872A (ja) * 2015-06-24 2017-01-12 カシオ計算機株式会社 学習支援装置およびプログラム
JP2021043306A (ja) * 2019-09-10 2021-03-18 カシオ計算機株式会社 電子機器、音声再生方法、およびプログラム
JP7379968B2 (ja) 2019-09-10 2023-11-15 カシオ計算機株式会社 学習支援装置、学習支援方法及びプログラム
JP2021110874A (ja) * 2020-01-14 2021-08-02 シンレイ チョウ 発話練習プログラム、発話練習方法、及び、発話練習装置
WO2021251222A1 (ja) * 2020-06-08 2021-12-16 ソニーグループ株式会社 学習装置、提示装置及び技術習得方法
WO2023152942A1 (ja) * 2022-02-14 2023-08-17 株式会社ムゴン 言語学習システム

Similar Documents

Publication Publication Date Title
US10347238B2 (en) Text-based insertion and replacement in audio narration
JP4536323B2 (ja) 音声−音声生成システムおよび方法
JP2008545995A (ja) ハイブリッド音声合成装置、方法および用途
WO2004063902B1 (en) Speech training method with color instruction
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
KR100659212B1 (ko) 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법
US20090197224A1 (en) Language Learning Apparatus, Language Learning Aiding Method, Program, and Recording Medium
JP2011186143A (ja) ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム
JP6013104B2 (ja) 音声合成方法、装置、及びプログラム
JP2001318592A (ja) 言語学習装置及びその言語分析方法
JP2002091472A (ja) 音声言語の韻律表示装置、再生装置、類似度判定装置、音声言語処理装置、および記録媒体
JP2006139162A (ja) 語学学習装置
AU769036B2 (en) Device and method for digital voice processing
JP2007139868A (ja) 語学学習装置
JP6289950B2 (ja) 読み上げ装置、読み上げ方法及びプログラム
JP6155102B2 (ja) 学習支援装置
JP4543919B2 (ja) 語学学習装置
JP3785892B2 (ja) 音声合成装置及び記録媒体
JP2001125599A (ja) 音声データ同期装置及び音声データ作成装置
KR20010046852A (ko) 속도변환을 이용한 대화형 언어 교습 시스템 및 그 방법
JP2001282096A (ja) 外国語発音評価装置
JP6957069B1 (ja) 学習支援システム
JP2013195928A (ja) 音声素片切出装置
CN111696530B (zh) 一种目标声学模型获取方法及装置
JP2006162760A (ja) 語学学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20070919

Free format text: JAPANESE INTERMEDIATE CODE: A621

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090128