JP2011232775A - 発音学習装置及び発音学習プログラム - Google Patents
発音学習装置及び発音学習プログラム Download PDFInfo
- Publication number
- JP2011232775A JP2011232775A JP2011161426A JP2011161426A JP2011232775A JP 2011232775 A JP2011232775 A JP 2011232775A JP 2011161426 A JP2011161426 A JP 2011161426A JP 2011161426 A JP2011161426 A JP 2011161426A JP 2011232775 A JP2011232775 A JP 2011232775A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice data
- segmentation
- configuration
- natural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【課題】学習者がネイティブ・スピーカーと同じ数の単音を知覚できるようにすることにより、外国語の発音を改善させるための発音学習装置を提供する。
【解決手段】この発音学習装置は、音声データ005を取得する音声データ取得手段016と、該音声データ取得手段によって取得された前記音声データ005を呈示する音声呈示手段007とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データ015からなる音声バリエーション014を構成する音声データであることを特徴とする。
【選択図】図3
【解決手段】この発音学習装置は、音声データ005を取得する音声データ取得手段016と、該音声データ取得手段によって取得された前記音声データ005を呈示する音声呈示手段007とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データ015からなる音声バリエーション014を構成する音声データであることを特徴とする。
【選択図】図3
Description
本発明は、外国語の習得を目的とする発音学習装置及び発音学習プログラムに関する。また、外国語の習得を目的とする発音学習教材の製造方法にも関する。
従来、外国語の発音学習は、カセットテープやCDに録音された手本となる音声を繰り返し聞き、模倣することにより行われてきた。しかしながら、この方法では学習に多大な時間がかかるうえ、必ずしも完全な習得には至らない。そのため、近年では、コンピュータ技術を応用した対話的な発音学習装置が提案されている。例えば、学習者が発声した音声から特徴を抽出し、スペクトル図やフォルマント図として画面上に表示してフィードバックすることにより、学習者が自分の発音の欠陥を判断しながら学習を進めることができる発音学習装置が実用化されている。しかしながら、このような装置を用いても、外国語の発音学習の困難さが抜本的に解決するとは言い難い。
日本語を母国語とする学習者にとって外国語の発音が苦手である原因の一つとして、同じ音声を聞いたときに、発音学習の対象である目標言語のネイティブ・スピーカーと、学習者とで、知覚する単音数が食い違う現象が挙げられる。例えば、英語のネイティブ・スピーカーが“la”という二つの単音として知覚する音声を、日本人の学習者は“ラ”という一つの単音として知覚する。なお、本発明においては、英語における音素や日本語におけるモーラなど、その言語を母国語とする者がスピーキングまたはヒアリングを行うときに心理的に1つと感じる音を単音と呼ぶ。従来の発音学習においては、この「単音数の食い違い現象」は、仕方のないことと見なされてきた。
本発明が解決しようとする課題は、学習者が目標言語のネイティブ・スピーカーと同じ数の単音を知覚できるようにすることにより、発音を抜本的に改善する発音学習装置を提供することである。なお、以下では目標言語として専ら英語を用いて例示するが、ドイツ語やフランス語など他の言語を目標言語とする場合においても同様の効果を得ることができる。
本発明が解決しようとする課題は、学習者が目標言語のネイティブ・スピーカーと同じ数の単音を知覚できるようにすることにより、発音を抜本的に改善する発音学習装置を提供することである。なお、以下では目標言語として専ら英語を用いて例示するが、ドイツ語やフランス語など他の言語を目標言語とする場合においても同様の効果を得ることができる。
リスニング時の「単音数の食い違い現象」を工学的なモデルとして捉えるならば、「リスニング時のヒトの脳内過程において、パターン認識の前処理として行われるセグメンテーション処理の様式が、同じ音声波形に対してであっても、母国語によって異なる現象」であると言える。図1に、脳内セグメンテーション処理の様式の違いを模式的に示す説明図を示す。このように連続した音声波形001が脳に入力されたとき、日本語型セグメンテーション様式で知覚する場合は、切り出し区間002のように、全体的に1つの断片として切り出されるのに対し、英語型セグメンテーション様式で知覚する場合は、切り出し区間(子音部分)003と切り出し区間(母音部分)004のように、二つの別々の断片として切り出される。これら切り出された断片が、より高次な認識機能の入力となるため、知覚する単音の数が異なってしまうと考えられる。もし、学習によって、学習者がネイティブ・スピーカーと同じセグメンテーション様式で知覚できるようになれば、この「単音数食い違い現象」に起因する発音の困難さは解決するはずである。
本発明における第一の解決手段は、聴覚的学習時に、呈示中の音声がどのようなセグメンテーション様式で知覚すべきかを学習者に意識させることを目的とする。図2は、構成01に記載の発音学習装置の基本構成図である。この発音学習装置は、音声データ005を記憶する音声データ記憶手段006と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターン009を記憶するセグメンテーションパターン記憶手段010と、前記セグメンテーションパターン009の区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成手段011と、前記音声データ005を呈示する音声呈示手段007と、該音声呈示手段による音声008の呈示と同期させて前記タイミング刺激013を呈示するタイミング刺激呈示手段012とからなることを特徴とする。
本発明においては、音声データを時間軸上で複数の区間に分割するパターンをセグメンテーションパターンと呼び、この音声データに対応付けることができる情報として扱う。これは、区間の区切りに相当する時刻によって表現される。また、本発明において、タイミング刺激とは、区間の切り替わりのタイミングを学習者に知覚させるための刺激であり、時間解像度が低すぎて利用できない嗅覚・臭覚以外の感覚、すなわち、視覚・聴覚・触覚のどれかを通して感覚刺激として与えられる。
好ましくは、前記セグメンテーションパターンは、一つ以上の単音区間と一つ以上の背景区間とからなる。単音区間の音声は脳内の高次認識部に認識対象として渡され、単音として意識に上る。一方、背景区間の音声は背景音として切り捨てられ、言語音としては意識には上らない。区間をこのように分類することにより、言語音として知覚すべき時間帯と、言語音として知覚すべきではない時間帯とを明示的に学習者に呈示することができる。知覚すべきではない時間帯とは、「渡り音」や「語頭ノイズ」などである。
渡り音に相当する区間を指定するためには、先行する単音の終了時刻と後続する単音の開始時刻の間にギャップとなる背景区間を設ける。なお、本発明において、ギャップとなる背景区間のことをギャップ区間と呼ぶ。渡り音とは音声学の概念であり、調音結合の一種である。二つの音素を連続して発するときに、その間の時間帯に生じる遷移的な音のことである。通常、渡り音の時間帯に音があることは意識されない。したがって、学習者は、目標言語のセグメンテーション様式における渡り音の時間帯の音は無意識下に閉じ込めるべきである。ただし、渡り音部分のみを人為的に切り取った音声を聞くと不自然に聞こえることから、この区間の音声は背景区間の音声であるとはいえ、無意識の領域において、その前後の単音の認識を副次的にサポートしている可能性は否定できない。
語頭ノイズに相当する区間を指定するためには、語頭の単音の開始時刻の前に無音ではない背景区間を設ける。語頭ノイズとは、本発明において定義する用語であり、例えば次のような場面で出くわす現象である。英語のネイティブ・スピーカーが“r”と“l”の音の違いを説明するとき、子音だけを引き伸ばして発音することがある。ところが、日本人は、“r”や“l”が持続している間は「う〜う〜と唸ってないで早く発音してくれ」と思い、渡り音が始まる頃から言語音として認識しようと注意を向けようとする。このように、日本語のセグメンテーション様式においては、語頭で不自然に長く子音が持続しているときには、ノイズとして処理され、言語音としては認識されない。このような区間を、本発明では語頭ノイズと呼び、背景区間として指定することができるものとする。
また、好ましくは、前記セグメンテーションパターン記憶手段とは別の第二セグメンテーションパターン記憶手段をもち、前記タイミング刺激は、前記セグメンテーションパターンの区間の切り替わりのタイミングと、前記第二セグメンテーションパターン記憶手段に記憶された第二セグメンテーションパターンの区間の切り替わりのタイミングとを、同時に学習者に知覚させることができる。この構成により、学習者は、母国語のセグメンテーション様式と目標言語のセグメンテーション様式とを対比しながら学習することができる。
さらにまた、好ましくは、前記タイミング刺激は、単音発音記号から成る。この構成により、単音の開始時刻や終了時刻だけでなく、単音が何であるかも含めて意識しながら学習することができる。なお、本発明において、単音発音記号とは、国際音声記号(IPA記号)による表記に限られず、単音を区別しうる記号全般を表す。視覚刺激における記号としては、通常のアルファベット表示やカタカナ表示などを用いてもよい。例えば、英語の単音発音記号として、英語の単音と1対1に対応するカタカナ表記を用いてもよい。聴覚刺激における記号としては、単音を孤立して発音させたものを発音記号として呈示してもよい。触覚における記号としては、点字記号を発音記号として呈示してもよい。
本発明における第二の解決手段は、聴覚的学習時に、目標言語にのみ起こりうる音声バリエーションを学習者に呈示することにより、母国語のセグメンテーション様式に基づいた単音列の知覚を抑制することを目的とする。図3に構成05に記載の発音学習装置の基本構成図を示す。この発音学習装置は、音声データ005を取得する音声データ取得手段016と、該音声データ取得手段によって取得された前記音声データ005を呈示する音声呈示手段007とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データ015からなる音声バリエーション014を構成する音声データであることを特徴とする。
本発明においては、自然な音声として知覚される音声を「自然音声」と定義し、その音声データを自然音声データと呼ぶ。これは、目標言語のネイティブ・スピーカーに自然に発声するよう指示して得られる音声データや、標準的なパラメータで音声合成された音声データのことを指す。一方、人為的な調整を加えた音声を「調整音声」と定義し、その音声データを調整音声データと呼ぶ。これは、目標言語のネイティブ・スピーカーに意図的に自然音声とは異なるように発声するよう指示して得られる音声、自然音声データをフィルタ処理によって人為的に変換した音声、または、非標準的なパラメータで音声合成した結果得られる音声を表す。
本発明において、目標言語特有変数とは、その変数の変更に伴って、目標言語のセグメンテーション様式で知覚した単音列を変化させることなく学習者の母国語のセグメンテーション様式で知覚した単音列を変化させる変数のことである。図4に、目標言語特有変数による音声調整の説明図を示す。学習者の母国語と目標言語とで、目標言語特有変数017の軸に沿った同一単音列として知覚される範囲が異なると考える。すなわち、母国語のセグメンテーション様式においては、この軸上の狭い範囲018でのみ、ある単音列として知覚されるが、目標言語のセグメンテーション様式においては、この軸上の広い範囲019において、ある単音列として知覚されるものとする。このとき、図4の自然音声020を聞けば、慣れ親しんできた母国語のセグメンテーション様式で知覚されてしまい、目標言語のセグメンテーション様式で知覚することは、どんなに学習者が努力しても困難である。しかしながら、図中の調整音声021を聞けば、母国語のセグメンテーション様式に引き摺られてしまうことはない。
そこで、まず調整音声を聞かせることにより、目標言語のセグメンテーション様式で知覚させるよう仕向ける。その直後に自然音声を聞けば、目標言語のセグメンテーション様式にて知覚する心理的な構えができているため、自然音声においても母国語のセグメンテーション様式ではなく目標言語のセグメンテーション様式にて知覚することが可能となる。さらに、調整音声と自然音声を交互に呈示することで、より効果的となる。
目標言語特有変数は、具体的には、目標言語における、単音間の背景区間の時間長、単音間の人為的分裂度、単音の持続時間長、または、単音の音響パラメータのことを指す。また、これら四種類の変数のうち、いくつかの変数を成分とするベクトルも目標言語特有変数である。なお、目標言語特有変数としては、秒やHzなどの単位をもつ物理量自体をもって絶対的に表現することもあれば、変数の分布範囲をいくつかのレベルに分け、その所属するレベルの番号をもって相対的に表現することもある。
目標言語特有変数の第一の選択肢は、目標言語における単音間の背景区間の時間長である。目標言語のネイティブ・スピーカーに背景区間の時間長が十分に大きくなるよう発声の指示を行えば、各単音は孤立して発音されることとなる。例として、自然音声として自然な速度で発された“la”を、調整音声として“l”と“a”を孤立させて発音させた場合を考える。英語型セグメンテーション様式では、これらの音声は、デジタルな記号列として見れば、共に“l+a”という単音列として知覚される。一方、日本語型のセグメンテーション様式では、自然音声は“ラ”の一単音と知覚され、調整音声は“l+ア”の二単音として、知覚される。このように、自然音声と調整音声との間で、目標言語のセグメンテーション様式で知覚したときの単音列は変化せずに、学習者母国語のセグメンテーション様式で知覚したときの単音列は変化しているため、この「単音間の背景区間の時間長」は目標言語特有変数として選択可能である。
目標言語特有変数の第二の選択肢は、目標言語の単音間の人為的分裂度である。本発明において人為的分裂度とは、フィルタリング等の信号処理によって、渡り音の部分の音声波形のみ、局所的に振幅ゲインを減少させ、人為的に前後の単音を分離して知覚されるように仕向けた場合の、振幅ゲイン減少の度合いを指す。英語型セグメンテーション様式では、渡り音は意識に上らないので、多少の違和感はあるもののフィルタリングの前後で知覚される単音列は変わらない。一方、日本型セグメンテーション様式では、渡り音部分が単音として重要な役割を果たしているので、子音がよく聞き取れなくなる。
目標言語特有変数の第三の選択肢は、目標言語の単音の持続時間長である。英語型のセグメンテーション様式では、摩擦音や流音など持続音と分類される子音の長さは自由に変えて発音することができる。一方、日本語型のセグメンテーション様式においては、子音の長さを変えて発音することはできない。一般に、あるセグメンテーション様式において、バリエーションをつけてスピーキングできる場合は、聞き手としてもそのバリエーションを聞き慣れているはずなので、知覚するときに同じクラスとして認識されやすい。一方、バリエーションをつけてスピーキングできない場合は、聞き手はそのバリエーションを聞き慣れていないため、知覚するときに同じクラスとして認識することはできない。
例えば、英語のネイティブ・スピーカーに“ra”の中の“r”の持続時間を延ばして発音してもらうと、日本のセグメンテーション様式で知覚する場合は、“ラ”から“うラ”に変化する。ただし、この“う”は日本語の“う”ではなくノイズのように聞こえる音であるが、ここではこのノイズ的な音の発生に気づくことも単音列の変化と捉える。一方、英語型のセグメンテーション様式で知覚する場合は、単音の持続時間が延びるだけで、得られる単音列は変わらない。
目標言語特有変数の第四の選択肢は、目標言語の単音の音響パラメータである。音響パラメータとは、音のピッチ(音程)、または、音の大きさを表す。英語型のセグメンテーション様式では、“l”と“a”を意図的に別のピッチや大きさで発声された場合でも、元々別の単音なので、知覚される単音列は変わらないが、日本語のセグメンテーション様式で知覚する場合は、渡り音部分が、日本語では起こりえない変化をするため、聞き取りづらくなる。
前記目標言語特有変数の第五の選択肢は、第一の選択肢から第四の選択肢の組み合わせである。この場合、組み合わされた変数を成分とするベクトルを目標言語特有変数と考えることができる。
前記目標言語特有変数の第五の選択肢は、第一の選択肢から第四の選択肢の組み合わせである。この場合、組み合わされた変数を成分とするベクトルを目標言語特有変数と考えることができる。
好ましくは、上記音声バリエーションは、自然音声データとは目標言語特有変数が異なる複数の音声データを含む。この構成により、目標言語特有変数を段階的に調整することができる。図5に段階的な音声調整を表す説明図を示す。目標言語特有変数017に沿って音声が連続的に変化できるものと考える。この軸上に、自然音声ではない複数の調整音声があるとする。自然音声とは非常に異なる第一の調整音声022を聞いた直後に自然音声020を聞くのはセグメンテーション様式を母国語の様式に引き戻してしまう危険性がある。そこで、第一の調整音声022を聞いた後は、それとはあまり変わらない第二の調整音声023を聞き、目標言語のセグメンテーション様式で知覚することの練習を行う。そして、十分な練習を完了したら、今度は、もう少し自然な音声に近い第三の調整音声024へと学習を進める。このように、目標言語のセグメンテーション様式で知覚するときの困難さを、段階的に克服することが可能である。
前記音声データ取得手段は、以下の三手法のどれかによって、音声バリエーションを構成する音声データを取得する。音声データ取得手段の第一の選択肢となる構成を含んだ構成05の発音学習装置の構成図を図6に示す。自然音声データ025を記録する自然音声データ記憶手段026と、前記自然音声データを複数の区間に分割するセグメンテーションパターン009を記憶するセグメンテーションパターン記憶手段010を有し、前記音声データ取得手段027は、前記セグメンテーションパターン記憶手段010に記憶されたセグメンテーションパターン009と目標言語特有変数017をパラメータとして前記自然音声データに対してフィルタリング処理を行うことにより、前記音声データ005を取得することを特徴とする。
音声データ取得手段の第二の選択肢は、音声バリエーションが格納された構成07に記載のコンピュータ読み込み可能な媒体から音声データを読み出すことにより音声データを取得することを特徴とする。
音声バリエーション取得手段の第三の選択肢は、目標言語特有変数をパラメータとして音声合成を行うことにより音声データを取得することを特徴とする。
音声バリエーション取得手段の第三の選択肢は、目標言語特有変数をパラメータとして音声合成を行うことにより音声データを取得することを特徴とする。
さらに、前記音声データ取得手段は、以下の三手法のどれかによって、取得する音声データを決定する。データ決定の第一の選択肢は、上述のように音声バリエーションの中から順に音声を取得する。すなわち、図4においては、調整音声021から自然音声020というように、呈示順序を決めておく。図5においては、第一の調整音声022から呈示し、次に第二の調整音声023へと進み、第三の調整音声024、自然音声020というように決められた順序にしたがって音声を呈示する。データ決定の第二の選択肢は、音声バリエーションの中から順不同に音声を取得する。例えば、図5において、各々の調整音声をランダムな順序で呈示する。順に呈示する方法によってある程度学習が進んだ後にランダムに呈示する方法によって追加学習することで、学習者にとってどの調整音声が呈示されるかが分からない状態での聴覚的学習となるため、リスニング力の強化が望める。
データ決定の第三の選択肢によって音声データを決定する発音学習装置の構成図を図7に示す。この発音学習装置は、入力手段028を有し、前記音声データ取得手段は、前記入力手段から得られる入力に従って、前記音声バリエーションを構成する音声データを取得することを特徴とする。この構成により、学習者からの入力に基づいて音声データを決定することができる。
本発明における第三の解決手段は、発声的学習時に、学習者の発した音声が、目標言語のセグメンテーション様式で知覚したとする場合には、どのようなセグメンテーションパターンで知覚されるかを学習者にフィードバックすることを目的とする。図8に構成09に記載の発音学習装置の基本構成図を示す。この発音学習装置は、音声を入力する音声入力手段029と、該音声入力手段によって入力された音声データ005からセグメンテーションパターン009を認識するセグメンテーション手段030と、前記セグメンテーションパターン009の特徴を呈示するセグメンテーションパターン特徴呈示手段031を有することを特徴とする。
本発明において、セグメンテーションパターンの特徴とは、セグメンテーションパターンを入力とする関数として表現される値である。例えば、単音区間の長さ、単音間の背景区間の長さ、セグメンテーションパターンそのもの、適正度を表す評価値などがある。
また、構成09に記載の発音学習装置は、好ましくは、音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段とを有し、前記セグメンテーション手段は、前記音声データを照合パターンとして、入力音声データとの間でDPマッチングを行う。この構成により、照合パターンを切り替えることによって、複数のセグメンテーション様式についてのセグメンテーションを行うことができる。
本発明の発音学習装置を用いると、“ラ”と“l+a”、または、“母音+ツ”と“母音+t+s”のように、学習者の母国語と目標言語との間において、同じ音を聞いたときにでも単音数が異なる現象を解消することにより、発音学習の効果を上げることができる。
構成01に記載の発音学習装置を用いると、聴覚的学習時に、呈示中の音声がどのようなセグメンテーション様式で知覚すべきかを学習者に意識させることができる。
構成04に記載の発音学習教材製造方法によって生産されたデータの格納されたコンピュータ読み込み可能な媒体を用いると、汎用のメディアプレイヤーで再生させることにより、構成01の発音学習装置を用いた学習と同じ学習効果を得ることができる。
構成05に記載の発音学習装置を用いると、聴覚的学習時に、目標言語にのみ起こりうる音声バリエーションを学習者に呈示することにより、母国語のセグメンテーション様式に基づいた単音列の知覚を抑制することができる。
構成09に記載の発音学習装置を用いると、発声的学習時に、学習者の発した音声が、目標言語のセグメンテーション様式で知覚したとする場合には、どのように知覚されるかを学習者にフィードバックすることができる。
構成01に記載の発音学習装置を用いると、聴覚的学習時に、呈示中の音声がどのようなセグメンテーション様式で知覚すべきかを学習者に意識させることができる。
構成04に記載の発音学習教材製造方法によって生産されたデータの格納されたコンピュータ読み込み可能な媒体を用いると、汎用のメディアプレイヤーで再生させることにより、構成01の発音学習装置を用いた学習と同じ学習効果を得ることができる。
構成05に記載の発音学習装置を用いると、聴覚的学習時に、目標言語にのみ起こりうる音声バリエーションを学習者に呈示することにより、母国語のセグメンテーション様式に基づいた単音列の知覚を抑制することができる。
構成09に記載の発音学習装置を用いると、発声的学習時に、学習者の発した音声が、目標言語のセグメンテーション様式で知覚したとする場合には、どのように知覚されるかを学習者にフィードバックすることができる。
本発明の実施の様態は、以下の構成を含む。
(構成01)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段と、前記セグメンテーションパターンの区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成手段と、前記音声データを呈示する音声呈示手段と、該音声呈示手段による音声呈示と同期させて前記タイミング刺激を呈示するタイミング刺激呈示手段とからなることを特徴とする発音学習装置。
(構成02)音声呈示装置と刺激呈示装置と記憶装置を有するコンピュータを、構成01に記載の発音学習装置として機能させるためのプログラム。
(構成03)音声データと、該音声データを時間軸上で複数の区間に分割するセグメンテーションパターンとが、対応付けられて記録されたコンピュータ読み込み可能な記録媒体。
(構成04)音声データを複数の区間に分割するセグメンテーションパターンから、前記区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成ステップと、前記音声データと前記タイミング刺激を同期呈示可能なデータとしてコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成05)音声データを取得する音声データ取得手段と、該音声データ取得手段によって取得された前記音声データを呈示する音声呈示手段とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを構成する音声データであることを特徴とする発音学習装置。
(構成06)音声呈示装置を有するコンピュータを、構成05に記載の発音学習装置として機能させるためのプログラム。
(構成07)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションが格納されたコンピュータ読み込み可能な媒体。
(構成08)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを取得する音声バリエーション取得ステップと、前記音声バリエーションをコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成09)音声を入力する音声入力手段と、該音声入力手段によって入力された音声データからセグメンテーションパターンを認識するセグメンテーション手段と、前記セグメンテーションパターンの特徴を呈示するセグメンテーションパターン特徴呈示手段を有することを特徴とする発音学習装置。
(構成010)音声入力装置と刺激呈示装置を有するコンピュータを、構成09に記載の発音学習装置として機能させるためのプログラム。
(構成1)前記複数の区間は、一つ以上の単音区間と一つ以上の背景区間とからなることを特徴とする構成01の発音学習装置。
(構成2)前記セグメンテーションパターン記憶手段とは別の第二セグメンテーションパターン記憶手段をもち、前記タイミング刺激は、前記セグメンテーションパターンの区間の切り替わりのタイミングと、前記第二セグメンテーションパターン記憶手段に記憶された第二セグメンテーションパターンの区間の切り替わりのタイミングとを、同時に学習者に知覚させることができることを特徴とする構成01または構成1に記載の発音学習装置。
(構成3)前記タイミング刺激は、単音発音記号から成ることを特徴とする構成01または構成1または構成2に記載の発音学習装置。
(構成01)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段と、前記セグメンテーションパターンの区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成手段と、前記音声データを呈示する音声呈示手段と、該音声呈示手段による音声呈示と同期させて前記タイミング刺激を呈示するタイミング刺激呈示手段とからなることを特徴とする発音学習装置。
(構成02)音声呈示装置と刺激呈示装置と記憶装置を有するコンピュータを、構成01に記載の発音学習装置として機能させるためのプログラム。
(構成03)音声データと、該音声データを時間軸上で複数の区間に分割するセグメンテーションパターンとが、対応付けられて記録されたコンピュータ読み込み可能な記録媒体。
(構成04)音声データを複数の区間に分割するセグメンテーションパターンから、前記区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成ステップと、前記音声データと前記タイミング刺激を同期呈示可能なデータとしてコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成05)音声データを取得する音声データ取得手段と、該音声データ取得手段によって取得された前記音声データを呈示する音声呈示手段とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを構成する音声データであることを特徴とする発音学習装置。
(構成06)音声呈示装置を有するコンピュータを、構成05に記載の発音学習装置として機能させるためのプログラム。
(構成07)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションが格納されたコンピュータ読み込み可能な媒体。
(構成08)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを取得する音声バリエーション取得ステップと、前記音声バリエーションをコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成09)音声を入力する音声入力手段と、該音声入力手段によって入力された音声データからセグメンテーションパターンを認識するセグメンテーション手段と、前記セグメンテーションパターンの特徴を呈示するセグメンテーションパターン特徴呈示手段を有することを特徴とする発音学習装置。
(構成010)音声入力装置と刺激呈示装置を有するコンピュータを、構成09に記載の発音学習装置として機能させるためのプログラム。
(構成1)前記複数の区間は、一つ以上の単音区間と一つ以上の背景区間とからなることを特徴とする構成01の発音学習装置。
(構成2)前記セグメンテーションパターン記憶手段とは別の第二セグメンテーションパターン記憶手段をもち、前記タイミング刺激は、前記セグメンテーションパターンの区間の切り替わりのタイミングと、前記第二セグメンテーションパターン記憶手段に記憶された第二セグメンテーションパターンの区間の切り替わりのタイミングとを、同時に学習者に知覚させることができることを特徴とする構成01または構成1に記載の発音学習装置。
(構成3)前記タイミング刺激は、単音発音記号から成ることを特徴とする構成01または構成1または構成2に記載の発音学習装置。
(構成4)前記音声バリエーションは、自然音声とは目標言語特有変数が異なる複数の音声データを含むことを特徴とする構成05に記載の発音学習装置。
(構成5)自然音声データを記録する自然音声データ記憶手段と、前記自然音声データを複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段を有し、前記音声データ取得手段は、前記セグメンテーションパターンと目標言語特有変数をパラメータとして前記自然音声データに対してフィルタリング処理を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成5)自然音声データを記録する自然音声データ記憶手段と、前記自然音声データを複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段を有し、前記音声データ取得手段は、前記セグメンテーションパターンと目標言語特有変数をパラメータとして前記自然音声データに対してフィルタリング処理を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成6)前記複数の区間は一つ以上の単音区間と一つ以上の背景区間から成り、前記目標言語特有変数は人為的分裂度であり、前記フィルタリング処理は前記背景区間に対応する音声波形の振幅を、前記人為的分裂度に応じて減ずる処理であることを特徴とする構成5に記載の発音学習装置。
(構成7)前記音声データ取得手段は、構成07の媒体から音声データを読み出すことにより音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成8)前記音声データ取得手段は、目標言語特有変数をパラメータとして音声合成を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成7)前記音声データ取得手段は、構成07の媒体から音声データを読み出すことにより音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成8)前記音声データ取得手段は、目標言語特有変数をパラメータとして音声合成を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成9)前記音声データ取得手段は、前記音声バリエーションを構成する音声データを、順に取得することを特徴とする構成05または構成4乃至構成8の発音学習装置。
(構成10)前記音声呈示手段は、前記音声バリエーションを構成する音声データを、順不同に取得することを特徴とする構成05または構成4乃至構成8の発音学習装置。
(構成11)入力手段を有し、前記音声データ取得手段は、前記入力手段から得られる入力に従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成4乃至構成8の発音学習装置。
(構成10)前記音声呈示手段は、前記音声バリエーションを構成する音声データを、順不同に取得することを特徴とする構成05または構成4乃至構成8の発音学習装置。
(構成11)入力手段を有し、前記音声データ取得手段は、前記入力手段から得られる入力に従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成4乃至構成8の発音学習装置。
(構成12)前記入力手段は音声入力手段であり、該音声入力手段によって入力された音声データからセグメンテーションパターンを認識するセグメンテーション手段を有し、前記音声データ取得手段は、前記セグメンテーションパターンの特徴に従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成11の発音学習装置。
(構成13)音声データ取得手段は、直前に呈示された音声データの目標言語特有変数にも従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成11乃至構成12の発音学習装置。
(構成14)前記音声バリエーションを構成する音声データの各々に対応付けられて目標言語特有変数が格納された構成07に記載のコンピュータ読み込み可能な媒体。
(構成13)音声データ取得手段は、直前に呈示された音声データの目標言語特有変数にも従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成11乃至構成12の発音学習装置。
(構成14)前記音声バリエーションを構成する音声データの各々に対応付けられて目標言語特有変数が格納された構成07に記載のコンピュータ読み込み可能な媒体。
(構成15)前記特徴は、単音区間の長さであることを特徴とする構成09に記載の発音学習装置。
(構成16)前記特徴は、単音間の背景区間の長さであることを特徴とする構成09に記載の発音学習装置。
(構成17)前記特徴は、前記セグメンテーションパターンの適正度を表す評価値であることを特徴とする構成09に記載の発音学習装置。
(構成18)前記特徴は、前記セグメンテーションパターンそのものであることを特徴とする構成09に記載の発音学習装置。
(構成19)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段とを有し、前記セグメンテーション手段は、前記音声データを照合パターンとして、入力音声データとの間でDPマッチングを行うことを特徴とする構成09に記載の発音学習装置。
(参考例1)
(構成16)前記特徴は、単音間の背景区間の長さであることを特徴とする構成09に記載の発音学習装置。
(構成17)前記特徴は、前記セグメンテーションパターンの適正度を表す評価値であることを特徴とする構成09に記載の発音学習装置。
(構成18)前記特徴は、前記セグメンテーションパターンそのものであることを特徴とする構成09に記載の発音学習装置。
(構成19)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段とを有し、前記セグメンテーション手段は、前記音声データを照合パターンとして、入力音声データとの間でDPマッチングを行うことを特徴とする構成09に記載の発音学習装置。
(参考例1)
構成01の発音学習装置の例を示す。音声データ記憶手段006には、目標言語のネイティブ・スピーカーが発声した音声を、マイクロフォンを通して音声データに変換したものを格納する。セグメンテーションパターン記憶手段010には、予めオペレータが該当する音声データ005を可視化した画面を見ながら手入力したセグメンテーションパターン009を格納する。音声データとセグメンテーションパターンは、構成03に記載のコンピュータ読み込み可能な媒体に記録しておき、必要時に、音声データ記憶手段とセグメンテーションパターン記憶手段に各々をロードする。
オペレータがセグメンテーションパターンを手入力するときのGUI(グラフィカルインタフェース)画面の例を図9に示す。図9(a)は、入力前の画面である。画面上には、縦軸を周波数軸、横軸を時間軸として、音声データがスペクトル図として可視化されている。図中では第一フォルマントから第三フォルマントのみを模式的に描いているが、濃淡画像としてスペクトルの全情報を可視化する方が望ましい。なお、可視化手法に関しては、スペクトル図や音声波形図のように、時間軸を含む図であるならば、どのような図に可視化しても、時刻の手入力は可能である。ここでは、“la”という単音列に該当する音声が呈示される場合を想定する。オペレータは、この図をみながら、マウス等の入力装置を用いて、各々の単音区間の開始時刻と終了時刻を図中で指定する。この場合は、T0,T1,T2の三時刻に相当する位置を指定する。すると、図9(b)のように、T0,T1,T2の三時刻が入力されたことを表現するため、縦の点線として表示される。これにより、2つの単音区間に分割することを表すセグメンテーションパターン、すなわち、(T0,T1,T2)という時刻の組を手入力できたこととなる。
図10に、タイミング刺激生成手段011が生成するタイミング刺激の例を示す。この例では、コンピュータ画面上の視覚刺激として学習者に呈示されることとする。タイミング刺激生成手段は、図9で入力されたセグメンテーションパターンを読み込み、二つの単音が含まれることを解釈し、二つのブランク画像101に挟まれた画像A102と画像B103という静止画像を含む画像列を生成する。この画像列と画像を切り替えるべき時刻情報のセットをタイミング刺激呈示手段012に引き渡す。図10の例では、単音毎に色を変更した円を描画している。このように、タイミング刺激013として用いられる視覚刺激は、高速に画面を切り替えたときにも、切り替えのタイミングが分かりやすいように単純な図形などで構成することが好ましい。
図11には、タイミング刺激呈示手段が、図10で図示したタイミング刺激を呈示するときのフローチャートを示す。タイミング刺激呈示手段012は、音声データの呈示と同期を取るため、音声データの呈示を開始する時にタイマーTをT=0にリセット104するとともに、ブランク画像を呈示する105。そして、Tを時刻の推移とともにカウントアップし、TとT0を比較して106、T≧T0となったら画像Aを呈示し107、TとT1を比較して108、T≧T1となったら画像Bを呈示し109、TとT2を比較して110、T≧T2となったらブランク画面を呈示する105。学習者は音声を聞き取るときに、同時にタイミング刺激も知覚することにより、単音区間の切り替わりのタイミングを知覚することができる。
(参考例2)
(参考例2)
構成01に記載された発音学習装置の別の例を示す。基本的な実施の形態は参考例1と同じであるが、セグメンテーションパターンに、単音間のギャップ区間が含まれる点(構成1)と、これに伴いタイミング刺激の様態が違う点が異なる。図12に“la”という音声のスペクトル図の模式図とそこにギャップ区間を含めて設定されたセグメンテーションパターンの例を示す。ここでは、セグメンテーションパターンとして、各単音の開始時刻と終了時刻をそれぞれ設定する。よって、この場合セグメンテーションパターンは、((T0,T3),(T4,T2))となる。
図13に、このセグメンテーションパターンから生成され、タイミング刺激呈示手段に呈示されるタイミング刺激の例をしめす。この場合は、ブランク画像101と画像A102を交互に繰り返すだけでよく、単音毎に刺激を変える必要はない。なぜならば、セグメンテーションパターン内の背景区間に対応するブランク画像が間に挟まることにより、各単音の開始時刻と終了時刻のタイミングが明確に知覚できるからである。
(参考例3)
(参考例3)
構成01に記載された発音学習装置のさらに別の例を示す。基本的な実施の形態は参考例2と同じであるが、同じ音声に対して、セグメンテーションパターンとして英語用のパターンと日本語用のパターンとを対応させること(構成2)、及び、これに伴いタイミング刺激の様態が違う点が異なる。図14に“la”という音声のスペクトル図の模式図とそこに別々に設定された英語用のパターン図14(a)と日本語用のパターン図14(b)とを示す。この場合英語用のパターンは、((T0,T3),(T4,T2))となり、日本語用のパターンは、((T5,T2))となる。
図15に、これら二つのセグメンテーションパターンから得られるタイミング刺激の例をしめす。ここでは、音声とセグメンテーションパターンの対応関係が学習者にとってより分かりやすくするために、学習者が発音学習を行うときにも、音声データのスペクトル図を同時に表示するものとする。音声の呈示に同期させて白色の縦棒301を時間軸に沿って動かす。このとき、英語の単音区間内、すなわち、T0≦T<T3、T4≦T<T2の時間においては、縦棒の下の領域302を赤色に変色する。一方、日本語の単音区間内、すなわち、T5≦T<T2においては、縦棒の上の領域303を赤色に変色する。このように、タイミング刺激呈示手段が、二つのセグメンテーションパターンの区間の切り替わりのタイミングを同時に知覚させるようなタイミング刺激を呈示することにより、学習者が、母国語と目標言語のセグメンテーションパターン様式を対比させながら発音学習を行うことができる。
(参考例4)
(参考例4)
構成01に記載された発音学習装置のさらに別の例を示す。基本的な実施の形態は参考例2と同じであるが、タイミング刺激として目標言語の単音に対応する発音記号を呈示する点が異なる(構成3)。まず、オペレータがセグメンテーションパターンを手入力する際、同時に、各単音が何であるかを入力しておく。そして、タイミング刺激を呈示するとき、各々の単音に対応する発音記号の画像を呈示する。呈示例を図16として示す。ここでは、発音記号としてアルファベットを用いる。図13で示した画像A102の代わりに、“L”と表示された画像401と、“A”と表示された画像402を呈示する。
このように、タイミング刺激呈示手段が、単音発音記号を呈示することにより、学習者がどの単音が呈示されているかを理解することができる。
なお、参考例1乃至参考例4において、呈示されたタイミング刺激の画面推移を動画像データとして構成し直し、音声データと共にマルチメディアデータとしてコンピュータ読み込み可能な媒体に格納すれば、構成04の発音学習教材製造方法の例となる。
(参考例5)
なお、参考例1乃至参考例4において、呈示されたタイミング刺激の画面推移を動画像データとして構成し直し、音声データと共にマルチメディアデータとしてコンピュータ読み込み可能な媒体に格納すれば、構成04の発音学習教材製造方法の例となる。
(参考例5)
構成04に記載の発音学習教材製造方法の例を示す(構成3)。セグメンテーションパターンは参考例1の図9にて例示したものと同じパターンを用いる。タイミング刺激生成ステップは、このセグメンテーションパターンを読み込み、タイミング刺激として、聴覚刺激を生成する。具体的には、ネイティブ・スピーカーが孤立させて発音した各単音を素材として、単音区間の開始時刻と同期するように配列させることにより、モノラルの音声データを合成する。そして、データ格納ステップは、このように作成したモノラル音声データをステレオ音声データの左耳用に、元となった連続音声をステレオ音声データの右耳用になるように、記録媒体にステレオ音声データとして記録する。学習者は、ステレオ式ヘッドホンを通して通常のプレーヤーでこの音声データを再生することにより、右耳からは手本となる音声が、左耳からは聴覚刺激を用いた単音発音記号からなるのタイミング刺激が聞こえる。
(参考例6)
(参考例6)
構成05の発音学習装置の例を記す(構成7、構成9)。目標言語特有変数としては、単音の持続時間を使う。自然音声としては、ネイティブ・スピーカーが自然に発音した「持続子音+母音」を用いる。調整音声としては、ネイティブ・スピーカーが子音部分を意図的に長く発音したものを用いる。なお、ネイティブ・スピーカーには、子音の持続時間以外の発声条件はできるだけ変えずに発音する旨をお願いしておかなければならない。
このようにして録音収集した音声データについて、自然音声データと調整音声データをセットで音声バリエーションとみなし、音声バリエーション番号を付与した上で、図17に示す形式にて構成07に記載の記録媒体に記録しておく。音声バリエーションの内容は、例えば、音声バリエーション1が“la”、音声バリエーション2が“li”、音声バリエーション2が“lu”、というように、学習すべき単音列が異なっている。
このようにして録音収集した音声データについて、自然音声データと調整音声データをセットで音声バリエーションとみなし、音声バリエーション番号を付与した上で、図17に示す形式にて構成07に記載の記録媒体に記録しておく。音声バリエーションの内容は、例えば、音声バリエーション1が“la”、音声バリエーション2が“li”、音声バリエーション2が“lu”、というように、学習すべき単音列が異なっている。
学習時の発音学習装置の制御手順は以下の通りである。まずは、第一の音声バリエーションを対象とする。音声データ取得手段016は、上記の記録媒体から音声バリエーション番号をキーとして、自然音声データ1を検索し読み込む。そして、音声呈示手段018は、読み込まれた音声データを学習者に呈示する。数秒後に、音声データ取得手段が調整音声データ1を読み込み、音声呈示手段が読み込まれた音声データを学習者に呈示する。
自然音声と調整音声は、一度ずつだけの呈示でもよいが、自然音声と調整音声を交互に繰り返して呈示し続ける方がより効果的である。学習者が第一の音声バリエーションについて十分学習したと考えたときには、GUI上の「次ボタン」を押して第二の音声バリエーションの学習へと進む。
(実施例1)
自然音声と調整音声は、一度ずつだけの呈示でもよいが、自然音声と調整音声を交互に繰り返して呈示し続ける方がより効果的である。学習者が第一の音声バリエーションについて十分学習したと考えたときには、GUI上の「次ボタン」を押して第二の音声バリエーションの学習へと進む。
(実施例1)
構成05の発音学習装置の例を記す(構成4、構成5、構成6、構成11、構成13)。目標言語特有変数としては、人為的分裂度を使う。自然音声としては、ネイティブ・スピーカーが自然に発音した「子音+母音」を用いる。自然音声データには、事前にオペレータによりセグメンテーションパターンが手入力されているものとする。
調整音声データは、自然音声データに対してセグメンテーションパターンに由来する重み付け関数によりフィルタリングをして得る。図18に、フィルタリングによって、人為的分裂度(v)を変化させながら調整音声を生成する方法を説明する図を示す。
調整音声データは、自然音声データに対してセグメンテーションパターンに由来する重み付け関数によりフィルタリングをして得る。図18に、フィルタリングによって、人為的分裂度(v)を変化させながら調整音声を生成する方法を説明する図を示す。
図18(a)を自然音声の波形とする。事前にセグメンテーションパターンを手入力してあるためギャップ区間701が音声波形のどの部分に対応するかが分かっている。
図18(b)はv=100%の重み付け関数である。このv=100%における重み付け関数は、ギャップ区間の内部が概ね0に近く、その外部が概ね1となるような関数であるが、ステップ関数を用いると調整音声に高周波ノイズが発生するため、ガウス関数など滑らかに変化する関数を用いることが望ましい。v=100%の調整音声は、図18(a)の自然音声波形と図18(d)の重み付け関数を同じ時刻(t)同士の値で掛け合わせたものとして得られる。
図18(b)はv=100%の重み付け関数である。このv=100%における重み付け関数は、ギャップ区間の内部が概ね0に近く、その外部が概ね1となるような関数であるが、ステップ関数を用いると調整音声に高周波ノイズが発生するため、ガウス関数など滑らかに変化する関数を用いることが望ましい。v=100%の調整音声は、図18(a)の自然音声波形と図18(d)の重み付け関数を同じ時刻(t)同士の値で掛け合わせたものとして得られる。
図18(c)はv=50%における重み付け関数であり、図18(d)はv=25%における重み付け関数である。一般に、v=100%における重み付け関数をW(t)とすると、{1−(1−W(t))×V/100}としてv=V%における重み付け関数を得ることができる。こうして得られた重み付け関数と図18(a)の自然音声波形を掛け合わせることにより、任意の人為的分裂度に対応する調整音声データを得ることができる。
このように、セグメンテーションパターンと目標言語特有変数をパラメータとして入力し、自然音声データに対してフィルタリング処理を行うことにより、音声データを取得することができる(構成5)。
このように、セグメンテーションパターンと目標言語特有変数をパラメータとして入力し、自然音声データに対してフィルタリング処理を行うことにより、音声データを取得することができる(構成5)。
入力手段から得られる入力を用いて、目標言語特有変数である人為的分裂度を調整する処理手順を具体的に例示したフローチャートを図19に示す(構成11、構成13)。なお、入力装置としてボタンAとボタンBを有している。まず、初期設定として、人為的分離度(v)を100%に設定する702。次に設定された分離度の調整音声を呈示する703。つぎに入力をチェックする704。入力が無い場合はそのまま入力を待ち続けるが、ボタンAが押されたことが検知されたときには、vを5%減少させて、新たなvの値に基づいた調整音声を呈示する705。一方、ボタンBが押されたことが検知されたときには、vを5%増加させて、新たなvに基づいた調整音声を呈示する706。これを何度も繰り返す。なお、vが0%から100%の範囲外へ出すことはできないので、vが境界値を取るときはそのままの値を維持するものとする。また、v=0%の調整音声は、重み付け関数が定数1となるため、自然音声と全く同じ音声となる。
以上の処理内容を学習者側から見ると、この装置の操作は以下のように行われる。まず、初期設定として人為的分離度100%の調整音声が呈示されるため、ハッキリと子音と母音が区別されて聞こえる。その後、子音と母音が別々に聞こえたときにはボタンAを押すことにより人為的分離度が5%減じられた、より結合されて聞こえやすい調整音声を呈示させる。学習者は、常に子音と母音を分離して聞き取ろうと努力しなければならないが、その努力にも関わらず子音と母音が結合してしまい、日本語の単音のように一単音として聞こえてしまうこともある。その場合は、ボタンBを押すことにより、人為的分離度が5%増加させられた、より分離されて聞こえやすい調整音声を呈示させる。この処理を続けていけば、人為的分離度がある定数付近で上下しながら拮抗することとなる。
以上の学習を日々続ければ、習熟度に従って、この拮抗する人為的分離度が徐々に小さい側にずれて行き、0%の人為的分離度の調整音声すなわち自然音声を聞いたときにでも、子音と母音が分離して知覚されるようになる。そうなれば学習は完了となる。
なお、実施例1は、音声データ取得手段によって得られたデータを、コンピュータ読み込み可能な媒体に格納する機能を付加することにより、構成7としての例となる。
なお、実施例1は、音声データ取得手段によって得られたデータを、コンピュータ読み込み可能な媒体に格納する機能を付加することにより、構成7としての例となる。
また、実施例1に記述のフィルタを用いて得られる音声バリエーションを、昇順またはランダム順に、すべて1つの音声ファイルにまとめて、コンピュータ読み取り可能な媒体に格納することにより、構成08の発音学習教材製造方法としての例となる。この音声ファイルを標準的なメディアプレーヤーを用いて再生することにより、構成9または構成10の学習装置で練習する場合と、同じ効果が得られる。
(参考例7)
(参考例7)
構成05の発音学習装置の例を記す(構成9、構成10)。目標言語特有変数としては、単音間の背景区間の時間長を用いる。英語型のセグメンテーション様式においては、子音と母音の間の渡り音部分の長さを変えて発音することができる。一方、日本語型のセグメンテーション様式においては、子音と母音が一体化されて一つの単音を構成するため、子音と母音の間の渡り音部分の長さを変えて発音することはできない。
自然音声としては、ネイティブ・スピーカーが自然に発音した「子音+母音」を用いる。調整音声としては、ネイティブ・スピーカーが意図的にいろいろな単音間のギャップ区間の長さで発音したものを用いる。ただし、調整音声のギャップ区間の長さは、すべて、自然音声ギャップ区間の長さより長いものとする。録音収集した音声データを、自然音声と調整音声を組にして音声バリエーション番号を付与した上で、さらに調整音声には、各々のギャップ区間の長さも加えて、図20に示す形式にて構造付けをして、構成07に記載の記録媒体に記録しておく(構成14)。なお、ギャップ区間の長さは、各々の音声データについて、セグメンテーションパターンを手入力することにより得ることができる。
発音学習の手順は以下の通りである。ある構成では、順に音声データを呈示する(構成9)。まず、音声データ取得手段は、第一の音声バリエーション音声に含まれるすべての調整音声データ(調整音声データ11、調整音声データ12、…)を読み込み、ギャップ区間の長さに基づいて降順にソートする。そして、ギャップ区間の長い方から順番に音声データを呈示する。すべて呈示し終わったら、音声データ取得手段は、自然音声データ1を上記の媒体から読み込み、音声呈示手段によって呈示する。これにより、ギャップ区間の長いものからギャップ区間の短いものへと順に呈示されることとなる。
また、別の構成として、順不同に呈示することも可能である(構成10)。このとき、同時にギャップ区間の長さの取りうる範囲内で乱数を発生させ、その乱数値と最も近い値のギャップ区間の長さをもつ調整音声データを取り出す。そして、調整音声呈示手段は、自然音声が呈示された数秒後に、得られた調整音声データを呈示する。さらに、学習者がGUI上の「次ボタン」を押して、次の組の発音学習に進むまで、ランダムなギャップ区間長をもつ調整音声データを呈示し続けるものとする。このように、ランダムに目標言語特有変数を変化させながらリスニング学習を行うことは、会話中に起こりうるバリエーションへの対応という観点から、リスニング能力の向上に役立つ。
なお、参考例7については、セグメンテーションパターンが手入力されているため、構成01の発音学習装置の構成と併用するとより効果的である。
(参考例8)
なお、参考例7については、セグメンテーションパターンが手入力されているため、構成01の発音学習装置の構成と併用するとより効果的である。
(参考例8)
構成05の発音学習装置の例を記す(構成8、構成11)。目標言語特有変数は、単音の音響パラメータの一例として、「有声子音のピッチ」を用いる。英語型のセグメンテーション様式においては、やや不自然な発音ではあるものの、有声子音のピッチは母音のピッチとは独立に変えて発音することができる。一方、日本語型のセグメンテーション様式においては、有声子音のピッチを母音のピッチとは独立に変えて発音することはできない。
入力手段としては、GUI上のスライダーバーと音声呈示ボタンを用いる。学習者によって音声呈示ボタンを押されたとき、スライダーバーが中心の位置に存在するときは、有声子音の基本周波数を母音の基本周波数と同じ周波数にて音声合成を行い自然音声として呈示する。一方、学習者によって音声呈示ボタンを押されたとき、スライダーバーが中心の位置からずれているときは、スライダーバーの位置に応じて有声子音の基本周波数を母音の基本周波数とは変更して音声合成を行い調整音声として呈示する。これにより、学習者は、自分のスライダーバー入力によって有声子音のピッチを自由に調整することにより、自分がどの程度の学習レベルかを素早く把握することができる。
(実施例2)
(実施例2)
構成05の発音学習装置の例を示す(構成4、構成5、構成6、構成11、構成13)。目標言語特有変数以外の構成は、すべて実施例1に示した発音学習装置と同じである。目標言語特有変数としては、単音間の背景区間の長さを第一成分とし、人為的分裂度を第二成分とする二次元ベクトルを用いる。
実施例1では、人為的分裂度が0%、5%、…、100%となる21段階の値をとるように実装したが、この21段階を、7段階ずつ3グループに分け、それぞれの第一のフィルタリング(前記の人為的分裂度に応じた重み付けフィルタ)の元となる音声波形を得るために、前処理として、単音間の背景区間の長さのみを変更するための第二のフィルタリングを行う。第二のフィルタリングの具体的な処理は、標準的な話速変換処理を局所的に適用することにより、ギャップ区間の内部の音声波形のみを、ピッチを維持したまま、区間の長さのみを引き伸ばす。例えば、自然音声データのギャップ区間の長さが100ミリ秒だったとすると、それが150ミリ秒と200ミリ秒となる中間的な調整音声データを二つ生成する。
そして、上記のグループ毎に、第一グループ(0%、5%、…、30%)についてはギャップ区間長が100ミリ秒の自然音声そのものを、第二グループ(35%、40%、…、65%)についてはギャップ区間長が150ミリ秒の中間的な調整音声を、第三グループ(70%、75%、…、100%)についてはギャップ区間長が200ミリ秒の中間的な調整音声を、それぞれ、原波形として実施例1と同様に第一のフィルタリングを行う。これにより、(100ミリ秒、0%)、(100ミリ秒、5%)、…、(150ミリ秒、35%)、(150ミリ秒、40%)、…、(200ミリ秒、70%)、(200ミリ秒、75%)、…、(200ミリ秒、100%)という、2次元ベクトル空間内の21個の点列を得ることができる。この21個の点列を用いて、実施例1の発音学習装置の目標言語特有変数とすることにより、実施例1よりもより効果的な発音学習装置を提供することができる。
なお、実施例2で示した局所的な話速変換処理を用いれば、目標言語特有パラメータとして単音持続時間を用いる場合にもフィルタリングにて調整音声を取得することができる。
(参考例9)
なお、実施例2で示した局所的な話速変換処理を用いれば、目標言語特有パラメータとして単音持続時間を用いる場合にもフィルタリングにて調整音声を取得することができる。
(参考例9)
構成09に記載の発音学習装置の例を記す。音声入力手段は、音声を電気的な音声信号に変換するマイクロフォンを備え、そこから出力される電気信号をデジタルデータとしての音声データに変換する。
セグメンテーション手段では、音声認識分野において時間軸を正規化するときに標準的に用いられるDP(Dynamic Programming)マッチング手法を用いる。すなわち、音声入力手段によって入力された音声データを入力パターンとし、手本音声を照合パターンとして、時間軸を非線形に伸縮させ、最適に照合させる。この手本音声には、あらかじめセグメンテーションパターンを手入力しておくことができるので、その時刻が照合後に入力された音声データのどの時刻に対応づけられたかを調べることにより、入力音声に対して対応づけられるべきセグメンテーションパターンの時刻はどこかを知ることができる。
セグメンテーション手段では、音声認識分野において時間軸を正規化するときに標準的に用いられるDP(Dynamic Programming)マッチング手法を用いる。すなわち、音声入力手段によって入力された音声データを入力パターンとし、手本音声を照合パターンとして、時間軸を非線形に伸縮させ、最適に照合させる。この手本音声には、あらかじめセグメンテーションパターンを手入力しておくことができるので、その時刻が照合後に入力された音声データのどの時刻に対応づけられたかを調べることにより、入力音声に対して対応づけられるべきセグメンテーションパターンの時刻はどこかを知ることができる。
セグメンテーションパターン特徴呈示手段は、認識されたセグメンテーションパターンを構成する要素、またはその適正度を表す評価値(構成17)を学習者にフィードバックする手段である。セグメンテーションパターンを構成する要素としては、単音区間の長さ、単音間の背景区間の長さ、または、セグメンテーションパターンそのものである(構成15、構成16、構成18)。例えば単音の持続時間をフィードバックするならば、「あなたが発声した音声の子音の持続時間は、何々ミリ秒です」という文字表示として学習者にフィードバックすることができる。学習者は、この表示を見ながら発声練習を行うことにより、単音の持続時間や渡り音の時間長を任意に制御できるように訓練することができる。これらの値を任意にコントロールできるようになったということは、目標言語のセグメンテーション様式が身に付いたということに他ならない。
更に、照合パターンを切り替える機能を付加してもよい(構成19)。例えば、英語の発音として捉える場合と、日本語の発音としてその音声を捉えるときとで、どのようなセグメンテーションパターンとなるかを学習者が対比しながら学習を進めるきっかけとなる。これは、セグメンテーション手段において、DPマッチングを行うときに照合パターンを日本人話者が発声した音声データに切り替え、この音声データに手入力した日本型のセグメンテーションパターンに対応させて入力音声のセグメンテーションパターンを認識することによって実装できる。
また、セグメンテーションパターンそのものをフィードバックしてもよい(構成18)。すなわち、セグメンテーションパターンを構成するすべての時刻を省略せずフィードバックしてもよい。フィードバックは文字表示で行ってもよいが、何らかの可視化を行うほうがより効果的である。例えば、参考例1に記述のタイミング刺激と同じ種類の刺激を用いてフィードバックを与える。この場合は、学習者がマイクロフォンに向かって発声する前に、構成01の発音学習装置の構成によって、手本となる音声とタイミング刺激を呈示してリピートアフターミー型の発音練習を行えば、手本音声のセグメンテーションパターンと自分の音声のセグメンテーションパターンとを対比することができ、より効果的である。
(参考例10)
(参考例10)
構成09の例を示す(構成17)。学習者は、いろいろなギャップ区間の長さで発音するよう心掛けながら、マイクロフォンに向かって何度も発音練習を行い続ける。一定数以上の音声データのサンプリングが終わったら、セグメンテーション手段により各音声データのセグメンテーションパターンを認識し、ギャップ区間の時間長の分散値を計算する。この分散値が閾値以下であれば、十分にギャップ区間の長さにバリエーションを加えながら発音できるようになったとは判定できないため、評価値として「偽」というブール値を、例えばブザーを鳴らすなどしてフィードバックする。一方、分散値が閾値以上であれば、十分にギャップ区間の長さにバリエーションを加えながら発音ができるようになったと判定し、「真」というブール値を、例えばブザーとは別の音を鳴らすなどしてフィードバックする。
なお、逆に英語のネイティブ・スピーカーが日本語の発音学習をするときにこの装置を利用するときは、フィードバックの評価値の真偽を逆にすればよい。
また、分散値自体を画面上に文字表示するなどして、別の評価値としてフィードバックしてもよい。
(実施例3)
また、分散値自体を画面上に文字表示するなどして、別の評価値としてフィードバックしてもよい。
(実施例3)
構成05と構成09を組み合わせて構成させた発音学習装置の例を示す(構成11、構成12、構成13)。これは、発声的学習と聴覚的学習を同時に行う、所謂リピートアフターミー型の学習方法である。
この発音学習装置を構成09の発音学習装置としてみた場合の構成は以下の通りである。持続音である子音の持続音の持続時間が閾値より短くなれば、ブザーを鳴らして学習者にフィードバックを与える。日本語型のセグメンテーション様式においては、持続音の持続時間を長くすることができないので、これにより、英語型セグメンテーション様式に基づいているかどうか確認できる。
この発音学習装置を構成09の発音学習装置としてみた場合の構成は以下の通りである。持続音である子音の持続音の持続時間が閾値より短くなれば、ブザーを鳴らして学習者にフィードバックを与える。日本語型のセグメンテーション様式においては、持続音の持続時間を長くすることができないので、これにより、英語型セグメンテーション様式に基づいているかどうか確認できる。
一方、この発音学習装置を構成05の発音学習装置としてみた場合、基本構成は実施例1に示した発音学習装置と全く同じであり、異なる点は、ボタンAまたはボタンBの押下状態の変わりに、上記の持続音の持続時間が閾値以上であるか閾値未満であるかによって判定される点である。
以上の処理内容を学習者側から見ると、この装置の操作は以下のように行われる。まず、初期設定として人為的分離度100%の調整音声が呈示されるため、ハッキリと子音と母音が区別されて聞こえる。そこで、持続子音の持続時間を長く保つように努力しながら、その音声を真似て発音すれば、英語型のセグメンテーション様式にて発音するため、持続時間を長く保つことができ、結果としてブザーは鳴らない。このことが実施例1のボタンAを押す代わりとなり、人為的分離度が5%減じられた、より結合されて聞こえやすい調整音声を呈示させる。学習者は、常に子音と母音を分離して聞き取ろうと努力しなければならないが、その努力にも関わらず子音と母音が結合してしまい、日本語の単音のように一つの単音として聞こえてしまうこともある。その場合は、持続子音の持続時間を長く保つことができなくなるため、実施例1のボタンBを押す代わりに、ブザーが鳴って、人為的分離度が5%増加させられた、より分離されて聞こえやすい調整音声を呈示させる。
この処理を続けていけば、人為的分離度がある定数付近で上下しながら拮抗することとなる。この発音学習装置を用いれば、学習者は、わざわざボタンを押す必要がないためで、実施例1の装置と比べて容易に利用できる。
(参考例11)
(参考例11)
構成03の媒体を作成する手法の例を示す。参考例7において説明したセグメンテーションパターンを手入力する方法は、手入力に時間が掛かること、および、ネイティブ・スピーカーに手本となる音声を提供してもらうときに、必要な目標言語特有パラメータの必要な範囲のデータが満遍なく収集されたかどうかが分からず余分に提供してもらわざるを得ない。そこで、参考例9で示した発音学習装置の構成要素であるセグメンテーション手段を用いて、データ収集を効率よく行うオーサリングツールを例示する。
まず、ネイティブ・スピーカーに自然音声データを提供してもらった段階で、手入力によりセグメンテーションパターンを入力する。その後は、この自然音声データを照合データとしてDPマッチングを行うことにより、意図的にギャップ区間を長く発音してもらって音声バリエーションを集めるときには、データ収集と同時にセグメンテーションが行われ、セグメンテーションパターンが得られることとなる。これにより、オペレータの手入力の手間が大幅に省けるとともに、十分な音声バリエーション収集が完了した時点を判定することで音声提供者の手間も省くことができる。
さらに、音声提供者が調整音声を提供するときに、一言を発声する毎に、目標言語特有変数に関するヒストグラムを画面上に呈示してフィードバックを与えれば、ネイティブ・スピーカー自身が、どの辺りのデータが未入力であるかを把握して、意図的にその辺りのデータを入力しようと心掛けることができ、より効果的である。
001 音声波形
002 日本語型セグメンテーション様式で知覚するときの切り出し区間
003 英語型セグメンテーション様式で知覚するときの切り出し区間(子音部分)
004 英語型セグメンテーション様式で知覚するときの切り出し区間(母音部分)
005 音声データ
006 音声データ記憶手段
007 音声呈示装置
008 音声
009 セグメンテーションパターン
010 セグメンテーションパターン記憶手段
011 タイミング刺激生成手段
012 タイミング刺激呈示手段
013 タイミング刺激
014 音声バリエーション
015 互いに目標言語特有パラメータが異なる複数の音声データ
016 音声データ取得手段
017 目標言語特有変数
018 学習者母国語において同一単音列として知覚される範囲
019 目標言語において同一単音列として知覚される範囲
020 自然音声
021 調整音声
022 第一の調整音声
023 第二の調整音声
024 第三の調整音声
025 自然音声データ
026 自然音声データ記憶手段
027 音声データ取得手段(フィルタリング)
028 入力手段
029 音声入力手段
030 セグメンテーション手段
031 セグメンテーションパターン特徴呈示手段
101 ブランク画像
102 画像A
103 画像B
104 タイマーリセット
105 ブランク画像の呈示
106 TとT0を比較
107 画像Aの呈示
108 TとT1を比較
109 画像Bの呈示
110 TとT2を比較
301 音声の呈示と同期させて右に動かす縦棒
302 英語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
303 日本語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
401 単音“l”の持続時間中に呈示される画像
402 単音“a”の持続時間中に呈示される画像
701 ギャップ区間
702 人為的分離度(v)を100%に設定
703 調整音声を呈示(v=0%の場合は標準音声を呈示)
704 入力チェック
705 vを5%減少(v=0%ならばそのまま)
706 vを5%増加(v=100%ならばそのまま)
002 日本語型セグメンテーション様式で知覚するときの切り出し区間
003 英語型セグメンテーション様式で知覚するときの切り出し区間(子音部分)
004 英語型セグメンテーション様式で知覚するときの切り出し区間(母音部分)
005 音声データ
006 音声データ記憶手段
007 音声呈示装置
008 音声
009 セグメンテーションパターン
010 セグメンテーションパターン記憶手段
011 タイミング刺激生成手段
012 タイミング刺激呈示手段
013 タイミング刺激
014 音声バリエーション
015 互いに目標言語特有パラメータが異なる複数の音声データ
016 音声データ取得手段
017 目標言語特有変数
018 学習者母国語において同一単音列として知覚される範囲
019 目標言語において同一単音列として知覚される範囲
020 自然音声
021 調整音声
022 第一の調整音声
023 第二の調整音声
024 第三の調整音声
025 自然音声データ
026 自然音声データ記憶手段
027 音声データ取得手段(フィルタリング)
028 入力手段
029 音声入力手段
030 セグメンテーション手段
031 セグメンテーションパターン特徴呈示手段
101 ブランク画像
102 画像A
103 画像B
104 タイマーリセット
105 ブランク画像の呈示
106 TとT0を比較
107 画像Aの呈示
108 TとT1を比較
109 画像Bの呈示
110 TとT2を比較
301 音声の呈示と同期させて右に動かす縦棒
302 英語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
303 日本語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
401 単音“l”の持続時間中に呈示される画像
402 単音“a”の持続時間中に呈示される画像
701 ギャップ区間
702 人為的分離度(v)を100%に設定
703 調整音声を呈示(v=0%の場合は標準音声を呈示)
704 入力チェック
705 vを5%減少(v=0%ならばそのまま)
706 vを5%増加(v=100%ならばそのまま)
Claims (3)
- 自然音声データを記憶する自然音声データ記憶手段と、
前記自然音声データ記憶手段に記憶された自然音声データを、
複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段と、
前記自然音声データ記憶手段に記憶された自然音声データの、
前記セグメンテーションパターン記憶手段に記憶されたセグメンテーションパターンの前記区間の1つを対象区間として、
人為的分裂度が大きいほど減衰率が大きくなるように、
音声波形の振幅を減衰させる処理を施すことにより音声データを取得する音声データ取得手段と、
前記音声データ取得手段によって取得された音声データを呈示する音声呈示手段と、
入力結果として、第一状態と第二状態を含む複数の状態を取る、入力手段と、
前記人為的分裂度を、
前記入力手段の入力結果が第一状態である場合には、
前回に決定した値よりも小さい値となるように決定し、
前記入力手段の入力結果が第二状態である場合には、
前回に決定した値よりも大きい値又は等しい値となるように決定する人為的分裂度決定手段と、
を有することを特徴とする発音学習装置。 - 前記音声データ取得手段は、
前記人為的分裂度が大きいほど前記対象区間が長くなるように話速変換処理を施すこと、
を特徴とする請求項1に記載の発音学習装置。 - コンピュータを、
自然音声データを記憶する自然音声データ記憶手段、
前記自然音声データ記憶手段に記憶された自然音声データを、
複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段、
前記自然音声データ記憶手段に記憶された自然音声データの、
前記セグメンテーションパターン記憶手段に記憶されたセグメンテーションパターンの前記区間の1つを対象区間として、
人為的分裂度が大きいほど減衰率が大きくなるように、
音声波形の振幅を減衰させる処理を施すことにより音声データを取得する音声データ取得手段、
前記音声データ取得手段によって取得された音声データを呈示する音声呈示手段、
入力結果として、第一状態と第二状態を含む複数の状態を取る、入力手段、及び、
前記人為的分裂度を、
前記入力手段の入力結果が第一状態である場合には、
前回に決定した値よりも小さい値となるように決定し、
前記入力手段の入力結果が第二状態である場合には、
前回に決定した値よりも大きい値又は等しい値となるように決定する人為的分裂度決定手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011161426A JP2011232775A (ja) | 2011-07-23 | 2011-07-23 | 発音学習装置及び発音学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011161426A JP2011232775A (ja) | 2011-07-23 | 2011-07-23 | 発音学習装置及び発音学習プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010203823A Division JP4842393B2 (ja) | 2010-09-11 | 2010-09-11 | 発音学習装置及び発音学習プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011232775A true JP2011232775A (ja) | 2011-11-17 |
Family
ID=45322061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011161426A Pending JP2011232775A (ja) | 2011-07-23 | 2011-07-23 | 発音学習装置及び発音学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011232775A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506157A (ja) * | 2011-12-14 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 音声増幅器のための波形整形 |
KR101920653B1 (ko) * | 2015-10-30 | 2018-11-22 | 김태정 | 비교음 생성을 통한 어학학습방법 및 어학학습프로그램 |
-
2011
- 2011-07-23 JP JP2011161426A patent/JP2011232775A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015506157A (ja) * | 2011-12-14 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 音声増幅器のための波形整形 |
KR101920653B1 (ko) * | 2015-10-30 | 2018-11-22 | 김태정 | 비교음 생성을 통한 어학학습방법 및 어학학습프로그램 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khouw et al. | Perceptual correlates of Cantonese tones | |
JP2003186379A (ja) | 音声可視化処理のためのプログラム、音声可視化図形表示と音声及び動画像の再生処理のためのプログラム、及び訓練結果表示のためのプログラム、並びに発声発話訓練装置及びコンピュータ・システム | |
JPH10153998A (ja) | 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置 | |
JP2011250100A (ja) | 画像処理装置および方法、並びにプログラム | |
WO2007058263A1 (ja) | 語学学習装置、語学学習支援方法、プログラム及び記録媒体 | |
TW201806638A (zh) | 聽覺訓練裝置、聽覺訓練方法及程式 | |
JP2011186143A (ja) | ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム | |
JP4564416B2 (ja) | 音声合成装置および音声合成プログラム | |
JP2011232775A (ja) | 発音学習装置及び発音学習プログラム | |
Louko et al. | Issues in collecting and transcribing speech samples | |
JP4678672B2 (ja) | 発音学習装置及び発音学習プログラム | |
JP6314879B2 (ja) | 音読評価装置、音読評価方法、及びプログラム | |
JP2844817B2 (ja) | 発声練習用音声合成方式 | |
JP6291808B2 (ja) | 音声合成装置及び方法 | |
Torre | Production and perception of smiling voice | |
JP4842393B2 (ja) | 発音学習装置及び発音学習プログラム | |
WO2019207575A1 (en) | Diagnosing and treatment of speech pathologies using analysis by synthesis technology | |
JP5248365B2 (ja) | 記憶支援システム、記憶支援プログラム、及び記憶支援方法 | |
JP2006139162A (ja) | 語学学習装置 | |
JP2014240902A (ja) | 学習支援装置 | |
Bashford Jr et al. | Polling the effective neighborhoods of spoken words with the verbal transformation effect | |
JP4543919B2 (ja) | 語学学習装置 | |
JP7432879B2 (ja) | 発話トレーニングシステム | |
JP2004334164A (ja) | 英語の音素「l」及び「r」の発音及び識別学習装置 | |
Takeshima et al. | Perception of vowel sequence with varying speaker size |