JP2011028282A - 発音学習装置及び発音学習プログラム - Google Patents
発音学習装置及び発音学習プログラム Download PDFInfo
- Publication number
- JP2011028282A JP2011028282A JP2010203823A JP2010203823A JP2011028282A JP 2011028282 A JP2011028282 A JP 2011028282A JP 2010203823 A JP2010203823 A JP 2010203823A JP 2010203823 A JP2010203823 A JP 2010203823A JP 2011028282 A JP2011028282 A JP 2011028282A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice data
- segmentation
- configuration
- target language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【解決手段】この発音学習装置は、音声データ005を取得する音声データ取得手段016と、該音声データ取得手段によって取得された前記音声データ005を呈示する音声呈示手段007とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データ015からなる音声バリエーション014を構成する音声データであることを特徴とする。
【選択図】図3
Description
本発明が解決しようとする課題は、学習者が目標言語のネイティブ・スピーカーと同じ数の単音を知覚できるようにすることにより、発音を抜本的に改善する発音学習装置を提供することである。なお、以下では目標言語として専ら英語を用いて例示するが、ドイツ語やフランス語など他の言語を目標言語とする場合においても同様の効果を得ることができる。
前記目標言語特有変数の第五の選択肢は、第一の選択肢から第四の選択肢の組み合わせである。この場合、組み合わされた変数を成分とするベクトルを目標言語特有変数と考えることができる。
音声バリエーション取得手段の第三の選択肢は、目標言語特有変数をパラメータとして音声合成を行うことにより音声データを取得することを特徴とする。
構成01に記載の発音学習装置を用いると、聴覚的学習時に、呈示中の音声がどのようなセグメンテーション様式で知覚すべきかを学習者に意識させることができる。
構成04に記載の発音学習教材製造方法によって生産されたデータの格納されたコンピュータ読み込み可能な媒体を用いると、汎用のメディアプレイヤーで再生させることにより、構成01の発音学習装置を用いた学習と同じ学習効果を得ることができる。
構成05に記載の発音学習装置を用いると、聴覚的学習時に、目標言語にのみ起こりうる音声バリエーションを学習者に呈示することにより、母国語のセグメンテーション様式に基づいた単音列の知覚を抑制することができる。
構成09に記載の発音学習装置を用いると、発声的学習時に、学習者の発した音声が、目標言語のセグメンテーション様式で知覚したとする場合には、どのように知覚されるかを学習者にフィードバックすることができる。
(構成01)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段と、前記セグメンテーションパターンの区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成手段と、前記音声データを呈示する音声呈示手段と、該音声呈示手段による音声呈示と同期させて前記タイミング刺激を呈示するタイミング刺激呈示手段とからなることを特徴とする発音学習装置。
(構成02)音声呈示装置と刺激呈示装置と記憶装置を有するコンピュータを、構成01に記載の発音学習装置として機能させるためのプログラム。
(構成03)音声データと、該音声データを時間軸上で複数の区間に分割するセグメンテーションパターンとが、対応付けられて記録されたコンピュータ読み込み可能な記録媒体。
(構成04)音声データを複数の区間に分割するセグメンテーションパターンから、前記区間の切り替わりのタイミングを学習者に知覚させるタイミング刺激を生成するタイミング刺激生成ステップと、前記音声データと前記タイミング刺激を同期呈示可能なデータとしてコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成05)音声データを取得する音声データ取得手段と、該音声データ取得手段によって取得された前記音声データを呈示する音声呈示手段とを有し、前記音声データは、目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを構成する音声データであることを特徴とする発音学習装置。
(構成06)音声呈示装置を有するコンピュータを、構成05に記載の発音学習装置として機能させるためのプログラム。
(構成07)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションが格納されたコンピュータ読み込み可能な媒体。
(構成08)目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを取得する音声バリエーション取得ステップと、前記音声バリエーションをコンピュータ読み込み可能な媒体に格納するデータ格納ステップからなることを特徴とする発音学習教材製造方法。
(構成09)音声を入力する音声入力手段と、該音声入力手段によって入力された音声データからセグメンテーションパターンを認識するセグメンテーション手段と、前記セグメンテーションパターンの特徴を呈示するセグメンテーションパターン特徴呈示手段を有することを特徴とする発音学習装置。
(構成010)音声入力装置と刺激呈示装置を有するコンピュータを、構成09に記載の発音学習装置として機能させるためのプログラム。
(構成1)前記複数の区間は、一つ以上の単音区間と一つ以上の背景区間とからなることを特徴とする構成01の発音学習装置。
(構成2)前記セグメンテーションパターン記憶手段とは別の第二セグメンテーションパターン記憶手段をもち、前記タイミング刺激は、前記セグメンテーションパターンの区間の切り替わりのタイミングと、前記第二セグメンテーションパターン記憶手段に記憶された第二セグメンテーションパターンの区間の切り替わりのタイミングとを、同時に学習者に知覚させることができることを特徴とする構成01または構成1に記載の発音学習装置。
(構成3)前記タイミング刺激は、単音発音記号から成ることを特徴とする構成01または構成1または構成2に記載の発音学習装置。
(構成5)自然音声データを記録する自然音声データ記憶手段と、前記自然音声データを複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段を有し、前記音声データ取得手段は、前記セグメンテーションパターンと目標言語特有変数をパラメータとして前記自然音声データに対してフィルタリング処理を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成7)前記音声データ取得手段は、構成07の媒体から音声データを読み出すことにより音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成8)前記音声データ取得手段は、目標言語特有変数をパラメータとして音声合成を行うことにより、前記音声データを取得することを特徴とする構成05または構成4の発音学習装置。
(構成10)前記音声呈示手段は、前記音声バリエーションを構成する音声データを、順不同に取得することを特徴とする構成05または構成4乃至構成8の発音学習装置。
(構成11)入力手段を有し、前記音声データ取得手段は、前記入力手段から得られる入力に従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成4乃至構成8の発音学習装置。
(構成13)音声データ取得手段は、直前に呈示された音声データの目標言語特有変数にも従って、前記音声バリエーションを構成する音声データを取得することを特徴とする構成11乃至構成12の発音学習装置。
(構成14)前記音声バリエーションを構成する音声データの各々に対応付けられて目標言語特有変数が格納された構成07に記載のコンピュータ読み込み可能な媒体。
(構成16)前記特徴は、単音間の背景区間の長さであることを特徴とする構成09に記載の発音学習装置。
(構成17)前記特徴は、前記セグメンテーションパターンの適正度を表す評価値であることを特徴とする構成09に記載の発音学習装置。
(構成18)前記特徴は、前記セグメンテーションパターンそのものであることを特徴とする構成09に記載の発音学習装置。
(構成19)音声データを記憶する音声データ記憶手段と、前記音声データを時間軸上で複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段とを有し、前記セグメンテーション手段は、前記音声データを照合パターンとして、入力音声データとの間でDPマッチングを行うことを特徴とする構成09に記載の発音学習装置。
(参考例1)
(参考例2)
(参考例3)
(参考例4)
なお、参考例1乃至参考例4において、呈示されたタイミング刺激の画面推移を動画像データとして構成し直し、音声データと共にマルチメディアデータとしてコンピュータ読み込み可能な媒体に格納すれば、構成04の発音学習教材製造方法の例となる。
(参考例5)
(実施例1)
このようにして録音収集した音声データについて、自然音声データと調整音声データをセットで音声バリエーションとみなし、音声バリエーション番号を付与した上で、図17に示す形式にて構成07に記載の記録媒体に記録しておく。音声バリエーションの内容は、例えば、音声バリエーション1が“la”、音声バリエーション2が“li”、音声バリエーション2が“lu”、というように、学習すべき単音列が異なっている。
自然音声と調整音声は、一度ずつだけの呈示でもよいが、自然音声と調整音声を交互に繰り返して呈示し続ける方がより効果的である。学習者が第一の音声バリエーションについて十分学習したと考えたときには、GUI上の「次ボタン」を押して第二の音声バリエーションの学習へと進む。
(実施例2)
調整音声データは、自然音声データに対してセグメンテーションパターンに由来する重み付け関数によりフィルタリングをして得る。図18に、フィルタリングによって、人為的分裂度(v)を変化させながら調整音声を生成する方法を説明する図を示す。
図18(b)はv=100%の重み付け関数である。このv=100%における重み付け関数は、ギャップ区間の内部が概ね0に近く、その外部が概ね1となるような関数であるが、ステップ関数を用いると調整音声に高周波ノイズが発生するため、ガウス関数など滑らかに変化する関数を用いることが望ましい。v=100%の調整音声は、図18(a)の自然音声波形と図18(d)の重み付け関数を同じ時刻(t)同士の値で掛け合わせたものとして得られる。
このように、セグメンテーションパターンと目標言語特有変数をパラメータとして入力し、自然音声データに対してフィルタリング処理を行うことにより、音声データを取得することができる(構成5)。
なお、実施例2は、音声データ取得手段によって得られたデータを、コンピュータ読み込み可能な媒体に格納する機能を付加することにより、構成7としての例となる。
(実施例3)
なお、実施例3については、セグメンテーションパターンが手入力されているため、構成01の発音学習装置の構成と併用するとより効果的である。
(実施例4)
(実施例5)
なお、実施例5で示した局所的な話速変換処理を用いれば、目標言語特有パラメータとして単音持続時間を用いる場合にもフィルタリングにて調整音声を取得することができる。
(参考例6)
セグメンテーション手段では、音声認識分野において時間軸を正規化するときに標準的に用いられるDP(Dynamic Programming)マッチング手法を用いる。すなわち、音声入力手段によって入力された音声データを入力パターンとし、手本音声を照合パターンとして、時間軸を非線形に伸縮させ、最適に照合させる。この手本音声には、あらかじめセグメンテーションパターンを手入力しておくことができるので、その時刻が照合後に入力された音声データのどの時刻に対応づけられたかを調べることにより、入力音声に対して対応づけられるべきセグメンテーションパターンの時刻はどこかを知ることができる。
(参考例7)
また、分散値自体を画面上に文字表示するなどして、別の評価値としてフィードバックしてもよい。
(実施例6)
この発音学習装置を構成09の発音学習装置としてみた場合の構成は以下の通りである。持続音である子音の持続音の持続時間が閾値より短くなれば、ブザーを鳴らして学習者にフィードバックを与える。日本語型のセグメンテーション様式においては、持続音の持続時間を長くすることができないので、これにより、英語型セグメンテーション様式に基づいているかどうか確認できる。
(参考例8)
002 日本語型セグメンテーション様式で知覚するときの切り出し区間
003 英語型セグメンテーション様式で知覚するときの切り出し区間(子音部分)
004 英語型セグメンテーション様式で知覚するときの切り出し区間(母音部分)
005 音声データ
006 音声データ記憶手段
007 音声呈示装置
008 音声
009 セグメンテーションパターン
010 セグメンテーションパターン記憶手段
011 タイミング刺激生成手段
012 タイミング刺激呈示手段
013 タイミング刺激
014 音声バリエーション
015 互いに目標言語特有パラメータが異なる複数の音声データ
016 音声データ取得手段
017 目標言語特有変数
018 学習者母国語において同一単音列として知覚される範囲
019 目標言語において同一単音列として知覚される範囲
020 自然音声
021 調整音声
022 第一の調整音声
023 第二の調整音声
024 第三の調整音声
025 自然音声データ
026 自然音声データ記憶手段
027 音声データ取得手段(フィルタリング)
028 入力手段
029 音声入力手段
030 セグメンテーション手段
031 セグメンテーションパターン特徴呈示手段
101 ブランク画像
102 画像A
103 画像B
104 タイマーリセット
105 ブランク画像の呈示
106 TとT0を比較
107 画像Aの呈示
108 TとT1を比較
109 画像Bの呈示
110 TとT2を比較
301 音声の呈示と同期させて右に動かす縦棒
302 英語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
303 日本語用のセグメンテーションパターンにおいて単音区間内に入るとき赤色となる領域
401 単音“l”の持続時間中に呈示される画像
402 単音“a”の持続時間中に呈示される画像
701 ギャップ区間
702 人為的分離度(v)を100%に設定
703 調整音声を呈示(v=0%の場合は標準音声を呈示)
704 入力チェック
705 vを5%減少(v=0%ならばそのまま)
706 vを5%増加(v=100%ならばそのまま)
Claims (9)
- 音声データを取得する音声データ取得手段と、
該音声データ取得手段によって取得された前記音声データを呈示する音声呈示手段とを有し、
前記音声データは、目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを構成する音声データであること、
を特徴とする発音学習装置。 - 前記音声バリエーションは、自然音声とは目標言語特有変数が異なる複数の音声データを含むこと、
を特徴とする請求項1に記載の発音学習装置。 - 自然音声データを記録する自然音声データ記憶手段と、
前記自然音声データを複数の区間に分割するセグメンテーションパターンを記憶するセグメンテーションパターン記憶手段を有し、
前記音声データ取得手段は、前記セグメンテーションパターンと目標言語特有変数をパラメータとして前記自然音声データに対してフィルタリング処理を行うことにより、前記音声データを取得すること、
を特徴とする請求項1又は2に記載の発音学習装置。 - 前記複数の区間は一つ以上の単音区間と一つ以上の背景区間から成り、
前記目標言語特有変数は人為的分裂度であり、
前記フィルタリング処理は前記背景区間に対応する音声波形の振幅を、前記人為的分裂度に応じて減ずる処理であること、
を特徴とする請求項3に記載の発音学習装置。 - 前記目標言語特有変数は、単音間の背景区間の時間長であること、
を特徴とする請求項1又は2に記載の発音学習装置。 - 前記目標言語特有変数は、単音の持続時間長であること、
を特徴とする請求項1又は2に記載の発音学習装置。 - 入力手段を有し、
前記音声データ取得手段は、前記入力手段から得られる入力に従って、前記音声バリエーションを構成する音声データを取得すること、
を特徴とする請求項1乃至6の発音学習装置。 - 前記入力手段は音声入力手段であり、
該音声入力手段によって入力された音声データからセグメンテーションパターンを認識するセグメンテーション手段を有し、
前記音声データ取得手段は、前記セグメンテーションパターンの特徴に従って、前記音声バリエーションを構成する音声データを取得すること、
を特徴とする請求項7に記載の発音学習装置。 - 音声呈示装置を有するコンピュータを、
音声データを取得する音声データ取得手段、及び、
該音声データ取得手段によって取得された前記音声データを呈示する音声呈示手段、
として機能させるためのプログラムであって、
前記音声データは、目標言語特有変数が互いに異なる複数の音声データからなる音声バリエーションを構成する音声データであること、
を特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010203823A JP4842393B2 (ja) | 2010-09-11 | 2010-09-11 | 発音学習装置及び発音学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010203823A JP4842393B2 (ja) | 2010-09-11 | 2010-09-11 | 発音学習装置及び発音学習プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005110310A Division JP4678672B2 (ja) | 2005-03-09 | 2005-03-09 | 発音学習装置及び発音学習プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011161426A Division JP2011232775A (ja) | 2011-07-23 | 2011-07-23 | 発音学習装置及び発音学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011028282A true JP2011028282A (ja) | 2011-02-10 |
JP4842393B2 JP4842393B2 (ja) | 2011-12-21 |
Family
ID=43637005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010203823A Active JP4842393B2 (ja) | 2010-09-11 | 2010-09-11 | 発音学習装置及び発音学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4842393B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250401A (ja) * | 1999-02-25 | 2000-09-14 | Anritsu Corp | 言語学習方法、言語学習装置およびプログラムを記録した媒体 |
JP2003162291A (ja) * | 2001-11-22 | 2003-06-06 | Ricoh Co Ltd | 語学学習装置 |
JP2004334164A (ja) * | 2002-10-24 | 2004-11-25 | Toshimasa Ishihara | 英語の音素「l」及び「r」の発音及び識別学習装置 |
-
2010
- 2010-09-11 JP JP2010203823A patent/JP4842393B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250401A (ja) * | 1999-02-25 | 2000-09-14 | Anritsu Corp | 言語学習方法、言語学習装置およびプログラムを記録した媒体 |
JP2003162291A (ja) * | 2001-11-22 | 2003-06-06 | Ricoh Co Ltd | 語学学習装置 |
JP2004334164A (ja) * | 2002-10-24 | 2004-11-25 | Toshimasa Ishihara | 英語の音素「l」及び「r」の発音及び識別学習装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4842393B2 (ja) | 2011-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khouw et al. | Perceptual correlates of Cantonese tones | |
JP2003186379A (ja) | 音声可視化処理のためのプログラム、音声可視化図形表示と音声及び動画像の再生処理のためのプログラム、及び訓練結果表示のためのプログラム、並びに発声発話訓練装置及びコンピュータ・システム | |
JPH10153998A (ja) | 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置 | |
JP2011250100A (ja) | 画像処理装置および方法、並びにプログラム | |
JP2011186143A (ja) | ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム | |
JP2011232775A (ja) | 発音学習装置及び発音学習プログラム | |
JP4678672B2 (ja) | 発音学習装置及び発音学習プログラム | |
Louko et al. | Issues in collecting and transcribing speech samples | |
JP2844817B2 (ja) | 発声練習用音声合成方式 | |
JP6291808B2 (ja) | 音声合成装置及び方法 | |
JP4842393B2 (ja) | 発音学習装置及び発音学習プログラム | |
JP5248365B2 (ja) | 記憶支援システム、記憶支援プログラム、及び記憶支援方法 | |
JP6155102B2 (ja) | 学習支援装置 | |
JP2023007405A (ja) | 音声変換装置、音声変換方法、プログラム、および記録媒体 | |
JP6314879B2 (ja) | 音読評価装置、音読評価方法、及びプログラム | |
Torre | Production and perception of smiling voice | |
JP2006139162A (ja) | 語学学習装置 | |
Bashford Jr et al. | Polling the effective neighborhoods of spoken words with the verbal transformation effect | |
JP4543919B2 (ja) | 語学学習装置 | |
JP7432879B2 (ja) | 発話トレーニングシステム | |
JP2004334164A (ja) | 英語の音素「l」及び「r」の発音及び識別学習装置 | |
JP2006162760A (ja) | 語学学習装置 | |
Takeshima et al. | Perception of vowel sequence with varying speaker size | |
JP2009000248A (ja) | ゲーム機 | |
JP2021110874A (ja) | 発話練習プログラム、発話練習方法、及び、発話練習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110304 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110723 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4842393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141014 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |