JP2016004172A - 発音学習支援装置およびプログラム - Google Patents

発音学習支援装置およびプログラム Download PDF

Info

Publication number
JP2016004172A
JP2016004172A JP2014124762A JP2014124762A JP2016004172A JP 2016004172 A JP2016004172 A JP 2016004172A JP 2014124762 A JP2014124762 A JP 2014124762A JP 2014124762 A JP2014124762 A JP 2014124762A JP 2016004172 A JP2016004172 A JP 2016004172A
Authority
JP
Japan
Prior art keywords
sound
data
sentence
text
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014124762A
Other languages
English (en)
Inventor
知哉 梶川
Tomoya Kajikawa
知哉 梶川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014124762A priority Critical patent/JP2016004172A/ja
Publication of JP2016004172A publication Critical patent/JP2016004172A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】文章の発音におけるリエゾン部分を適切に学習可能な学習支援装置を提供する。
【解決手段】例文データベースに記憶されている各例文の中からユーザ任意の例文が指定されると(S1)、当該例文データベースから読み出された前記指定の例文の音声データに対して、単語データベースから読み出された前記指定の例文を構成する各単語を繋げた音声データが比較され(S2〜S4)、その不一致部分の開始位置から終了位置が判断されて前記指定の例文の音声データのリエゾン部分が検出される(SA)。すると、前記例文データベースから読み出された指定の例文のテキストがタッチパネル付表示部に表示されると共に、当該例文のテキストの前記検出されたリエゾン部分が識別されて表示される(S5)。
【選択図】 図6

Description

本発明は、例えば外国語の発音を学習するのに好適な発音学習支援装置およびその制御プログラムに関する。
従来から、外国語を学習して話せるようになるには、読み書きだけでなく発音を覚えることが重要であり、以下に記載するような種々の学習支援機器が利用されている。
ユーザ任意の見出し語に基づいて検索された例文の読み上げ音声を出力することが可能な電子辞書が考えられている(例えば、特許文献1参照。)。
例文中で用いられているユーザ指定の語句の変則的な発音や強弱の変化した発音について、その読み上げ音声を出力することが可能な電子辞書が考えられている(例えば、特許文献2参照。)。
特開2007−207182号公報 特開2008−058678号公報
例えばネイティブによる発音には大小様々なリエゾン部分が存在するが、このリエゾン部分の発音学習に適した学習支援装置が必要である。
本発明は、このような課題に鑑みなされたもので、文章の発音におけるリエゾン部分を適切に学習することが可能になる発音学習支援装置およびその制御プログラムを提供することを目的とする。
本発明に係る発音学習支援装置は、文章のテキストデータとその音声データとを記憶する文章記憶手段と、単語のデータとその音声データとを記憶する単語記憶手段と、前記文章記憶手段により記憶された文章の音声データと前記単語記憶手段により記憶された当該文章を構成する各単語を繋げた音声データとを比較して同文章のリエゾン部分を検出するリエゾン部分検出手段と、前記文章記憶手段により記憶された文章のテキストデータを表示させると共に、当該テキストデータのうち前記リエゾン部分検出手段により検出されたリエゾン部分を識別可能に表示させる文章表示制御手段と、を備えたことを特徴としている。
本発明によれば、文章の発音におけるリエゾン部分を適切に学習することが可能になる。
本発明の実施形態に係る発音学習支援装置10の電子回路の構成を示すブロック図。 前記発音学習支援装置10をタブレット端末20Tとサーバ装置30Sにより実施した場合の外観構成を示す斜視図。 前記発音学習支援装置10を電子辞書装置10Dにより実施した場合の外観構成を示す正面図。 前記発音学習支援装置10のデータ処理装置30における例文データベース32bの内容を示す図。 前記発音学習支援装置10のデータ処理装置30における単語データベース32cの内容を示す図。 前記発音学習支援装置10による発音学習処理を示すフローチャート。 前記発音学習支援装置10の発音学習処理におけるリエゾン部分検出処理を示すフローチャート。 前記発音学習支援装置10の発音学習処理における例文音声の強音部検出処理を示すフローチャート。 前記発音学習支援装置10の発音学習処理に従ったリエゾン部分検出処理および強音部検出処理を説明するための図であり、同図(A)は例文の音声データを示す図、同図(B)は例文を構成する各単語の個別の音声データを示す図、同図(C)は例文の音声データの強音部検出状態を示す図。 前記発音学習支援装置10の発音学習処理に従った学習支援のための出力動作を示す図であり、同図(A)は例文テキストに対するリエゾン部分L1,L2の識別表示状態を示す図、同図(B)は例文音声データに合成されるリズム音Ds1,Ds2,…の出力状態を示す図。
以下図面により本発明の実施の形態について説明する。
図1は、本発明の実施形態に係る発音学習支援装置10の電子回路の構成を示すブロック図である。
この発音学習支援装置10は、入出力装置20とコンピュータであるデータ処理装置30とを備えて構成される。
前記入出力装置20には、キー入力部21、タッチパネル付表示部22、音声出力部23、当該キー入力部21とタッチパネル付表示部22と音声出力部23とに対する入出力制御部24、この入出力制御部24を前記データ処理部30と接続するためのインターフェイス(IF)部25が備えられる。
前記データ処理装置30には、制御装置(CPU)31、この制御装置31の制御動作を司る各種のプログラムやデータベースを記憶した記憶装置32、前記制御動作に伴う作業用データを記憶するRAM33、前記制御装置(CPU)31を前記入出力装置20と接続するためのインターフェイス(IF)部34が備えられる。
図2は、前記発音学習支援装置10をタブレット端末20Tとサーバ装置30Sにより実施した場合の外観構成を示す斜視図である。
この図2における発音学習支援装置10の場合、前記タブレット端末20Tが前記入出力装置20として機能し、前記サーバ装置30Sが前記データ処理装置30として機能する。
図3は、前記発音学習支援装置10を電子辞書装置10Dにより実施した場合の外観構成を示す正面図である。
この図3における電子辞書装置10Dの場合、前記入出力装置20とデータ処理装置30は何れも当該電子辞書装置10Dに一体的に内蔵され、開閉される装置本体の下段側に前記キー入力部21が設けられ、上段側に前記タッチパネル付表示部22が設けられる。この電子辞書装置10Dのキー入力部21には、各種の辞書指定キー、文字入力キー、[Jump]キー、[決定]キー、[戻る]キーの他に、発音学習の動作モードに設定するための[発音学習]キー21aが備えられる。
前記データ処理装置30の記憶装置32には、前記制御装置31により実行される制御プログラム32a、例文DB32b、単語DB32cなどが、予め記憶されるか、あるいはCD−ROMやメモリカードなどの外部記録媒体から読み込まれて記憶されるか、あるいはインターネットなどの通信ネットワーク上のプログラムサーバからダウンロードされて記憶される。
前記制御プログラム32aとしては、当該発音学習支援装置10の全体の動作を司るシステムプログラム、前記通信ネットワーク上の外部機器や図示しないユーザPC(Personal Computer)などとデータ通信するための通信プログラムなどが記憶される。また、前記制御プログラム32aとして、検索語入力処理、検索語に対応した見出し語検索処理、検索された見出し語に対応する説明情報の読み出し表示処理など、同記憶装置32内の辞書等のデータベース(DB32b,32c)に基づく検索・読み出し・表示処理全般を制御するための辞書検索プログラムが記憶される。
さらに、前記制御プログラム32aとして、例文データベース32bから読み出された例文の音声データと単語データベース32cから読み出された前記例文を構成する各単語の音声データとに基づき、前記例文の発音のリエゾン部分を検出し、当該例文のテキストの表示と共に前記リエゾン部分を識別表示させて発音の学習を行うための発音学習支援プログラムが記憶される。
そして、前記制御プログラム32aは、前記入出力装置20のキー入力部21、タッチパネル付表示部22からのユーザ操作に応じた入力信号、あるいは前記通信ネットワーク上の外部機器との通信信号に応じて起動される。
図4は、前記発音学習支援装置10のデータ処理装置30における例文データベース32bの内容を示す図である。
前記例文データベース32bには、例えば前記単語データベース32cに記憶されている単語毎に当該単語を使用した例文のテキストデータとその音声データ(ネイティブによる音声(圧縮符号化コード))が対応付けられて記憶される。
なお、前記例文の音声データは、会話口調で収録された音声であり、その例文を構成する単語間にはリエゾン部分が含まれる。
図5は、前記発音学習支援装置10のデータ処理装置30における単語データベース32cの内容を示す図である。
前記単語データベース32cには、少なくとも前記例文データベース32bに集録されている全ての例文を構成する各単語のテキストデータとその音声データ(前記例文の音声と同じネイティブによる音声(圧縮符号化コード))が対応付けられて記憶される。
前記データ処理装置30におけるRAM33には、表示データ記憶領域33a、例文音声データ記憶領域33b、単語音声データ記憶領域33c、リエゾン位置検出データ記憶領域33d、強音部検出データ記憶領域33eが確保される。
前記表示データ記憶領域33aには、前記制御装置31による前記制御プログラム32aの実行に従い生成される前記入出力装置20のタッチパネル付表示部22に表示させるべき表示データが記憶される。
前記例文音声データ記憶領域33bには、前記制御プログラム32aの発音学習支援プログラムに従い実行される発音学習処理において、ユーザにより指定されて前記例文データベース32bから読み出された例文の音声データ(圧縮符号化コード)が音声信号にデコードされて記憶される(図9(A)参照)。
前記単語音声データ記憶領域33cには、前記ユーザにより指定されて前記例文データベース32bから読み出された例文を構成する各単語の音声データ(圧縮符号化コード)が前記単語データベース32cから読み出され、音声信号にデコードされて記憶される(図9(B)参照)。なお、例文や単語の音声は圧縮符号化したデータを記憶することにしているが、PCM等の音声信号データをそのまま圧縮せずに記憶させてもよい。
前記リエゾン位置検出データ記憶領域33dには、前記発音学習処理において、前記例文データベース32bから読み出された例文のテキストに対応付けて、前記例文音声データ記憶領域33bに記憶された当該例文の音声信号と前記単語音声データ記憶領域33cに記憶された同例文を構成する各単語の音声信号とに基づき検出されたリエゾン開始位置とリエゾン終了位置とが記録される。
前記強音部検出データ記憶領域33eには、前記発音学習処理において、前記例文音声データ記憶領域33bに記憶された当該例文の音声信号に応じてその強音部(アクセント部)が検出される。そして、前記検出された強音部の音強(音の強さ)と音高(音の高さ)が計算され、前記例文音声信号の出力時間に対応付けられて記録される(図9(C)参照)。
なお、図9(C)において、前記例文の音声信号(33b)に応じて検出された各強音部(アクセント部)を示す丸印は、その丸の大きさが音の強さ(音強)を、その高さ方向の位置が音の高さ(音高)を示している。
このように構成された発音学習支援装置10は、前記データ処理装置30の制御装置(CPU)31が前記制御プログラム32a(前記辞書検索プログラム、発音学習支援プログラムを含む)に記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、後述の動作説明で述べる機能を実現する。
次に、前記構成の発音学習支援装置10の動作について説明する。
図6は、前記発音学習支援装置10による発音学習処理を示すフローチャートである。
図7は、前記発音学習支援装置10の発音学習処理におけるリエゾン部分検出処理を示すフローチャートである。
図8は、前記発音学習支援装置10の発音学習処理における例文音声の強音部検出処理を示すフローチャートである。
図9は、前記発音学習支援装置10の発音学習処理に従ったリエゾン部分検出処理および強音部検出処理を説明するための図であり、同図(A)は例文の音声データを示す図、同図(B)は例文を構成する各単語の個別の音声データを示す図、同図(C)は例文の音声データの強音部検出状態を示す図である。
前記入出力装置20のユーザ操作に応じて、前記データ処理装置30によりその制御プログラム32a(発音学習支援プログラム)のアプリケーションが起動されると、図6における発音学習処理が起動され、前記例文データベース32bに記憶されている各例文の中から学習対象の例文をユーザに指定させるための例文選択メニュー(図示せず)が生成されタッチパネル付表示部22に表示される。
前記例文選択メニュー対するユーザ操作に応じて、前記データ処理装置30の制御装置31により例文が指定されたと判断されると(ステップS1(Yes))、前記例文データベース32bから当該指定の例文の音声データが読み出され(ステップS2)、また前記単語データベース32cから前記指定の例文を構成する各単語の音声データが読み出される(ステップS3)。
この実施形態では、前記ユーザにより指定された例文を、仮に“Can I have an orange?”として説明する。
すると、前記例文データベース32bから読み出された例文の音声データ[キャ(nア)イ ハ(vア)(nオ)−レンジ?]“キャナイハヴァノーレンジ”と前記単語データベース32cから読み出された各単語“Can”“I”“have”“an”“orange”を繋げた音声データ“キャンアイハヴアンオレンジ”とが比較され(ステップS4)、前記図7に示すリエゾン部分検出処理により前記例文の音声データのリエゾン部分が検出される(ステップSA)。
ここで、前記図7に示すリエゾン部分検出処理について説明する。
先ず、前記例文“Can I have an orange?”の音声データ(圧縮符号化コード)がデコード処理されて音声信号(“キャナイハヴァノーレンジ”と発音する信号)が生成され、図9(A)に示すように、前記RAM33内の例文音声データ記憶領域33bに記憶される(ステップA1)。
また、前記例文を構成する最初の単語“Can”の音声データ(圧縮符号化コード)がデコード処理されて音声信号(“キャン”と発音する信号)が生成され、図9(B)に示すように、前記RAM33内の単語音声データ記憶領域33cに記憶される(ステップA2)。なお、音声データが圧縮符号化されていない場合には、デコードすることなくそのまま音声データを利用して比較することになる。
すると、前記例文の音声信号の先頭“キャナイ…”から前記最初の単語の音声信号“キャン”が時間軸を同期させて比較処理され(ステップA3)、当該単語“キャン”の末尾が一致しているか否か判断される(ステップA4)。
ここでは、前記例文の音声信号“キャナイ…”に対して前記単語の音声信号“キャン”の末尾が一致していないと判断されるので(ステップA4(No))、その時点での前記例文のテキスト上での位置、つまり“Can I …”の“n”の位置が、リエゾン開始位置として前記RAM33内のリエゾン位置検出データ記憶領域33dに記録される(ステップA6)。
すると、前記例文を構成する各単語のうち次の単語(ここでは2番目の単語“I”)の音声信号“アイ”が生成されて前記単語音声データ記憶領域33cに記憶され(ステップA7)、前記同様に時間同期させた前記例文の音声信号“キャナイハ…”に対する比較処理が実行される(ステップA8)。
そして、前記例文の音声信号“キャナイハ…”に対して前記次の単語の音声信号“アイ”の終わりの部分で一致部分“イ”が検出されると(ステップA9(Yes))、その時点での当該例文のテキスト上での位置、つまり“Can I …”の“I”の位置が、リエゾン終了位置として前記リエゾン位置検出データ記憶領域33dに記録される(ステップA10)。
するとさらに、前記例文の次の単語(ここでは3番目の単語“have”)の音声信号“ハヴ”が生成されて前記単語音声データ記憶領域33cに記憶され(ステップA11→A5)、前記同様に同例文の音声信号との比較処理が実行される(ステップA3)。
なお、前記ステップA9において、前記次の単語の音声信号の一致部分が検出されない場合は(ステップA9(No))、前記リエゾン開始位置からのリエゾンが継続していることになるので、さらに次の単語の音声信号が生成されて前記例文の音声データに対する比較処理が繰り返される(ステップA7,A8)。
また、前記ステップA4において、前記例文の音声信号に対して前記単語の音声信号の末尾が一致していると判断された場合は(ステップA4(Yes))、その単語についてはリエゾンが発生していないとみなし、次の単語の音声信号が生成されて前記単語音声データ記憶領域33cに記憶され(ステップA11→A5)、前記同様に引き続き同例文の音声信号との比較処理が実行される(ステップA3)。
この後、前記ステップA3〜A11の処理により、前記同様に前記例文の音声信号“キャナイハヴァノーレンジ”に対する各単語の音声信号“ハヴ”“アン”“オレンジ”との比較処理が順次実行されると、当該単語の音声信号“ハヴ”の末尾が前記例文の音声信号“キャナイハヴァ…”と一致しないことで(ステップA4(No))、その時点での前記例文のテキスト上での位置、つまり“Can I have …”の“e”の位置が、リエゾン開始位置として記録される(ステップA6)。
また、次の単語“an”の音声信号“アン”についても、前記例文の音声信号“キャナイハヴァノー…”と引き続き一致しないので(ステップA7〜A9(No))、さらに次の単語“orange?”の音声信号“オレンジ”と比較される(ステップA7,A8)。
すると、前記例文の音声信号“キャナイハヴァノー…”に対して、その音声信号“ノー(nオ)”の後半部分で前記次の単語の音声信号“オレンジ”の“オ”が一致部分として検出され(ステップA9(Yes))、その時点での当該例文のテキスト上での位置、つまり“orange?”の“o”の位置がリエゾン終了位置として前記リエゾン位置検出データ記憶領域33dに記録される(ステップA10)。
これにより、前記リエゾン位置検出データ記憶領域33dには、前記例文のテキスト“Can I have an orange?”に対応付けて、その“Can I ”の“n”〜“I”の範囲と“have an orange?”の“e”〜“o”の範囲がリエゾン部分として記録される。
すると、次の単語が存在しないとの判断により(ステップA11(No))、前記一連のリエゾン部分検出処理は終了され(Return)、前記図8に示す例文音声の強音部検出処理に移行される(ステップSB)。
ここで、前記図8に示す例文音声の強音部検出処理について説明する。
先ず、前記例文“Can I have an orange?”の音声データ(圧縮符号化コード)が先頭から順次デコード処理されて音声信号“キャナイ…”が生成され(ステップB1)、例えば、当該音声データの音声レベルが予め設定された閾値レベルを超えたかを判断してその強音部D1,D2,…が検出される(ステップB2)。
そして、前記例文の音声信号の強音部Dn…が検出されると(ステップB2(Yes))、その強音部Dnの音の強さ(音強)と音の高さ(音高)が計算され(ステップB3)、図9(C)に示すように、前記RAM33内の強音部検出データ記憶領域33eに対し、当該例文の音声データの経過時間tに対応付けて前記検出された強音部Dnが前記計算された音の強さ(音強)と音の高さ(音高)として記録される(ステップB4)。
前記図9(C)において、前記例文の音声信号から検出された強音部Dn…は、その丸印の大きさで音の強さ(音強)を示す。
すると引き続き前記例文の音声信号が順次生成され(ステップB5)、前記同様に、その強音部D1,D2,…の検出、記録処理が繰り返される(ステップB6(No)→B2〜B5)。
これにより、前記強音部検出データ記憶領域33eには、前記例文の音声信号の経過時間tに対応付けられて、前記検出された強音部D1[キャ],D2[ナイ],D3[ハヴァ],D4[ノー],D5[レンジ]がその音高と音強により記録される。
図10は、前記発音学習支援装置10の発音学習処理に従った学習支援のための出力動作を示す図であり、同図(A)は例文テキストに対するリエゾン部分L1,L2の識別表示状態を示す図、同図(B)は例文音声データに合成されるリズム音Ds1,Ds2,…の出力状態を示す図である。
前記リエゾン部分検出処理により、前記例文のテキスト“Can I have an orange?”に対応付けてその音声データのリエゾン部分が記録され(ステップSA)、また、前記強音部検出処理により、当該音声データの経過時間tに対応付けてその強音部D1〜D5が記録されると(ステップSB)、図10(A)に示すように、前記リエゾン位置検出データ記憶領域22dの記録データに基づいて、当該リエゾン部分L1,L2を識別表示させた前記例文テキスト“Can I have an orange?”の表示データが生成され、前記入出力装置20のタッチパネル付表示部22に表示される(ステップS5)。
すると、ユーザ操作に応じて、前記例文を音声のみで出力させるモードか、又はガイド付き音声で出力させるモードかが判断される(ステップS6/S8)。
そして、前記例文を音声のみで出力させるモードであると判断された場合は(ステップS6(Yes))、前記例文音声データ記憶領域33bに記憶された前記例文の音声信号“キャナイハヴァノーレンジ”が読み出され、前記入出力装置20の音声出力部23により出力されて再生される(ステップS7)。
一方、前記例文をガイド付き音声で出力させるモードであると判断された場合は(ステップS8(Yes))、前記例文の音声信号“キャナイハヴァノーレンジ”が前記音声出力部23により再生されるのに伴い、その音声再生の時間経過に従って、図10(B)に示すように、前記強音部検出データ記憶領域33e(図9(C)参照)に記録されている各強音部D1,D2,…の音強,音高に応じた強さ,高さのリズム音Ds1,Ds2,…が生成され、前記音声出力部23により前記例文の音声信号にガイド音(報知音)として合成されて出力される(ステップS9)。
したがって、前記構成の発音学習支援装置10の発音学習支援機能によれば、前記例文データベース32bに記憶されている各例文の中からユーザ任意の例文が指定されると、当該例文データベース32bから読み出された前記指定の例文の音声データに対して、前記単語データベース32cから読み出された前記指定の例文を構成する各単語を繋げた音声データが比較され、その不一致部分の開始位置から終了位置が判断されて前記指定の例文の音声データのリエゾン部分が検出される。すると、前記例文データベース32bから読み出された指定の例文のテキストがタッチパネル付表示部22に表示されると共に、当該例文のテキストの前記検出されたリエゾン部分L1,L2が識別されて表示される。
これにより、ユーザ指定の例文の発音におけるリエゾン部分を容易且つ適切に学習することができる。
また、前記構成の発音学習支援装置10の発音学習支援機能によれば、前記指定の例文のテキストの表示に伴うリエゾン部分L1,L2の識別表示と並行して、前記例文データベース32bから読み出されて生成された当該例文の音声データが音声出力部23から再生される。
これにより、ユーザ指定の例文のテキストのリエゾン部分L1,L2を識別表示により確認しながらそのリエゾン部分を含む音声データを並行して聴くことで効果的な学習が行える。
また、前記構成の発音学習支援装置10の発音学習支援機能によれば、前記例文データベース32bから読み出された前記指定の例文の音声データの強音部D1,D2,…が検出され、当該音声データの再生に伴い前記検出された強音部D1,D2,…に対応したリズム音Ds1,Ds2,…が合成されガイド音(報知音)として出力される。
これにより、ユーザ指定の例文の音声データのリエゾン部分を効果的に学習できるだけでなく、当該例文の発音やその一連の音声データを、抑揚を明確にした覚えやすい音にしてユーザに聴かせることができる。
なお、前記各実施形態において記載した発音学習支援装置10による各処理の手法およびデータベース(DB)、すなわち、図6のフローチャートに示す発音学習処理、図7のフローチャートに示す前記発音学習処理におけるリエゾン部分検出処理、図8のフローチャートに示す前記発音学習処理における例文音声の強音部検出処理等の各手法、および例文DB32b,単語DB32c等の各DBは、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録装置の媒体に格納して配布することができる。そして、電子機器のコンピュータ(制御装置)は、この外部記録装置の媒体に記憶されたプログラムを記憶装置に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明した発音学習支援機能を実現し、前述した手法による同様の処理を実行することができる。
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク上を伝送させることができ、この通信ネットワークに接続されたコンピュータ装置(プログラムサーバ)から前記プログラムのデータを電子機器に取り込んで記憶装置に記憶させ、前述した発音学習支援機能を実現することもできる。
本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
文章のテキストデータとその音声データとを記憶する文章記憶手段と、
単語のデータとその音声データとを記憶する単語記憶手段と、
前記文章記憶手段により記憶された文章の音声データと前記単語記憶手段により記憶された当該文章を構成する各単語を繋げた音声データとを比較して同文章のリエゾン部分を検出するリエゾン部分検出手段と、
前記文章記憶手段により記憶された文章のテキストデータを表示させると共に、当該テキストデータのうち前記リエゾン部分検出手段により検出されたリエゾン部分を識別可能に表示させる文章表示制御手段と、
を備えたことを特徴とする発音学習支援装置。
[2]
前記文章記憶手段により記憶された文章の音声データを出力させる音声出力制御手段を備えた、
ことを特徴とする[1]に記載の発音学習支援装置。
[3]
前記文章記憶手段により記憶された文章の音声データの強音部を検出する強音部検出手段と、
前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて報知音を出力させる報知音出力制御手段と、
を備えたことを特徴とする[2]に記載の発音学習支援装置。
[4]
前記強音部検出手段は、前記文章記憶手段により記憶された文章の音声データの強音部を検出し、当該強音部の音の高さを記録する音高記録手段を有し、
前記報知音出力制御手段は、前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて前記音高記録手段により記録された音の高さに応じた報知音を出力させる、
ことを特徴とする[3]に記載の発音学習支援装置。
[5]
前記強音部検出手段は、前記文章記憶手段により記憶された文章の音声データの強音部を検出し、当該強音部の音の強さを記録する音強記録手段を有し、
前記報知音出力制御手段は、前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて前記音強記録手段により記録された音の強さに応じた報知音を出力させる、
ことを特徴とする[3]に記載の発音学習支援装置。
[6]
記憶部と表示部を備えた電子機器のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
文章のテキストデータとその音声データとを前記記憶部に記憶させる文章記憶手段、
単語のデータとその音声データとを前記記憶部に記憶させる単語記憶手段、
前記記憶部に記憶された文章の音声データと当該文章を構成する各単語を繋げた音声データとを比較して同文章のリエゾン部分を検出するリエゾン部分検出手段、
前記記憶部に記憶された文章のテキストデータを前記表示部に表示させると共に、当該テキストデータのうち前記リエゾン部分検出手段により検出されたリエゾン部分を識別可能に表示させる文章表示制御手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
10 …発音学習支援装置
10D…電子辞書装置
20 …入出力装置
20T…タブレット端末
P…タッチペン
21 …キー入力部
21a…[発音学習]キー
22 …タッチパネル付表示部
23 …音声出力部
24 …入出力制御部
25、34…インターフェイス部
30 …データ処理装置
30S…サーバ装置
31 …制御装置(CPU)
32 …記憶装置
32a…制御プログラム
32b…例文DB
32c…単語DB
33 …RAM
33a…表示データ記憶領域
33b…例文音声データ記憶領域
33c…単語音声データ記憶領域
33d…リエゾン位置検出データ記憶領域
33e…強音部検出データ記憶領域
Ln …リエゾン部分
Dn …強音部
Dsn…リズム音

Claims (6)

  1. 文章のテキストデータとその音声データとを記憶する文章記憶手段と、
    単語のデータとその音声データとを記憶する単語記憶手段と、
    前記文章記憶手段により記憶された文章の音声データと前記単語記憶手段により記憶された当該文章を構成する各単語を繋げた音声データとを比較して同文章のリエゾン部分を検出するリエゾン部分検出手段と、
    前記文章記憶手段により記憶された文章のテキストデータを表示させると共に、当該テキストデータのうち前記リエゾン部分検出手段により検出されたリエゾン部分を識別可能に表示させる文章表示制御手段と、
    を備えたことを特徴とする発音学習支援装置。
  2. 前記文章記憶手段により記憶された文章の音声データを出力させる音声出力制御手段を備えた、
    ことを特徴とする請求項1に記載の発音学習支援装置。
  3. 前記文章記憶手段により記憶された文章の音声データの強音部を検出する強音部検出手段と、
    前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて報知音を出力させる報知音出力制御手段と、
    を備えたことを特徴とする請求項2に記載の発音学習支援装置。
  4. 前記強音部検出手段は、前記文章記憶手段により記憶された文章の音声データの強音部を検出し、当該強音部の音の高さを記録する音高記録手段を有し、
    前記報知音出力制御手段は、前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて前記音高記録手段により記録された音の高さに応じた報知音を出力させる、
    ことを特徴とする請求項3に記載の発音学習支援装置。
  5. 前記強音部検出手段は、前記文章記憶手段により記憶された文章の音声データの強音部を検出し、当該強音部の音の強さを記録する音強記録手段を有し、
    前記報知音出力制御手段は、前記音声出力制御手段により出力される前記文章の音声データの出力と共に、前記強音部検出手段により検出された当該音声データの強音部に合わせて前記音強記録手段により記録された音の強さに応じた報知音を出力させる、
    ことを特徴とする請求項3に記載の発音学習支援装置。
  6. 記憶部と表示部を備えた電子機器のコンピュータを制御するためのプログラムであって、
    前記コンピュータを、
    文章のテキストデータとその音声データとを前記記憶部に記憶させる文章記憶手段、
    単語のデータとその音声データとを前記記憶部に記憶させる単語記憶手段、
    前記記憶部に記憶された文章の音声データと当該文章を構成する各単語を繋げた音声データとを比較して同文章のリエゾン部分を検出するリエゾン部分検出手段、
    前記記憶部に記憶された文章のテキストデータを前記表示部に表示させると共に、当該テキストデータのうち前記リエゾン部分検出手段により検出されたリエゾン部分を識別可能に表示させる文章表示制御手段、
    として機能させるためのコンピュータ読み込み可能なプログラム。
JP2014124762A 2014-06-17 2014-06-17 発音学習支援装置およびプログラム Pending JP2016004172A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014124762A JP2016004172A (ja) 2014-06-17 2014-06-17 発音学習支援装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014124762A JP2016004172A (ja) 2014-06-17 2014-06-17 発音学習支援装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2016004172A true JP2016004172A (ja) 2016-01-12

Family

ID=55223483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014124762A Pending JP2016004172A (ja) 2014-06-17 2014-06-17 発音学習支援装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2016004172A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053235A (ja) * 2017-09-19 2019-04-04 有限会社オフィス・アイカワ 言語学習システム及び言語学習方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053235A (ja) * 2017-09-19 2019-04-04 有限会社オフィス・アイカワ 言語学習システム及び言語学習方法
JP7166580B2 (ja) 2017-09-19 2022-11-08 有限会社オフィス・アイカワ 言語学習方法

Similar Documents

Publication Publication Date Title
US20190196666A1 (en) Systems and Methods Document Narration
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
US8352269B2 (en) Systems and methods for processing indicia for document narration
US8793133B2 (en) Systems and methods document narration
JP2005070645A (ja) テキスト音声同期装置およびテキスト音声同期処理プログラム
JP2007206317A (ja) オーサリング方法、オーサリング装置およびプログラム
JP2016045420A (ja) 発音学習支援装置およびプログラム
JP2007140200A (ja) 語学学習装置およびプログラム
JP2006337667A (ja) 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
KR101877559B1 (ko) 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 실행하는 모바일 단말기 및 이를 실행하기 위한 애플리케이션을 저장하는 기록매체
CN111199724A (zh) 一种信息处理方法、设备及计算机可读存储介质
US11176943B2 (en) Voice recognition device, voice recognition method, and computer program product
JPWO2014087571A1 (ja) 情報処理装置および情報処理方法
JP2016004172A (ja) 発音学習支援装置およびプログラム
JP2006139162A (ja) 語学学習装置
CN111353038A (zh) 数据展示方法、装置、计算机设备和存储介质
JP2005077678A (ja) テキスト音声同期装置およびテキスト音声同期処理プログラム
JP6221253B2 (ja) 音声認識装置及び方法、並びに、半導体集積回路装置
JP6957069B1 (ja) 学習支援システム
JP2012098753A (ja) 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム
JP2005241767A (ja) 音声認識装置
JP2020118872A (ja) 情報入力システム及び方法
JP2007225999A (ja) 電子辞書
WO2010083354A1 (en) Systems and methods for multiple voice document narration
JP2009301038A (ja) 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム