JP4840051B2 - 音声学習支援装置及び音声学習支援プログラム - Google Patents

音声学習支援装置及び音声学習支援プログラム Download PDF

Info

Publication number
JP4840051B2
JP4840051B2 JP2006263808A JP2006263808A JP4840051B2 JP 4840051 B2 JP4840051 B2 JP 4840051B2 JP 2006263808 A JP2006263808 A JP 2006263808A JP 2006263808 A JP2006263808 A JP 2006263808A JP 4840051 B2 JP4840051 B2 JP 4840051B2
Authority
JP
Japan
Prior art keywords
learning
learning target
speech
voice
target phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006263808A
Other languages
English (en)
Other versions
JP2008083434A (ja
Inventor
宗之 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006263808A priority Critical patent/JP4840051B2/ja
Publication of JP2008083434A publication Critical patent/JP2008083434A/ja
Application granted granted Critical
Publication of JP4840051B2 publication Critical patent/JP4840051B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、音声の学習を支援する音声学習支援装置及び音声学習支援プログラムに関する。
従来、音声出力の可能な電子辞書装置などの音声学習支援装置では、内部に記憶した模範音声と、ユーザによる発声音声とを比較して評価することにより、学習効果を高めるようになっている(例えば、特許文献1参照)。
ところで、近年、音声学習の手法として、シャドーイングやラギングなど、模範音声から所定のタイミングだけ遅れて復唱する手法が注目されている。なお、シャドーイングとは、いわゆる逐次リピーティングであり、直前に模範音声で発声された単語や文章を復唱する手法である。また、ラギングとは、いわゆる時差リピーティングであり、複数個だけ前に模範音声で発声された単語や文章を復唱する手法である。
特開平11−296060号公報
しかしながら、従来の音声学習支援装置を用いてシャドーイングやラギングをしようとしても、初学者のユーザにとっては、どのタイミングで復唱すれば良いのかが分からず、音声学習について所望の学習効果を得ることは難しい。また、単純に復唱タイミングを表示することとしても、ラギングをする場合には、文中の何れの部分を復唱すれば良いのかが分からず、やはり所望の学習効果を得ることは難しい。
本発明の課題は、音声学習について所望の学習効果を得ることができる音声学習支援装置及び音声学習支援プログラムを提供することである。
請求項1記載の発明は、
記憶された各学習対象語句の模範音声を所定の順番で音声出力する音声出力手段を有し、この音声出力手段による模範音声の出力より所定の遅れ量だけ遅れたタイミングで前記各学習対象語句をユーザが復唱するための音声学習支援装置(例えば、図1の電子辞書装置1)であって、
前記各学習対象語句の少なくとも一部を表示する学習対象語句表示手段(例えば、図2の表示部2;図6のステップS3)と、
前記学習対象語句表示手段により表示されている前記各学習対象語句のうち、前記模範音声が出力されている順番の前記学習対象語句の対応位置を表示する模範音声部分表示手段(例えば、図2の表示部2;図6のステップS7)と、
前記学習対象語句表示手段により表示されている前記各学習対象語句のうち、前記模範音声の出力よりも前記所定の遅れ量だけ遅れたタイミングで、ユーザが復唱すべき順番の前記学習対象語句の対応位置を表示する復唱部分表示手段(例えば、図2の表示部2;図6のステップS7)と、
ユーザ操作により、前記所定の遅れ量を設定する復唱タイミング設定手段(例えば、図2のCPU6及び音声学習支援プログラム84;図6のステップS6)と、
を備えることを特徴とする。
ここで、学習対象語句は、単語でも良いし、成句や複合語などの複数語でも良いし、文章でも良い。
また、各学習対象語句とは、学習対象語句を1つのみ有していても良いし、複数有していても良い。更に、各学習対象語句が学習対象語句を複数有している場合には、これらの学習対象語句は意味的に連続しなくても良いし、連続して物語等を構成していても良い。
また、各学習対象語句が記憶されるとは、例えばROM等の不揮発性メモリに記録されることとしても良いし、RAM等の揮発性メモリに一時保存されることとしても良い。
請求項記載の発明は、請求項記載の音声学習支援装置において、
ユーザによる復唱音声を取り込む復唱音声入力手段(例えば、図2の録音部4;図6のステップS11)と、
前記復唱音声入力手段によって取り込まれた復唱音声の発音及び発声タイミングを評価する復唱音声評価手段(例えば、図2のCPU6及び音声学習支援プログラム84;図7のステップS13)と、
前記復唱音声評価手段による評価結果を表示する評価結果表示手段(例えば、図2の表示部2;図7のステップS19)と、
を備えることを特徴とする。
請求項記載の発明は、請求項記載の音声学習支援装置において、
前記復唱音声入力手段は、
外部で伝播している外部音声を取り込む外部音声入力手段(例えば、図2の録音部4;図6のステップS11)と、
前記外部音声入力手段によって取り込まれた外部音声から前記音声出力手段による出力音声を除去してユーザによる復唱音声を抽出するマスク手段(例えば、図2のCPU6及び音声学習支援プログラム84;図7のステップS12)と、
を有することを特徴とする。
請求項記載の発明は、請求項1〜の何れか一項に記載の音声学習支援装置において、
前記模範音声部分表示手段は、
前記学習対象語句表示手段に前記各学習対象語句のうち、前記模範音声が出力されている順番の前記学習対象語句を識別表示させる模範音声部分識別表示制御手段(例えば、図2のCPU6及び音声学習支援プログラム84;図6のステップS7)を有し、
前記復唱部分表示手段は、
前記学習対象語句表示手段に前記各学習対象語句のうち、ユーザが復唱すべき順番の前記学習対象語句を識別表示させる復唱部分識別表示制御手段(例えば、図2のCPU6及び音声学習支援プログラム84;図6のステップS7)を有することを特徴とする。
請求項記載の発明は、請求項1〜の何れか一項に記載の音声学習支援装置において、
前記学習対象語句表示手段は、
前記各学習対象語句を文字で表示することを特徴とする。
請求項記載の発明は、請求項1〜の何れか一項に記載の音声学習支援装置において、
前記学習対象語句表示手段は、
前記各学習対象語句の各文字を所定の記号に置換した状態で、当該各学習対象語句を表示することを特徴とする。
請求項記載の発明によれば、各学習対象語句のうち、模範音声の出力よりも所定の遅れ量だけ遅れたタイミングで、ユーザが復唱すべき順番の学習対象語句の対応位置が表示されるので、どのタイミングで、どの部分を復唱すれば良いのかを、確実に把握することができる。また、各学習対象語句のうち、模範音声が出力されている順番の学習対象語句の対応位置が表示されるので、当該学習対象語句との関係により、どのタイミングで、どの部分を復唱すれば良いのかを、より確実に把握することができる。従って、シャドーイングやラギングにより、音声学習について所望の学習効果を得ることができる。またユーザ操作により前記所定の遅れ量が設定されるので、ユーザの学習レベルに応じて復唱タイミングを設定することができる。従って、音声学習について、より確実に所望の学習効果を得ることができる。
請求項記載の発明によれば、ユーザによる復唱音声の評価結果が表示されるので、自己の学習レベルを把握することができる。
請求項記載の発明によれば、取り込まれた外部音声からユーザによる復唱音声が抽出されるので、復唱音声の正確な評価結果を得ることができる。従って、自己の学習レベルを正確に把握することができる。
請求項記載の発明によれば、表示される各学習対象語句のうち、模範音声が出力されている順番の学習対象語句と、ユーザが復唱すべき順番の学習対象語句とがそれぞれ識別表示されるので、どの部分を復唱すれば良いのかを、より確実に把握することができる。従って、音声学習について、より確実に所望の学習効果を得ることができる。
請求項記載の発明によれば、各学習対象語句の各文字が所定の記号に置換された状態で、当該各学習対象語句が表示されるので、各学習対象語句が文字で表示される場合と比較して、ユーザによる模範音声の学習効果を高めることができる。
以下、図面を参照して、本発明に係る音声学習支援装置を適用した電子辞書装置の実施形態について説明する。
[外観構成]
図1(a)は本実施形態における電子辞書装置1の斜視外観図である。
この図に示すように、電子辞書装置1は、ディスプレイ10、スピーカ11、マイク12及びキー群13を備えている。
ディスプレイ10は、ユーザによるキー群13の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)等によって構成されている。
スピーカ11は、ユーザによるキー群13の操作に応じた見出語や例文の音声を出力する部分である。
マイク12は、スピーカ11による出力音声やユーザによる復唱音声など、外部で伝播している外部音声を取り込む部分であり、本実施の形態においてはスピーカ11と一体化されている。
キー群13は、ユーザが電子辞書装置1を操作するための各種キーを有している。具体的には、図1(b)に示すように、キー群13は、訳/決定キー13bと、文字キー13cと、カーソルキー13eと、シフトキー13fと、戻るキー13gと、音声出力キー13hと、録音キー13iと、音声学習キー13j等とを有している。
訳/決定キー13bは、検索の実行や、見出語の決定等に使用されるキーである。文字キー13cは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。
カーソルキー13eは、ディスプレイ10内で反転表示等により示されるカーソルの移動に使用されるキーである。シフトキー13fは、日本語の語句を検索対象に設定するとき等に使用されるキーである。戻るキー13gは、前回表示した画面に戻るとき等に使用されるキーである。
音声出力キー13hは、スピーカ11に見出語や例文を音声出力させるとき等に使用されるキーである。録音キー13iは、マイク12を介して外部音声を録音させるとき等に使用されるキーである。
音声学習キー13jは、ユーザがシャドーイングやラギング等の音声学習をする場合などに使用されるキーである。
[内部構成]
図2は、電子辞書装置1の概略構成を示すブロック図である。
この図に示すように、電子辞書装置1は、表示部2、音声出力部3、録音部4、入力部5、CPU6、フラッシュROM8、RAM7及びレジスタ9を備えている。
表示部2は、上述のディスプレイ10を備えており、CPU6から入力される表示信号に基づいて各種情報をディスプレイ10に表示するようになっている。
音声出力部3は、上述のスピーカ11を備えており、CPU6から入力される音声出力信号に基づいて音声データをスピーカ11に再生させるようになっている。
録音部4は、上述のマイク12を備えており、マイク12で取り込まれる外部音声をCPU6から入力される録音信号に基づいて録音し、音声データを作成するようになっている。
入力部5は、上述のキー群13を備えており、押下されたキーに対応する信号をCPU6に出力するようになっている。
CPU6は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書装置1を統括的に制御するようになっている。具体的には、CPU6は、入力部5から入力される操作信号等に応じてフラッシュROM8に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU6は、処理結果をRAM7に保存するとともに、当該処理結果を表示・音声出力するための信号を表示部2や音声出力部3に適宜出力して、対応した内容を表示・音声出力させる。
フラッシュROM8は、電子辞書装置1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM8は、辞書検索プログラム81と、音声合成プログラム82と、音声認識プログラム83と、本発明に係る音声学習支援プログラム84と、辞書データベース群85と、テキストデータ群86と、単語帳テーブル87等とを記憶している。
辞書検索プログラム81は、従来より公知の辞書検索処理、即ち、ユーザ操作で指定された指定見出語に対応する説明情報を検索して表示する処理をCPU6に実行させるためのプログラムである。
音声合成プログラム82は、例文などのテキストを音声データ化する処理をCPU6に実行させるプログラムである。なお、このような処理としては、従来より公知のTTS(Text to Speech)処理を用いることができる。
音声認識プログラム83は、音声データで表現された各単語を認識してテキスト化する処理をCPU6に実行させるためのプログラムである。なお、このような処理としては、従来より公知の処理を用いることができる。
音声学習支援プログラム84は、後述の音声学習支援処理(図6〜図7参照)をCPU6に実行させるためのプログラムである。
辞書データベース群85は、少なくとも1種類の辞書データベースを有しており、本実施の形態においては、英和辞書の辞書データベース85aを有している。
この辞書データベース85aは、例えば図3に1例を示すように、複数の見出語と、この見出語を詳細に説明する説明情報とを対応付けて格納している。ここで、説明情報には、見出語のアクセントや、見出語を含む例文が含まれる。なお、これらの見出語や例文は、後述の音声学習支援処理(図6〜図7参照)において、音声の学習対象語句として用いられるようになっている。
また、この辞書データベース85aには、見出語や例文の模範音声についての音声データと、見出語や例文の属性を示す属性情報とが格納されている。更に、この属性情報としては、見出語の品詞や、難易度レベル、例文カテゴリが用いられている。
なお、本実施の形態における難易度レベルは、「0」〜「3」の4段階となっている。また、例文カテゴリとは例文の使用場面であり、例文の使用場面としては、例えば日常会話などがある。
テキストデータ群86は、少なくとも1種類のテキストデータを有しており、本実施の形態においては、「o○ford Bookworms Library」のテキストデータ86aを有している。なお、このテキストデータ86aで表される物語中の各文章は、後述の音声学習支援処理(図6〜図7参照)において、音声の学習対象語句として用いられるようになっている。
単語帳テーブル87には、説明情報の表示中に訳/決定キー13b等の操作により単語帳登録された見出語が、出典元の辞書種別と対応付けられて蓄積記憶されている。
また、上述の図2に示すように、RAM7は、CPU6が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリであり、本実施の形態においては、音声学習条件記憶領域70と、学習対象語句記憶領域71とを備えている。
音声学習条件記憶領域70には、後述の音声学習支援処理(図6〜図7参照)においてユーザに設定される音声学習条件が記憶されるようになっており、より詳細には、図4に示すように、音声学習の条件として、「復唱レベル」、「学習対象語句のカテゴリ」、「発声速度」、「品詞」、「例文カテゴリ」、「難易度レベル」、「やり直しの有無」、「文字隠しの有無」、「発音記号表示の有無」、「インジケータ表示の有無」及び「出題数」が2進数で記憶されるようになっている。
ここで、「復唱レベル」とは、ユーザによる復唱の難易度レベルであり、本実施の形態においては、同一の学習対象語句についてのスピーカ11による音声出力タイミングから、ユーザによる復唱タイミングまでの遅れ量を示している。具体的には、この「復唱レベル」は、シャドーイングを表すレベル「0」と、1語句遅れのラギングを表すレベル「1」と、2語句遅れのラギングを表すレベル「2」と、3語句遅れのラギングを表すレベル「3」と、の何れかとなっている。
また、「学習対象語句のカテゴリ」とは、学習対象語句のカテゴリとして、「単語」と「例文」と「物語」(物語中の文章)との何れかを示している。
また、「発声速度」とは、スピーカ11による出力音声及びユーザによる復唱音声の発声速度を示している。
また、「品詞」とは、学習対象語句としての単語の品詞を示しており、「例文カテゴリ」とは、学習対象語句としての例文のカテゴリを示している。
また、「難易度レベル」とは、学習対象語句の難易度レベルを示しており、辞書データベース85aに属性情報として格納された難易度レベルと対応している。
また、「やり直しの有無」とは、同一の学習対象語句について音声学習を繰り返すか否かを示している。
また、「文字隠しの有無」とは、各学習対象語句を文字で表示するか、或いは、各文字を所定の記号に置換して間接的に表示するかを示している。
また、「発音記号表示の有無」とは、学習対象語句についての発音記号の表示の有無を示している。
また、「インジケータ表示の有無」とは、後述の図8に示すように、所定の順番で音声出力される各学習対象語句のうち、音声出力部3により模範音声が出力されている順番の学習対象語句(以下、模範音声部分とする)と、ユーザが復唱すべき順番の学習対象語句(以下、復唱部分とする)との相対的な位置関係を模式的に表す復唱インジケータFの表示の有無を示している。ここで、復唱インジケータFにおける「□」,「■」及び「★」の記号は表示中の学習対象語句全体における各学習対象語句の位置を示しており、このうち「■」の記号は音声出力部3による模範音声部分、「★」の記号はユーザが復唱すべき復唱部分を示している。
また、「出題数」とは、模範音声の出力によって出題される学習対象語句の個数を示している。
学習対象語句記憶領域71には、音声学習条件記憶領域70内の情報に基づいて辞書データベース85a等から抽出された学習対象語句がそれぞれ記憶されるようになっており、より詳細には、図5に示すように、学習対象語句と、当該学習対象語句の属性情報、音声データ及び模範音声情報とが、データ番号に対応付けて記憶されるようになっている。なお、本実施の形態においては、模範音声情報として発音記号が用いられているが、予め模範音声について測定された音声波形を用いても良い。
レジスタ9には、後述の音声学習支援処理(図6〜図7参照)において、各学習対象語句の音声データが発声順序に従って記憶されるようになっている。
[音声学習支援処理]
続いて、電子辞書装置1の動作について説明する。図6〜図7は、CPU6がフラッシュROM8から音声学習支援プログラム84を読み出して実行する音声学習支援処理の動作を説明するためのフローチャートである。
まず、図6に示すように、ユーザにより音声学習キー13jが操作された後、キー群13を介して音声学習条件が設定されると(ステップS1)、CPU6は、当該音声学習条件を音声学習条件記憶領域70に記憶させた後、この音声学習条件に基づいて辞書データベース85aやテキストデータ86aから学習対象語句を抽出して学習対象語句記憶領域71に記憶させるとともに、各学習対象語句の音声データを発声順序に従ってレジスタ9に記憶させる(ステップS2)。但し、これらの処理においては、単語帳テーブル87に記憶された見出語をCPU6が学習対象語句として抽出することとしても良いし、ユーザがキー群13を介して各学習対象語句を指定することとしても良い。
なお、本実施の形態においては、CPU6は、音声学習条件記憶領域70内の「学習対象語句のカテゴリ」が「単語」または「例文」である場合には、各学習対象語句の発声順序をランダムに決定し、「物語」である場合には、当該物語中の順序に従って発声順序を決定するようになっている。また、音声学習条件記憶領域70内の「学習対象語句のカテゴリ」が「物語」の場合など、電子辞書装置1内に学習対象語句の音声データがない場合には、CPU6は、音声合成プログラム82を実行することにより各学習対象語句のテキストデータから音声データを作成し、レジスタ9に記憶させるようになっている。
次に、CPU6は、各学習対象語句を発声順序に従ってディスプレイ10に表示させるとともに(ステップS3)、先頭の学習対象語句、つまり、レジスタ9に音声データの記憶された先頭の学習対象語句を模範音声部分として指定する(ステップS4)。なお、このとき、CPU6は、音声学習条件記憶領域70内の「文字隠しの有無」の情報に基づいて各学習対象語句を文字または所定の記号で表示させるとともに、「発音記号表示の有無」,「インジケータ表示の有無」の情報に基づいて発音記号や復唱インジケータFを表示させる。
次に、CPU6は、レジスタ9内の情報に基づいて、指定された学習対象語句を音声出力した後(ステップS5)、音声学習条件記憶領域70における「復唱レベル」の情報に基づいて、表示中の学習対象語句全体における復唱部分と、その復唱タイミングとを設定する(ステップS6)。
なお、本実施の形態においては、「復唱レベル」が「1」以上であり、当該「復唱レベル」に対応する語句分だけ模範音声部分の学習対象語句よりも後(レジスタ9の先頭側)の学習対象語句がレジスタ9に記憶されていない場合には、CPU6は、先頭の学習対象語句を復唱部分に設定する。例えば、「復唱レベル」が「1」であり、模範音声部分の学習対象語句よりも1語句分後の学習対象語句がレジスタ9に記憶されていない場合には、CPU6は、先頭の学習対象語句を復唱部分に設定する。
次に、CPU6は、ディスプレイ10に表示されている学習対象語句全体において、スピーカ11による模範音声部分と、ユーザが復唱すべき復唱部分とをそれぞれ識別表示させる(ステップS7)。また、ディスプレイ10に復唱インジケータFが表示されている場合には、当該復唱インジケータF内で、模範音声部分と復唱部分とをそれぞれ識別表示させる。但し、これら復唱部分の識別表示については、CPU6は、ステップS6で設定された復唱タイミングで識別表示を行わせる。なお、この復唱部分の識別表示タイミングで、ユーザが復唱すべき旨の報知音をスピーカ11に出力させることとしても良い。
次に、CPU6は、音声学習条件記憶領域70内の「復唱レベル」が「0」であるか否か、つまり、シャドーイングが設定されているか否かを判定し(ステップS8)、シャドーイングが設定されていると判定した場合(ステップS8;Yes)には、ステップS5で音声出力した学習対象語句についてのユーザの復唱タイミングまで待機した後(ステップS9)、後述のステップS11の処理を行う。
また、ステップS8においてシャドーイングが設定されていないと判定した場合(ステップS8;No)には、CPU6は、現時点がユーザの復唱タイミングであるか否かを判定し(ステップS10)、復唱タイミングでないと判定した場合(ステップS10;No)には後述のステップS16の処理に移行する。
一方、ステップS10において復唱タイミングであると判定した場合(ステップS10;Yes)には、CPU6は、外部で伝播している外部音声をマイク12で取り込む(ステップS11)。
次に、図7に示すように、CPU6は、スピーカ11の出力音声に起因する外部音声をマスクして、外部音声からユーザの復唱音声を抽出する(ステップS12)。なお、このとき、CPU6は、音声認識プログラム83を実行してユーザの復唱音声のテキストデータと、学習対象語句記憶領域71における復唱部分のテキストデータとを比較することにより、復唱部分に対応する復唱音声のみを抽出することとしても良い。
次に、CPU6は、学習対象語句記憶領域71内の「模範音声情報」や、音声学習条件記憶領域70内の「復唱レベル」及び「発声速度」に基づいてユーザの復唱音声の発音及び発声タイミングを評価する(ステップS13)。なお、この評価には任意の基準を用いることができる。
次に、CPU6は、ステップS13での評価結果が所定の許容範囲内に収まるか否かを判定し(ステップS14)、収まらないと判定した場合(ステップS14;No)には、発声をやり直すべき旨(本実施の形態においては、「No Good! Again!」)を表示させるとともに、評価の悪かった学習対象語句の復唱タイミングまで模範音声部分の指定を戻し(ステップS15)、図6に示すように、上述のステップS5の処理に移行する。
一方、図7に示すように、ステップS14において評価結果が許容範囲内に収まると判定した場合(ステップS14;Yes)には、CPU6は、次の学習対象語句があるか否か、つまり、レジスタ9に次の学習対象語句の音声データが記憶されているか否かを判定し(ステップS16)、記憶されていると判定した場合(ステップS16;Yes)には、当該学習対象語句を模範音声部分に指定し(ステップS17)、図6に示すように、上述のステップS5の処理に移行する。
また、図7に示すように、ステップS16において次の学習対象語句が記憶されていないと判定した場合(ステップS16;No)には、CPU6は、全ての学習対象語句の発音及び発声タイミングを評価したか否かを判定し(ステップS18)、評価していないと判定した場合(ステップS18;No)には、図6に示すように、上述のステップS6の処理に移行する。
そして、図7に示すように、ステップS18において全ての学習対象語句の発音及び発声タイミングを評価したと判定した場合(ステップS18;Yes)には、CPU6は、各学習対象語句についてのユーザの復唱音声の評価結果を表示し(ステップS19)、音声学習支援処理を終了する。
なお、上記のステップS19の処理において、CPU6は、評価結果とともにカーソルを表示させ、当該カーソルで選択された学習対象語句については、模範音声とユーザの復唱音声とをそれぞれスピーカ11に音声出力させるようになっている。
また、以上の音声学習支援処理においては、所定のユーザ操作に基づいて、直前に音声出力された学習対象語句を再度音声出力させることや、音声学習支援処理を強制終了させることが可能となっている。
[動作例]
続いて、上記の音声学習支援処理を具体的に説明する。
(動作例(1))
まず、図8(a)に示すように、ユーザにより音声学習条件の「復唱レベル」が「1」に、「学習対象語句のカテゴリ」が「単語」に、「文字隠し」が「なし」に、「発声速度」が「低速」に設定されると(ステップS1)、辞書データベース85aから学習対象語句(本動作例では「apple」、「melon」、「orange」,…)が抽出されてランダムな順序でレジスタ9に記憶される(ステップS2)。なお、図8(a)では、「復唱レベル」の「1」が選択されている状態を示しており、「復唱レベル」の「1」に対応する説明文がディスプレイ10の下端に表示されている。
次に、図8(b)に示すように、学習対象語句が発声順序に従って「melon」、「orange」、「apple」,…の順に表示されるとともに(ステップS3)、復唱インジケータFが表示された後、先頭の学習対象語句「melon」が模範音声部分として指定され(ステップS4)、音声出力される(ステップS5)。
また、ユーザが復唱すべき復唱部分が先頭の学習対象語句「melon」に設定されるとともに、その復唱タイミングが1語句先の学習対象語句「orange」の音声出力タイミングに設定される(ステップS6)。
次に、表示されている学習対象語句「melon」、「orange」、「apple」,…における模範音声部分「melon」が表示エリア右端の識別記号K1によって識別表示されるとともに、復唱インジケータF内で「■」の記号により識別表示される(ステップS7)。なお、この時点では、復唱部分「melon」は復唱タイミングとなっていないため、識別表示されない。
次に、現時点がユーザの復唱タイミングでないと判定され(ステップS10;No)、レジスタ9に次の学習対象語句「orange」の音声データが記憶されていると判定されると(ステップS16;Yes)、当該学習対象語句「orange」が模範音声部分に指定され(ステップS17)、図8(c)に示すように、音声出力される(ステップS5)。
また、ユーザが復唱すべき復唱部分が模範音声部分「orange」よりも1語句後の学習対象語句「melon」に設定されるとともに、その復唱タイミングが学習対象語句「orange」の音声出力タイミングに設定される(ステップS6)。
次に、表示されている学習対象語句「melon」、「orange」、「apple」,…における模範音声部分「orange」が表示エリア右端の識別記号K1によって識別表示されるとともに、復唱インジケータF内で「■」の記号により識別表示される(ステップS7)。また、復唱部分「melon」の復唱タイミングで、表示中の学習対象語句「melon」、「orange」、「apple」,…における復唱部分「melon」が表示エリア左端の識別記号K2によって識別表示されるとともに、復唱インジケータF内で「★」の記号により識別表示される。
次に、現時点がユーザの復唱タイミングであると判定された後(ステップS10;Yes)、外部音声がマイク12で取り込まれ(ステップS11)、取り込まれた外部音声からユーザの復唱音声が抽出される(ステップS12)。
次に、ユーザの復唱音声の発音及び発声タイミングが評価され(ステップS13)、評価結果が許容範囲内に収まると判定された後(ステップS14;Yes)、レジスタ9に次の学習対象語句「apple」の音声データが記憶されていると判定され(ステップS16;Yes)、模範音声部分に指定される(ステップS17)。
以降、図8(d)に示すように、上記と同様の処理が繰り返される。なお、図8(d)では、ユーザによる復唱が復唱タイミングよりも遅れた状態を示している。
そして、次の学習対象語句がレジスタ9に記憶されておらず(ステップS16;No)、全ての学習対象語句の発音及び発声タイミングが評価されたと判定されると(ステップS18;Yes)、図8(e)に示すように、ユーザの復唱音声の評価結果が表示され(ステップS19)、音声学習支援処理が終了する。
なお、以上の動作例(1)においては、「学習対象語句のカテゴリ」が「単語」に設定された場合について説明したが、「例文」に設定された場合には、例えば図9(a)に示すように、学習対象語句「What’s the matter?」、「I lost my credit card.」、「there’s been an accident.」,…について、同様の処理が行われる。
また、「発音記号表示」が「なし」に設定された場合について説明したが、「あり」に設定された場合には、例えば図9(b)に示すように、各学習対象語句について発音記号が表示された状態で、同様の処理が行われる。
(動作例(2))
まず、ユーザにより音声学習条件の「復唱レベル」が「2」に、「学習対象語句のカテゴリ」が「物語」に、「文字隠し」が「なし」に設定され(ステップS1)、テキストデータ86aの「o○ford Bookworms Library」の各文章が学習対象語句に指定されると、テキストデータ86aから学習対象語句としての文章「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…)が抽出されてレジスタ9に記憶される(ステップS2)。
次に、図10(a)に示すように、各学習対象語句が発声順序、本動作例では物語中の順序に従って「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…の順に表示されるとともに(ステップS3)、先頭の学習対象語句「Tom and his friends」が模範音声部分として指定され(ステップS4)、音声出力される(ステップS5)。
また、ユーザが復唱すべき復唱部分が先頭の学習対象語句「Tom and his friends」に設定されるとともに、その復唱タイミングが2語句先の学習対象語句「No answer」の音声出力タイミングに設定される(ステップS6)。
次に、表示されている学習対象語句「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…における模範音声部分「Tom and his friends」が網掛けK3によって識別表示される(ステップS7)。なお、この時点では、復唱部分「Tom and his friends」は復唱タイミングとなっていないため、識別表示されない。
次に、現時点がユーザの復唱タイミングでないと判定され(ステップS10;No)、レジスタ9に次の学習対象語句「Tom! Tom! Where are you?」の音声データが記憶されていると判定されると(ステップS16;Yes)、図10(b)に示すように、当該学習対象語句「Tom! Tom! Where are you?」が模範音声部分に指定され(ステップS17)、音声出力される(ステップS5)。
また、ユーザが復唱すべき復唱部分が先頭の学習対象語句「Tom and his friends」に設定されるとともに、その復唱タイミングが2語句先の学習対象語句「No answer」の音声出力タイミングに設定される(ステップS6)。
次に、表示されている学習対象語句「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…における模範音声部分「Tom! Tom! Where are you?」が網掛けK3によって識別表示される(ステップS7)。なお、この時点では、復唱部分「Tom and his friends」は復唱タイミングとなっていないため、識別表示されない。
次に、現時点がユーザの復唱タイミングでないと判定され(ステップS10;No)、レジスタ9に次の学習対象語句「No answer」の音声データが記憶されていると判定されると(ステップS16;Yes)、当該学習対象語句「No answer」が模範音声部分に指定され(ステップS17)、図10(c)に示すように、音声出力される(ステップS5)。
また、ユーザが復唱すべき復唱部分が先頭の学習対象語句、つまり、模範音声部分「No answer」よりも2語句後の学習対象語句「Tom and his friends」に設定されるとともに、その復唱タイミングが学習対象語句「No answer」の音声出力タイミングに設定される(ステップS6)。
次に、表示されている学習対象語句「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…における模範音声部分「No answer」が下線K4によって識別表示される。また、復唱部分「Tom and his friends」の復唱タイミングで、学習対象語句「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…における復唱部分「No answer」が下線K4によって識別表示される。
次に、現時点がユーザの復唱タイミングであると判断された後(ステップS10;Yes)、外部音声がマイク12で取り込まれ(ステップS11)、取り込まれた外部音声からユーザの復唱音声が抽出される(ステップS12)。
次に、ユーザの復唱音声の発音及び発声タイミングが評価され(ステップS13)、評価結果が許容範囲内に収まると判定された後(ステップS14;Yes)、レジスタ9に次の学習対象語句「Where is that boy?」の音声データが記憶されていると判定され(ステップS16;Yes)、模範音声部分に指定される(ステップS17)。
以降、図10(d)に示すように、同様の処理が繰り返された後、次の学習対象語句がレジスタ9に記憶されておらず(ステップS16;No)、全ての学習対象語句の発音及び発声タイミングが評価されたと判定されると(ステップS18;Yes)、ユーザの復唱音声の評価結果が表示され(ステップS19)、音声学習支援処理が終了する。
なお、以上の動作例(2)においては、「文字隠しの有無」が「なし」に設定された場合について説明したが、「あり」に設定された場合には、例えば図11に示すように、各学習対象語句「Tom and his friends」、「Tom! Tom! Where are you?」、「No answer」,…の各文字が「*」の記号に置換された状態で、同様の処理が行われる。
以上の電子辞書装置1によれば、図6のステップS5,ステップS7や、図8〜図11に示したように、各学習対象語句のうちの復唱部分が当該復唱部分の復唱タイミングで識別記号K2や復唱インジケータF、下線K4等で表示されるので、どのタイミングで、どの部分を復唱すれば良いのかを、確実に把握することができる。また、各学習対象語句のうちの模範音声部分が識別記号K1や復唱インジケータF、網掛けK3等で表示されるので、当該模範音声部分との関係により、どのタイミングで、どの部分を復唱すれば良いのかを、より確実に把握することができる。従って、シャドーイングやラギングにより、音声学習について所望の学習効果を得ることができる。
また、図6のステップS7や、図8〜図11に示したように、表示される学習対象語句全体における模範音声部分及び復唱部分がそれぞれ識別記号K1,K2や網掛けK3、下線K4等で識別表示されるので、どの部分を復唱すれば良いのかを、より確実に把握することができる。従って、音声学習について、より確実に所望の学習効果を得ることができる。
また、図6のステップS1,ステップS6や図8に示したように、ユーザ操作により音声出力タイミングから復唱タイミングまでの遅れ量が「復唱レベル」として入力され、この遅れ量に基づいて復唱タイミングが設定されるので、ユーザの学習レベルに応じて復唱タイミングを設定することができる。従って、音声学習について、より確実に所望の学習効果を得ることができる。
また、図11に示したように、各学習対象語句の各文字が「*」の記号に置換された状態で当該各学習対象語句が表示されるので、各学習対象語句が文字で表示される場合と比較して、ユーザによる模範音声の学習効果を高めることができる。
また、図7のステップS13,ステップS19や、図8に示したように、ユーザによる復唱音声の評価結果が表示されるので、自己の学習レベルを把握することができる。
また、図7のステップS12に示したように、マイク12で取り込まれた外部音声からユーザによる復唱音声が抽出されるので、復唱音声の正確な評価結果を得ることができる。従って、自己の学習レベルを正確に把握することができる。
なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、CPU6は学習対象語句を辞書データベース85aや単語帳テーブル87、テキストデータ86aから抽出することとして説明したが、以前に抽出した学習対象語句をユーザ操作に基づいて所定の記憶領域に記憶しておき、この記憶領域から学習対象語句を抽出することとしても良い。ここで、学習対象語句を記憶領域に記憶させるタイミングとしては、復唱音声について評価結果が表示されたときや、スピーカ11により模範音声が音声出力されたとき、ユーザにより復唱音声が発声されたとき等が考えられる。
本発明に係る音声学習支援装置を適用した電子辞書装置の概略構成を示す図であり、(a)は概観図であり、(b)は部分平面図である。 本発明に係る音声学習支援装置を適用した電子辞書装置の概略構成を示すブロック図である。 辞書データベースのデータ構造を示す図である。 音声学習条件記憶領域のデータ構造を示す図である。 学習対象語句記憶領域のデータ構造を示す図である。 音声学習支援処理を示すフローチャートである。 音声学習支援処理を示すフローチャートである。 ディスプレイの表示内容を示す図である。 ディスプレイの表示内容を示す図である。 ディスプレイの表示内容を示す図である。 ディスプレイの表示内容を示す図である。
符号の説明
1 電子辞書装置(音声学習支援装置)
2 表示部(模範音声部分表示手段、復唱部分表示手段、評価結果表示手段、
学習対象語句表示手段)
4 録音部(復唱音声入力手段、外部音声入力手段)
6 CPU(復唱タイミング設定手段、復唱音声評価手段、マスク手段、
模範音声部分識別表示制御手段、復唱部分識別表示制御手段)
84 音声学習支援プログラム

Claims (7)

  1. 記憶された各学習対象語句の模範音声を所定の順番で音声出力する音声出力手段を有し、この音声出力手段による模範音声の出力より所定の遅れ量だけ遅れたタイミングで前記各学習対象語句をユーザが復唱するための音声学習支援装置であって、
    前記各学習対象語句の少なくとも一部を表示する学習対象語句表示手段と、
    前記学習対象語句表示手段により表示されている前記各学習対象語句のうち、前記模範音声が出力されている順番の前記学習対象語句の対応位置を表示する模範音声部分表示手段と、
    前記学習対象語句表示手段により表示されている前記各学習対象語句のうち、前記模範音声の出力よりも前記所定の遅れ量だけ遅れたタイミングで、ユーザが復唱すべき順番の前記学習対象語句の対応位置を表示する復唱部分表示手段と、
    ユーザ操作により、前記所定の遅れ量を設定する復唱タイミング設定手段と、
    を備えることを特徴とする音声学習支援装置。
  2. 請求項記載の音声学習支援装置において、
    ユーザによる復唱音声を取り込む復唱音声入力手段と、
    前記復唱音声入力手段によって取り込まれた復唱音声の発音及び発声タイミングを評価する復唱音声評価手段と、
    前記復唱音声評価手段による評価結果を表示する評価結果表示手段と、
    を備えることを特徴とする音声学習支援装置。
  3. 請求項記載の音声学習支援装置において、
    前記復唱音声入力手段は、
    外部で伝播している外部音声を取り込む外部音声入力手段と、
    前記外部音声入力手段によって取り込まれた外部音声から前記音声出力手段による出力音声を除去してユーザによる復唱音声を抽出するマスク手段と、
    を有することを特徴とする音声学習支援装置。
  4. 請求項1〜の何れか一項に記載の音声学習支援装置において、
    前記模範音声部分表示手段は、
    前記学習対象語句表示手段に前記各学習対象語句のうち、前記模範音声が出力されている順番の前記学習対象語句を識別表示させる模範音声部分識別表示制御手段を有し、
    前記復唱部分表示手段は、
    前記学習対象語句表示手段に前記各学習対象語句のうち、ユーザが復唱すべき順番の前記学習対象語句を識別表示させる復唱部分識別表示制御手段を有することを特徴とする音声学習支援装置。
  5. 請求項1〜の何れか一項に記載の音声学習支援装置において、
    前記学習対象語句表示手段は、
    前記各学習対象語句を文字で表示することを特徴とする音声学習支援装置。
  6. 請求項1〜の何れか一項に記載の音声学習支援装置において、
    前記学習対象語句表示手段は、
    前記各学習対象語句の各文字を所定の記号に置換した状態で、当該各学習対象語句を表示することを特徴とする音声学習支援装置。
  7. 表示手段と、各学習対象語句の模範音声を記憶する記憶手段と、この記憶された各学習対象語句の模範音声を所定の順番で音声出力する音声出力手段と、を備えた電子機器のコンピュータを制御するための音声学習支援プログラムであって、
    前記各学習対象語句の少なくとも一部を表示する学習対象語句表示機能と、
    前記学習対象語句表示機能により表示されている前記各学習対象語句のうち、前記模範音声が出力されている順番の前記学習対象語句の対応位置を表示する模範音声部分表示機能と、
    前記学習対象語句表示機能により表示されている前記各学習対象語句のうち、前記模範音声の出力よりも定の遅れ量だけ遅れたタイミングで、ユーザが復唱すべき順番の前記学習対象語句の対応位置を表示する復唱部分表示機能と、
    ユーザ操作により、前記所定の遅れ量を設定する復唱タイミング設定機能と、
    前記コンピュータに実現させるための音声学習支援プログラム。
JP2006263808A 2006-09-28 2006-09-28 音声学習支援装置及び音声学習支援プログラム Expired - Fee Related JP4840051B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263808A JP4840051B2 (ja) 2006-09-28 2006-09-28 音声学習支援装置及び音声学習支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263808A JP4840051B2 (ja) 2006-09-28 2006-09-28 音声学習支援装置及び音声学習支援プログラム

Publications (2)

Publication Number Publication Date
JP2008083434A JP2008083434A (ja) 2008-04-10
JP4840051B2 true JP4840051B2 (ja) 2011-12-21

Family

ID=39354370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263808A Expired - Fee Related JP4840051B2 (ja) 2006-09-28 2006-09-28 音声学習支援装置及び音声学習支援プログラム

Country Status (1)

Country Link
JP (1) JP4840051B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6160261B2 (ja) * 2013-05-31 2017-07-12 株式会社Jvcケンウッド 文提示装置、文提示方法及び文提示プログラム
JP6535999B2 (ja) * 2014-09-17 2019-07-03 カシオ計算機株式会社 言語学習装置、言語学習方法及びプログラム
CN111459449A (zh) * 2020-01-19 2020-07-28 托普朗宁(北京)教育科技有限公司 一种辅助阅读的方法、装置、存储介质及电子设备
JP2024000236A (ja) * 2022-06-20 2024-01-05 オムロンヘルスケア株式会社 認知機能検査装置及び認知機能検査プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP2003323104A (ja) * 2002-05-02 2003-11-14 Uchida Yoko Co Ltd 語学学習システム
JP2004133403A (ja) * 2002-09-20 2004-04-30 Kobe Steel Ltd 音声信号処理装置
JP2005284181A (ja) * 2004-03-30 2005-10-13 Toshiba Corp 学習支援方法、学習支援システムおよび学習支援プログラム
JP2005326811A (ja) * 2004-04-14 2005-11-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法

Also Published As

Publication number Publication date
JP2008083434A (ja) 2008-04-10

Similar Documents

Publication Publication Date Title
US9953646B2 (en) Method and system for dynamic speech recognition and tracking of prewritten script
JP6099746B2 (ja) 対応メディアコンテンツ部分の整合
US6397185B1 (en) Language independent suprasegmental pronunciation tutoring system and methods
US9548052B2 (en) Ebook interaction using speech recognition
US7890330B2 (en) Voice recording tool for creating database used in text to speech synthesis system
CN101551947A (zh) 辅助口语语言学习的计算机系统
US20160055763A1 (en) Electronic apparatus, pronunciation learning support method, and program storage medium
Davel et al. Pronunciation dictionary development in resource-scarce environments
US10650089B1 (en) Sentence parsing correction system
CN109979257A (zh) 一种基于英语朗读自动打分进行分拆运算精准矫正的方法
JP4738847B2 (ja) データ検索装置および方法
Ali Multi-dialect Arabic broadcast speech recognition
JP2010198241A (ja) 中国語入力装置およびプログラム
JP4840051B2 (ja) 音声学習支援装置及び音声学習支援プログラム
JP5119671B2 (ja) 音声出力装置及び音声出力プログラム
JP2003162524A (ja) 言語処理装置
JP4677869B2 (ja) 音声出力機能付き情報表示制御装置およびその制御プログラム
JP2008083446A (ja) 発音学習支援装置及び発音学習支援プログラム
Hoste et al. Using rule-induction techniques to model pronunciation variation in Dutch
CN112541651B (zh) 电子设备、发音学习方法、服务器装置、发音学习处理系统及记录介质
JP2008058678A (ja) 音声出力装置及び音声出力プログラム
Marie-Sainte et al. A new system for Arabic recitation using speech recognition and Jaro Winkler algorithm
Salama et al. Building a POS-Annotated Corpus For Egyptian Children
TWI220206B (en) System and method for searching a single word in accordance with speech
Sloan Using Linguistic Features to Improve Prosody for Text-to-Speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110524

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110919

R150 Certificate of patent or registration of utility model

Ref document number: 4840051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees