JP2007225999A - 電子辞書 - Google Patents
電子辞書 Download PDFInfo
- Publication number
- JP2007225999A JP2007225999A JP2006048397A JP2006048397A JP2007225999A JP 2007225999 A JP2007225999 A JP 2007225999A JP 2006048397 A JP2006048397 A JP 2006048397A JP 2006048397 A JP2006048397 A JP 2006048397A JP 2007225999 A JP2007225999 A JP 2007225999A
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- pronunciation
- pronunciation information
- headword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】 電子辞書使用者が、単語を正確に発音出来ているか否かを確認するすることが可能な電子辞書を提供する。
【解決手段】 電子辞書は、ROM14内に辞書データと関連付けて発音情報を有している。電子辞書は、録音装置17で使用者の声を発音情報として録音し、ROM14内の発音情報と録音装置17で録音された発音情報とを音声出力装置16で発音させる。
【選択図】 図1
【解決手段】 電子辞書は、ROM14内に辞書データと関連付けて発音情報を有している。電子辞書は、録音装置17で使用者の声を発音情報として録音し、ROM14内の発音情報と録音装置17で録音された発音情報とを音声出力装置16で発音させる。
【選択図】 図1
Description
本願発明は、英和等の辞書データを有し、単語、例文、成句の検索を行う電子辞書において、検索に発音機能と録音機能を付加した電子辞書に関するものである。
従来、問題等を音声によって提示することのできる電子辞書がある(例えば、特許文献1を参照)。
また、入力された単語が正しい綴りで入力されれば、その単語を発音する電子辞書がある(例えば、特許文献2を参照)。
特開平11−202751号公報
特開平11−338862号公報
背景技術に記載の電子辞書は、問題もしくは入力した単語を発音し、使用者に聞かせるものである。このような電子辞書では、その発音を耳で聞き、覚えるという学習が可能である。
しかし、このような電子辞書の発音を受けて、自身で発音して語学学習を行おうとした場合、自身の発音の善し悪しを確認する手段がないという問題があった。
本発明は、上記の問題を解決するためになされたものであり、使用者が自身の発音を確認することが可能な電子辞書を提供するものである。
上記課題を解決するため本発明は、文字を入力するための入力手段と、見出し語と、該見出し語に対応した訳と、該見出し語に対応した例文や成句などの付加情報と、該見出し語に対応した発音情報とを記憶する辞書データ記憶手段と、前記入力手段により入力された見出し語に対応した訳、例文や成句などの付加情報、もしくは発音情報を、前記辞書データ記憶手段から検索する検索手段と、前記検索手段により得られた発音情報を発音する音声出力手段と、前記検索手段で検索した後に外部から音声を取得して録音し発音情報として記憶する音声情報録音手段とを有し、前記音声出力手段は、前記音声録音手段で録音された発音情報を発音することを特徴とする電子辞書を提供する。
これにより、電子辞書に搭載された見出し語に対応した発音情報と、使用者自身の発音情報との両方を再生することができる。
また前記音声出力手段は、前記検索手段により得られた発音情報と前記音声録音手段で録音された発音情報を交互に発音するものとする。
これにより、電子辞書に搭載された見出し語に対応した発音情報と、使用者自身の発音情報とを比較可能に再生することができる。
また前記音声情報録音手段は、前記録音された発音情報を見出し語と関連付けて記憶し、前記音声出力手段は、前記入力手段により見出し語の入力を受けた際、見出し語に関連付けられて記憶されている録音された発音情報を読み出して発音するものとする。
これにより使用者は、後日、該当の見出し語を入力することで、使用者自身の発音を再確認することができる。
また前記音声情報録音手段は、前記録音された発音情報と録音日時情報とを、見出し語と関連付けて記憶し、前記音声出力手段は、前記入力手段により見出し語の入力を受けた際、見出し語に関連付けられて記憶されている録音された発音情報と録音日時情報とを読み出して、録音日時情報毎に発音するものとする。
また前記音声情報録音手段は、1個の見出し語に対して複数個の発音情報を録音して記録する、
これにより使用者は、後日、該当の見出し語を入力し、使用者自身の発音を時系列的に確認することができる。
これにより使用者は、後日、該当の見出し語を入力し、使用者自身の発音を時系列的に確認することができる。
また本発明はさらに、表示手段と、前記音声情報録音手段で録音された発音情報を処理し、音声波形情報を出力する音声認識手段を有し、前記辞書データ記憶手段は、該見出し語に対応した発音情報とともに該発音情報の音声波形情報を記憶し、前記表示手段は、前記音声録音手段で発音情報を録音した際、検索手段により得られた発音情報の音声波形情報と、前記音声認識手段により出力された音声波形情報とを表示するものとする。
これにより、前記検索手段により得られた発音情報と前記音声録音手段で録音された発音情報との違いを、双方の波形により確認することができる。
また本発明はさらに、前記検索手段により得られた発音情報の音声波形情報と、前記音声認識手段により出力された音声波形情報との類似度を比較する比較手段を有し、前記表示手段は、前記比較手段で比較して得られた類似度に基づいた得点情報を表示するものとする。
これにより、前記検索手段により得られた発音情報と前記音声録音手段で録音された発音情報との違いを数値化して確認することができる。
また辞書データ記憶手段は成句の発音情報を有し、前記入力手段は成句の入力を受け、前記検索手段は、前記辞書データ記憶手段から前記成句に対応する見出し語、例文等の付加情報、もしくは発音情報を検索し、前記音声出力手段は、前記検索手段により得られた前記成句の発音情報を発音するものとする。
また辞書データ記憶手段は例文の発音情報を有し、前記入力手段は例文の入力を受け、前記検索手段は、前記辞書データ記憶手段から前記例文に対応する見出し語、成句等の付加情報、もしくは発音情報を検索し、前記音声出力手段は、前記検索手段により得られた前記例文の発音情報を発音するものとする。
これにより、発音学習を、単語のみならず成句や例文でも行うことができる。
本発明によれば、辞書に搭載されたネイティブの発音と録音した使用者自身の発音を比較することによって、学習効果を高めることが出来る。
以下、本発明の実施例を図面に基づいて説明する。図1はこの発明の実施例の構成を示すブロック図である。
図1において、入力装置11は文字等を入力するキーボードや、各種辞書や検索モード等を指定するボタン等から構成されている。入力装置11は、中央処理装置(以後CPUと言う)12に接続され、入力装置11からの入力された入力信号はCPU12に接続するメモリ(以後RAMという)13に一時記憶される。
CPU12には更に、リードオンリーメモリー(以後ROMと言う)14が接続され、このROM14には、辞書データ記憶手段がある。辞書データ記憶手段には、辞書の内容、例えば、見出し語と、見出し語に対応する訳と、見出し語に対応する例文、成句、解説等の付加情報とが記憶されている。また、辞書の内容にを発音したネイティブによる発音情報が、辞書の内容と関連付けられて記憶されている。
またROM14には、電子辞書の各構成要素の動作を制御するための各種プログラムが記憶されている。
また、CPU12には表示装置15が接続され、入力装置11から入力された文字、すなわち一時RAM13に蓄積された内容が表示装置15の画面上に表示される。
また、CPU12には、外部からの音声を録音する録音装置17、およびROM14に記憶されているネイティブによる発音情報や録音装置17で録音した音声を再生する音声出力装置16が接続されている。
尚、図1のブロック図では、CPU12、RAM13、ROM14は個別のブロックとして表示しているが、最近この種の装置ではワンチップCPUを用いることが一般的であるため、これらは明確に分離して構成する必要はない。
次に本発明の実施例の電子辞書が有する機能について説明する。以下の手段は、CPU12がROM14に記憶されている各種プログラムを読み出して実行し、電子辞書中の必要な構成要素の動作を制御することで実行される。
入力手段は、入力装置11によって文字等の入力を受け、CPU12に入力信号を送出する。
検索手段は、入力手段から入力された文字や単語に基づいて、辞書データ記憶手段に記憶されている情報を検索し、目的とする見出し語、訳、例文、成句、解説等を取得する。
音声出力手段は、入力手段により選定された単語、例文、成句等に関連付けて記憶されている発音情報を、入力手段からの指示により音声出力装置16を用いて発音する。また、音声情報録音手段で録音された発音情報を、入力手段からの指示により音声出力装置16を用いて発音する。
音声情報録音手段は、使用者が発音する声を、録音装置17を用いて発音情報として録音する。この際、音声情報録音手段は、発音情報をRAM13に録音する。
表示手段は、検索手段で検索した結果および比較手段で比較した結果等を取得して表示装置15に表示する。
音声認識手段は、使用者が発音する声を波形情報に変換する。
比較手段は、辞書データ記憶手段に記憶されている発音情報の波形情報と、音声情報録音手段で録音された使用者の発音情報の波形情報とを比較して、類似度を算出する。
尚、辞書データ記憶手段はROM14にあるものとする。
次に、図4を用いて本願発明の動作についてステップごとに説明する。ここでは単語検索を例にする。
まず、入力装置11の操作によりCPU12が英単語検索を選択する(S1)。すると表示装置15に単語検索モードであることが表示される(S2)。
更に入力装置11によって、たとえば、「t」「a」「k」「e」と入力すると(S3)、表示装置15において図2のような表示がなされる(S4)。この図は、入力装置11によって「take」と入力されたことを示している。また、図の画面の下部には、入力した文字を先頭に含む単語を、アルファベット順にリスト化したものが表示される。
今回の入力した「take」は、表示装置15に表示されているリスト表示の中に該当する単語があるため、入力装置11を用いてリスト表示の中から「take」を選択し(S5)、その訳情報を図3に示すように表示させる(S6)。
訳の表示をしたあと、「発音」キーによって単語を発音させる(S7)。これは、訳に関連付けられてROM14に記憶されているネイティブの発音情報を音声出力装置16によって出力することで行われる。
次に、辞書に搭載されている録音装置17によって、録音を開始する(S8)。本発明では、「録音」キーを押すことで、音声録音状態になるので、そのとき使用者が自身の声で単語を発声すると、自身の声が発音情報として録音される。録音した発音情報はRAM13に記憶される。
次に「発音」キーを押すことで辞書に搭載されている発音情報を音声出力装置16から発音させ、「再生」キーを押すことで使用者自身が発音した発音情報を音声出力装置16から発音させ、発音の違いを聴覚的に確認する。これを交互に行うことで、自身の発音と辞書搭載の発音を比較し確認することができる(S9)。
尚、ステップ(S9)において、「発音」キーと「再生」キーを交互に押して発音の学習を行う例が示されているが、発音と再生を交互に行う「音声確認」キーのようなキーを設け、自動的に発音の学習を行うようにしてもよい。
また、ネイティブの発音情報とともにその発音の音声波形情報をROM14に記憶し、電子辞書に録音した発音の波形を演算して出力する音声認識手段を搭載することにより、(S9)において、録音した使用者自身の発音を音声認識手段によって波形に変換し、ネイティブの発音情報の波形と比較することができる。そして、この比較結果として、ネイティブの波形と使用者自身の波形の両方を並べたり、重ねたりして表示装置15に表示させることができる。また、波形の類似度を算出し、得点化して表示するようにしてもよい。尚、類似度の算出方法は既存の方法を用いればよい。
また、ステップ(S8)において、「録音キー」を押して使用者自身の発音を録音することが示されているが、録音した発音情報は、(S5)で選択した単語の情報と関連付けてRAM13に記憶するようにしてもよい。またこの際、録音日時やその単語に関して何回目の録音であるのか、等の情報を含めて記憶するようにしてもよい。このようにすることで、後日、辞書に搭載されているネイティブの発音情報を再生し、過去に自身の録音した発音を(例えば、録音が古い順に)再生した上で、再度自身の発音を録音する、ということもでき、自身の発音を時系列で評価することができる。
以上、この発明の動作を単語検索モードについて述べたが、上記の例に限らず、英和・英英や他の言語でも利用することができる。また、単語に限らず、成句や熟語、例文などにも利用できる。
11 入力装置
12 CPU
13 RAM
14 ROM
15 出力装置
16 音声出力装置
17 録音装置
12 CPU
13 RAM
14 ROM
15 出力装置
16 音声出力装置
17 録音装置
Claims (9)
- 文字を入力するための入力手段と、
見出し語と、該見出し語に対応した訳と、該見出し語に対応した例文や成句などの付加情報と、該見出し語に対応した発音情報とを記憶する辞書データ記憶手段と、
前記入力手段により入力された見出し語に対応した訳、例文や成句などの付加情報、もしくは発音情報を、前記辞書データ記憶手段から検索する検索手段と、
前記検索手段により得られた発音情報を発音する音声出力手段と、
前記検索手段で検索した後に外部から音声を取得して録音し発音情報として記憶する音声情報録音手段とを有し、
前記音声出力手段は、前記音声録音手段で録音された発音情報を発音することを特徴とする電子辞書。 - 前記音声出力手段は、前記検索手段により得られた発音情報と前記音声録音手段で録音された発音情報を交互に発音する、請求項1に記載の電子辞書。
- 前記音声情報録音手段は、前記録音された発音情報を見出し語と関連付けて記憶し、
前記音声出力手段は、前記入力手段により見出し語の入力を受けた際、見出し語に関連付けられて記憶されている録音された発音情報を読み出して発音する、請求項1または2に記載の電子辞書。 - 前記音声情報録音手段は、前記録音された発音情報と録音日時情報とを、見出し語と関連付けて記憶し、
前記音声出力手段は、前記入力手段により見出し語の入力を受けた際、見出し語に関連付けられて記憶されている録音された発音情報と録音日時情報とを読み出して、録音日時情報毎に発音する、請求項1または2に記載の電子辞書。 - 前記音声情報録音手段は、1個の見出し語に対して複数個の発音情報を録音して記録する、請求項4に記載の電子辞書。
- さらに、表示手段と、
前記音声情報録音手段で録音された発音情報を処理し、音声波形情報を出力する音声認識手段を有し、
前記辞書データ記憶手段は、該見出し語に対応した発音情報とともに該発音情報の音声波形情報を記憶し、
前記表示手段は、前記音声録音手段で発音情報を録音した際、検索手段により得られた発音情報の音声波形情報と、前記音声認識手段により出力された音声波形情報とを表示する、請求項1に記載の電子辞書。 - さらに、前記検索手段により得られた発音情報の音声波形情報と、前記音声認識手段により出力された音声波形情報との類似度を比較する比較手段を有し、
前記表示手段は、前記比較手段で比較して得られた類似度に基づいた得点情報を表示する、請求項6に記載の電子辞書。 - 辞書データ記憶手段は成句の発音情報を有し、
前記入力手段は成句の入力を受け、
前記検索手段は、前記辞書データ記憶手段から前記成句に対応する見出し語、例文等の付加情報、もしくは発音情報を検索し、
前記音声出力手段は、前記検索手段により得られた前記成句の発音情報を発音する、
請求項1から7の何れかに記載の電子辞書。 - 辞書データ記憶手段は例文の発音情報を有し、
前記入力手段は例文の入力を受け、
前記検索手段は、前記辞書データ記憶手段から前記例文に対応する見出し語、成句等の付加情報、もしくは発音情報を検索し、
前記音声出力手段は、前記検索手段により得られた前記例文の発音情報を発音する、
請求項1から7の何れかに記載の電子辞書。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006048397A JP2007225999A (ja) | 2006-02-24 | 2006-02-24 | 電子辞書 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006048397A JP2007225999A (ja) | 2006-02-24 | 2006-02-24 | 電子辞書 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007225999A true JP2007225999A (ja) | 2007-09-06 |
Family
ID=38547874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006048397A Pending JP2007225999A (ja) | 2006-02-24 | 2006-02-24 | 電子辞書 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007225999A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9129596B2 (en) | 2011-09-26 | 2015-09-08 | Kabushiki Kaisha Toshiba | Apparatus and method for creating dictionary for speech synthesis utilizing a display to aid in assessing synthesis quality |
-
2006
- 2006-02-24 JP JP2006048397A patent/JP2007225999A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9129596B2 (en) | 2011-09-26 | 2015-09-08 | Kabushiki Kaisha Toshiba | Apparatus and method for creating dictionary for speech synthesis utilizing a display to aid in assessing synthesis quality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI554984B (zh) | 電子裝置 | |
JP2008268684A (ja) | 音声再生装置、電子辞書、音声再生方法、音声再生プログラム | |
JP2007206317A (ja) | オーサリング方法、オーサリング装置およびプログラム | |
JP2006337667A (ja) | 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。 | |
JP2006243673A (ja) | データ検索装置および方法 | |
JP2006227425A (ja) | 音声再生装置及び発話支援装置 | |
JP5119671B2 (ja) | 音声出力装置及び音声出力プログラム | |
Demenko et al. | JURISDIC: Polish Speech Database for Taking Dictation of Legal Texts. | |
US20060084047A1 (en) | System and method of segmented language learning | |
JP2007225999A (ja) | 電子辞書 | |
JP2000330996A (ja) | 発音電子辞書 | |
JPH06282290A (ja) | 自然言語処理装置およびその方法 | |
KR101553469B1 (ko) | 다언어 어휘 음성 인식 장치 및 방법 | |
JP5098932B2 (ja) | 歌詞データ表示装置、歌詞データ表示方法、歌詞データ表示プログラム | |
JP2006284645A (ja) | 音声再生装置およびその再生プログラムならびにその再生方法 | |
JPS6184771A (ja) | 音声入力装置 | |
JP2008058678A (ja) | 音声出力装置及び音声出力プログラム | |
JP6156349B2 (ja) | 音声画像出力制御装置、プログラム及び音声画像出力方法 | |
JP5057764B2 (ja) | 音声合成装置及び音声合成プログラム | |
JP7379968B2 (ja) | 学習支援装置、学習支援方法及びプログラム | |
JP2012098753A (ja) | 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム | |
JP2007094269A (ja) | 音声出力機能付き情報表示制御装置およびその制御プログラム | |
JP2001042883A (ja) | テキスト音声合成装置 | |
JP2006047866A (ja) | 電子辞書装置およびその制御方法 | |
JP2008171208A (ja) | 音声出力装置及び音声出力プログラム |