JP2008171208A - Voice output device and voice output program - Google Patents
Voice output device and voice output program Download PDFInfo
- Publication number
- JP2008171208A JP2008171208A JP2007003850A JP2007003850A JP2008171208A JP 2008171208 A JP2008171208 A JP 2008171208A JP 2007003850 A JP2007003850 A JP 2007003850A JP 2007003850 A JP2007003850 A JP 2007003850A JP 2008171208 A JP2008171208 A JP 2008171208A
- Authority
- JP
- Japan
- Prior art keywords
- word
- headword
- voice data
- voice
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、音声出力装置及び音声出力プログラムに関する。 The present invention relates to an audio output device and an audio output program.
従来、音声出力の可能な電子辞書などの音声出力装置では、音声を出力する方式として、単語等の発音記号情報に基づいて音声データを合成して出力する方式や、予め単語等の録音データを格納して音声出力する方式が用いられている(例えば、特許文献1,2参照)。
Conventionally, in a voice output device such as an electronic dictionary capable of voice output, as a method of outputting voice, a method of synthesizing and outputting voice data based on pronunciation symbol information such as a word, or recording data such as a word in advance A method of storing and outputting sound is used (see, for example,
ところで、音声出力装置で音声出力される対象としては、複数の単語からなる複合語がある。
しかしながら、音声データを合成する方式によって複合語を音声出力する場合には、単語間の繋がりが正確に再現されず、発音に違和感が生じてしまう。一方、予め単語等の録音データを格納する方式によって複合語を音声出力する場合には、各複合語について録音データを格納していないと、音声出力をすることはできない。 However, when a compound word is output as a voice by a method of synthesizing voice data, the connection between words is not accurately reproduced, and the pronunciation is uncomfortable. On the other hand, when a compound word is output as a voice by a method of storing recorded data such as words in advance, the sound cannot be output unless the recording data is stored for each compound word.
本発明の課題は、各複合語を正確に音声出力することのできる音声出力装置及び音声出力プログラムを提供することである。 The subject of this invention is providing the audio | voice output apparatus and audio | voice output program which can carry out the audio | voice output of each compound word correctly.
請求項1記載の発明は、音声出力装置であって、
各複合語に音声データを対応付けて記憶する音声データ記憶手段と、
テキストを表示するテキスト表示手段と、
前記テキスト表示手段に表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
前記指定単語を先頭として前記テキスト表示手段によりテキスト中に表示されており、かつ、前記音声データ記憶手段により音声データの記憶されている複合語を検出する複合語検出手段と、
前記複合語検出手段によって検出された複合語に対応する音声データを音声出力する音声出力手段と、
を備えることを特徴とする。
The invention according to
Voice data storage means for storing voice data in association with each compound word;
Text display means for displaying text;
A word designating unit for designating any word in the text displayed on the text display unit as a designated word based on a user operation;
Compound word detection means for detecting a compound word that is displayed in the text by the text display means with the designated word at the beginning and in which voice data is stored by the voice data storage means;
Voice output means for outputting voice data corresponding to the compound word detected by the compound word detecting means;
It is characterized by providing.
請求項2記載の発明は、請求項1記載の音声出力装置において、
前記複合語検出手段は、
前記テキスト表示手段によりテキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものを検出する変化形複合語検出手段を有することを特徴とする。
The invention according to
The compound word detecting means includes
The present invention is characterized in that it has change compound word detection means for detecting at least one constituent word converted into a change word as a compound word displayed in the text by the text display means.
請求項3記載の発明は、請求項1または2記載の音声出力装置において、
前記音声出力手段で音声出力可能な音声データを、テキストデータから生成する音声データ生成手段と、
前記複合語検出手段によって複合語が検出されない場合に、その旨を前記テキスト表示手段に表示させるとともに、前記指定単語の音声データを前記音声データ生成手段に生成させて前記音声出力手段に音声出力させる合成音声出力制御手段と、
を備えることを特徴とする。
The invention according to claim 3 is the audio output device according to
Voice data generating means for generating voice data that can be output by the voice output means from text data;
When a compound word is not detected by the compound word detecting unit, the fact is displayed on the text display unit, and voice data of the designated word is generated by the voice data generating unit and output by the voice output unit. Synthesized voice output control means;
It is characterized by providing.
請求項4記載の発明は、請求項1〜3の何れか一項に記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報をテキストとして表示する説明情報表示手段を有することを特徴とする。
The invention according to claim 4 is the audio output device according to any one of
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
It has an explanation information display means for displaying the explanation information retrieved by the retrieval means as text.
請求項5記載の発明は、請求項4記載の音声出力装置において、
前記音声データ記憶手段は、
各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を有し、
前記見出語指定手段は、
ユーザ操作に基づいて前記指定見出語についての検索文字列の入力操作を受ける見出語入力手段と、
前記検索文字列に対応する各見出語を前記辞書情報から抽出して見出語一覧を表示する見出語一覧表示手段と、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語を前記指定見出語として選択指定する見出語選択手段と、を有し、
前記音声出力手段は、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語に対応する音声データを音声出力する見出語音声出力手段を有することを特徴とする。
The invention described in claim 5 is the audio output device according to claim 4,
The voice data storage means includes
It has a headword voice data storage means for storing voice data in association with each headword,
The headword designating means is:
A headword input means for receiving a search character string input operation for the designated headword based on a user operation;
A headword list display means for extracting a headword corresponding to the search character string from the dictionary information and displaying a headword list;
A headword selection means for selecting and designating any headword in the headword list as the designated headword based on a user operation,
The audio output means is
It is characterized by having a headword voice output means for outputting voice data corresponding to any headword in the headword list based on a user operation.
請求項6記載の発明は、音声出力プログラムであって、
コンピュータに、
各複合語に音声データを対応付けて記憶する音声データ記憶機能と、
テキストを表示するテキスト表示機能と、
前記テキスト表示機能によって表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
前記指定単語を先頭として前記テキスト表示機能によりテキスト中に表示されており、かつ、前記音声データ記憶機能により音声データの記憶されている複合語を検出する複合語検出機能と、
前記複合語検出機能によって検出された複合語に対応する音声データを音声出力する音声出力機能と、
を実現させることを特徴とする。
The invention according to claim 6 is an audio output program,
On the computer,
A voice data storage function for storing voice data in association with each compound word;
A text display function to display text,
A word designating function for designating any word in the text displayed by the text display function as a designated word based on a user operation;
A compound word detection function that detects a compound word that is displayed in the text by the text display function with the designated word at the beginning, and that has voice data stored by the voice data storage function;
An audio output function for outputting audio data corresponding to the compound word detected by the compound word detection function;
It is characterized by realizing.
本発明によれば、各複合語に対応する音声データが記憶されて音声出力されるので、各複合語を正確に音声出力することができる。
また、表示されたテキスト中の何れかの単語が指定単語として指定されると、指定単語を先頭として当該テキスト中に表示されており、かつ、音声データの記憶されている複合語が検出され、検出された複合語に対応する音声データが音声出力されるので、何れの複合語について音声データが記憶されているかを把握しないでも、テキスト中の単語を指定単語と指定することによって複合語を音声出力させることができる。また、複合語の全体を入力する等して音声出力の対象とする場合と比較して、操作を簡略化することができる。
According to the present invention, since voice data corresponding to each compound word is stored and output as a voice, each compound word can be output as a voice accurately.
Further, when any word in the displayed text is designated as a designated word, a compound word that is displayed in the text with the designated word as the head and in which voice data is stored is detected, Since voice data corresponding to the detected compound word is output as a voice, the compound word can be voiced by designating the word in the text as the designated word without knowing which compound word the voice data is stored for. Can be output. In addition, the operation can be simplified as compared with the case where the entire compound word is input, for example, as a target for voice output.
以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.
まず、電子辞書の構成を説明する。 First, the configuration of the electronic dictionary will be described.
[外観構成]
図1は、電子辞書1の平面図である。
この図に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、スピーカ12及びキー群2を備えている。
[Appearance configuration]
FIG. 1 is a plan view of the
As shown in this figure, the
メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)等によって構成されている。なお、本実施の形態におけるサブディスプレイ11は、いわゆるタッチパネルとなっており、表面を押下することにより、押下位置に応じた入力操作が可能となっている。
The
スピーカ12は、ユーザによるキー群2の操作に応じた見出語や例文等の音声を出力する部分である。
The
キー群2は、ユーザが電子辞書1を操作するための各種キーを有している。具体的には、キー群2は、訳/決定キー2bと、文字キー2cと、辞書選択キー2dと、カーソルキー2eと、シフトキー2fと、戻るキー2gと、音声出力キー2hと、用例キー2iと、複合語キー2j等とを有している。
The
訳/決定キー2bは、検索の実行や、見出語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。辞書選択キー2dは、後述の辞書データベース84,…(図2参照)の選択に使用されるキーである。
The translation / decision key 2b is a key used for executing a search, determining a headword, and the like. The
カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。シフトキー2fは、日本語の単語を検索対象に設定するとき等に使用されるキーである。戻るキー2gは、前回表示した画面に戻るとき等に使用されるキーである。
The
音声出力キー2hは、選択された見出語や複合語などの音声を出力させる場合に押下されるキーである。用例キー2iは、選択された見出語などを含む例文を表示させる場合に押下されるキーである。複合語キー2jは、選択された見出語を含む成句・複合語を表示させる場合に押下されるキーである。 The voice output key 2h is a key that is pressed when outputting a voice such as a selected headword or compound word. The example key 2i is a key that is pressed when displaying an example sentence including the selected headword. The compound word key 2j is a key that is pressed when displaying a phrase / compound word including the selected headword.
[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。
[Internal configuration]
Next, the internal structure of the
この図に示すように、電子辞書1は、CPU(Central Processing Unit)20、入力部30、表示部40、音声出力部50、フラッシュROM(Read Only Memory)80、RAM(Random Access Memory)90を備え、各部はバス100で相互にデータ通信可能に接続されて構成されている。
As shown in this figure, the
表示部40は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。
The
入力部30は、上述のキー群2を備えており、押下されたキーに対応する信号をCPU20に出力するようになっている。
The
音声出力部50は、上述のスピーカ12を備えており、CPU20から入力される音声出力信号に基づいて音声データをスピーカ12に再生させるようになっている。
The
CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じてフラッシュROM80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果をRAM90に保存するとともに、当該処理結果を表示部40や音声出力部50に適宜出力させる。
The
フラッシュROM80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM80は、本発明に係る音声出力プログラム81と、辞書データベース群82と、音声データベース83等とを記憶している。
The
音声出力プログラム81は、後述の辞書検索処理(図6〜図9参照)をCPU20に実行させるためのプログラムである。
The
辞書データベース群82は、複数の辞書データベース84,…を有しており、本実施の形態においては、「ジー○アス英和辞典」の辞書データベース84aや、「ロングマン現代英英辞典」の辞書データベース84b等を有している。
The
これら辞書データベース84,…には、例えば図3に1例を示すように、複数の見出語に対して、この見出語の発音記号及び意味内容からなる説明情報や、見出語の例文(用例)を識別するための用例番号、見出語を含む熟語を識別するための熟語番号,成句・複合語を識別するための複合語番号などが対応付けされて格納されている。また、各辞書データベース84には、例えば図4(a)〜(b)に1例を示すように、上述の用例番号に例文と、その対訳が対応付けられたテーブルや、上述の複合語番号に成句・複合語と、当該成句・複合語の説明情報とが対応付けられたテーブル、上述の熟語番号に熟語と、当該熟語の説明情報とが対応付けられたテーブル等が格納されている。なお、本実施の形態においては、各辞書データベース84における説明情報はテキストデータとなっている。
In these
また、音声データベース83には、例えば図5に1例を示すように、見出語や成句・複合語などに対して、ネイティブの発音による音声データ、いわゆる「トゥルーボイス」が対応付けされて格納されている。
In the
RAM90は、CPU20が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリ領域を備えている。このRAM90は、本実施の形態においては、選択辞書記憶領域91、入力文字記憶領域92、選択見出語記憶領域93、単語列記憶領域94及び音声出力候補記憶領域95を備えている。
The
ここで、選択辞書記憶領域91には、見出語の検索対象としてユーザにより選択された辞書データベース84の識別情報が格納されるようになっており、入力文字記憶領域92には、ユーザにより入力された入力文字が格納されるようになっている。また、選択見出語記憶領域93には、辞書引きする対象の見出語としてユーザによって選択された選択見出語が記憶されるようになっている。なお、本実施の形態における選択見出語は、本実施の形態においては、入力文字や指定文字に前方一致するようアルファベット順或いは五十音順に辞書データベースから読み出された見出語の一覧から選択されるようになっている。
Here, the selected
また、単語列記憶領域94には、後述の音声サーチ処理(図8〜図9参照)においてカーソル位置を先頭とする所定の単語列が記憶されるようになっており、音声出力候補記憶領域95には、後述の音声サーチ処理(図8〜図9参照)において音声出力対象の候補とされる各単語列がリスト化されて記憶されるようになっている。
The word
[動作]
続いて、電子辞書1の動作を説明する。
図6〜図9は、CPU20が音声出力プログラム81を読み出して実行する辞書検索処理の流れを示すフローチャートである。
[Operation]
Next, the operation of the
6 to 9 are flowcharts showing the flow of dictionary search processing in which the
まず、図6に示すように、ユーザにより辞書選択キー2dが押下されて辞書データベース群82から何れかの辞書データベース84が選択された後(ステップS1)、見出語検索の開始が指示されて(ステップS2)、検索文字列が入力されると(ステップS3)、CPU20は、入力された検索文字列に対応する見出語の候補を選択された辞書データベース84の中から抽出してメインディスプレイ10に一覧表示させるとともに、先頭の見出語を反転表示の対象として指定し、その説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS4)。なお、本実施の形態では、ステップS1の処理において、見出語及び説明情報の少なくとも一方が英語で記載された辞書データベース84が選択されるものとして説明する。
First, as shown in FIG. 6, after the dictionary selection key 2d is pressed by the user and any
次に、CPU20は、ユーザによってカーソルキー2eの上下キーが操作されるか否かを判定し(ステップS5)、操作されたと判定した場合(ステップS5;Yes)には、反転指定の見出語を見出語一覧中でカーソル方向に変更し、変更先の見出語の説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させた後(ステップS6)、上述のステップS5の処理に移行する。
Next, the
一方、ステップS5において上下キーが操作されないと判定した場合(ステップS5;No)には、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS7)、操作されたと判定した場合(ステップS7;Yes)には、反転指定の見出語に対応する音声データを音声データベース83で検索し(ステップS8)、音声データがあるか否かを判定する(ステップS9)。そして、このステップS9において音声データがあると判定した場合(ステップS9;Yes)には、CPU20は、当該音声データを音声出力部50に音声出力させた後(ステップS10)、上述のステップS5の処理に移行する。また、ステップS9において音声データがないと判定した場合(ステップS9;No)には、CPU20は、図10(a)に示すように、音声データがない旨をメインディスプレイ10に表示させた後(ステップS11)、上述のステップS5の処理に移行する。
On the other hand, if it is determined in step S5 that the up / down key is not operated (step S5; No), the
また、上述のステップS7において音声出力キー2hが操作されないと判定した場合(ステップS7;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定し(ステップS12)、操作されないと判定した場合(ステップS12;No)には、他の処理へ移行する。
If it is determined in step S7 that the voice output key 2h is not operated (step S7; No), the
一方、ステップS12において訳/決定キー2bが操作されたと判定した場合(ステップS12;Yes)には、CPU20は、反転指定の見出語の説明情報をメインディスプレイ10に全画面表示させる(ステップS13)。このとき、表示されている見出語を含む複合語が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す複合語マークM1(図13参照)をメインディスプレイ10の右上部に表示させる。また、見出語の用例が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す用例マークM2(図13参照)をメインディスプレイ10の表示領域のうち、用例の記憶されている意味内容の部分にそれぞれ表示させる。
On the other hand, if it is determined in step S12 that the translation / decision key 2b has been operated (step S12; Yes), the
次に、図7に示すように、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS21)、音声出力キー2hが操作されたと判定した場合(ステップS21;Yes)には、音声サーチ処理を行う(ステップS22)。
Next, as shown in FIG. 7, the
具体的には、図8に示すように、まずCPU20は、音声サーチ処理の実行中であることを示す音声サーチマークM3(図11等参照)を表示部40のメインディスプレイ10に表示させるとともに、音声出力の速度設定画面(図1参照)をサブディスプレイ11に表示させる(ステップT11)。なお、この速度設定画面が表示された状態では、ユーザがサブディスプレイ11の所定領域を押下することにより、音声の出力速度が任意の速度に変更される。
Specifically, as shown in FIG. 8, first, the
次に、CPU20は、メインディスプレイ10に表示されている説明情報または用例における先頭の単語を反転指定した後(ステップT12)、ユーザによってカーソルキー2eが操作されるか否かを判定し(ステップT13)、操作されたと判定した場合(ステップT13;Yes)には、反転指定の単語をカーソル方向に変更した後(ステップT14)、上述のステップT13の処理に移行する。
Next, the
一方、ステップT13においてカーソルキー2eが操作されないと判定した場合(ステップT13;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定する(ステップT15)。
On the other hand, when it is determined in step T13 that the
このステップT15において訳/決定キー2bが操作されたと判定した場合(ステップT15;Yes)には、CPU20は、反転指定されているカーソル位置の単語から文中の末尾の単語までの一連の単語列を抽出して単語列記憶領域94に記憶させ(ステップT16)、当該単語列や、この単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に対応する音声データを音声データベース83で検索し、検索された場合には、その音声データを音声出力候補記憶領域95の候補リストに加える(ステップT17)。
If it is determined in step T15 that the translation / decision key 2b has been operated (step T15; Yes), the
なお、変化形単語としては、例えば、構成単語をハイフンなどで結合した単語の他、原形動詞の構成単語に対する過去形、過去分詞形、格変化形の単語や、原形の形容詞の構成単語に対する比較級形、最上級形の単語などがある。また、構成単語の変化形単語を取得する方法としては、各単語について変化形単語を対応付けて記憶したテーブルを参照するなど、従来より公知の手法を用いることができる。 In addition, for example, as a change word, in addition to a word formed by combining constituent words with hyphens, etc., a comparison is made with respect to a constituent word of the original verb, a past tense, a past participle, a case change, and a basic adjective constituent word. There are class and superlative words. Moreover, as a method of acquiring the variation word of the constituent words, a conventionally known method can be used such as referring to a table storing the variation word for each word in association with each other.
次に、CPU20は、単語列記憶領域94に記憶されている単語列における末尾の単語を削除し、残りの単語列や、残りの単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に対応する音声データを音声データベース83で検索し、検索された場合には、その音声データを音声出力候補記憶領域95の候補リストに加える(ステップT18)。
Next, the
次に、CPU20は、単語列記憶領域94における単語列がカーソル位置の単語のみ、つまり反転指定されている単語のみであるか否かを判定し(ステップT19)、カーソル位置の単語のみではないと判定した場合(ステップT19;No)には、上述のステップT18の処理に移行する。
Next, the
一方、ステップT19においてカーソル位置の単語のみであると判定した場合(ステップT19;Yes)には、CPU20は、図9に示すように、音声出力候補記憶領域95に音声データの候補が記憶されているか否かを判定し(ステップT31)、記憶されていると判定した場合(ステップT31;Yes)には、候補リストの単語列をメインディスプレイ10に一覧表示させ(ステップT32)、ユーザによりカーソルキー2eで何れかの単語列が指定され、訳/決定キー2bで選択されると(ステップT33)、選択された単語列の音声データを音声出力部50に音声出力させる(ステップT34)。
On the other hand, when it is determined in step T19 that only the word at the cursor position is present (step T19; Yes), the
次に、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT35)、操作されないと判定した場合(ステップT35;No)には、上述のステップT33の処理に移行し、操作されたと判定した場合(ステップT35;Yes)には、図8に示すように、上述のステップT13の処理に移行する。
Next, the
また、図9,図10(b)に示すように、上述のステップT31において音声データの候補がないと判定した場合(ステップT31;No)には、CPU20は、その旨と、反転指定されている単語について合成音声を音声出力するか否か質問する旨とをメインディスプレイ10に表示させた後(ステップT36)、音声出力が選択されるか否かを判定し(ステップT37)、選択されないと判定した場合(ステップT37;No)には、図8に示すように、上述のステップT13の処理に移行する。
As shown in FIGS. 9 and 10B, when it is determined in step T31 that there is no audio data candidate (step T31; No), the
また、図9に示すように、ステップT37において音声出力が選択されたと判定した場合(ステップT37;Yes)には、CPU20は、反転指定されているカーソル位置の単語の発音記号に基づいて当該単語の合成音声データを生成し、合成音声データを音声出力部50に音声出力させた後(ステップT38)、図8に示すように、上述のステップT13の処理に移行する。なお、発音記号に基づいて合成音声データを音声出力する手法としては、各音素に対応する音声データをフラッシュROM80等に予め格納した状態で、発音記号のテキストデータを音素に分解し、分解された各音素に対応する音声データを合成して連続再生する等、従来より公知の手法を用いることができる。但し、発音記号のテキストデータに基づいて合成音声を出力するのではなく、単語自体のテキストデータに基づいて合成音声を出力するようにしても良い。
Also, as shown in FIG. 9, when it is determined in step T37 that the audio output has been selected (step T37; Yes), the
また、上述のステップT15において訳/決定キー2bが操作されないと判定した場合(ステップT15;No)には、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT21)、操作されないと判定した場合(ステップT21;No)には、他の処理へ移行し、操作されたと判定したと判定した場合(ステップT21;Yes)には、音声サーチ処理を終了した後、図7に示すように、上述のステップS21の処理に移行する。
If it is determined in step T15 that the translation / decision key 2b is not operated (step T15; No), the
また、このステップS21において音声出力キー2hが操作されないと判定した場合(ステップS21;No)には、CPU20は、ユーザによって用例キー2iが操作されるか否かを判定し(ステップS31)、操作されたと判定した場合(ステップS31;Yes)には、上述のステップS13によってメインディスプレイ10に表示された用例マークM2,…のうち、先頭の用例マークM2を反転させて指定表示し、当該用例マークに対応する意味内容での用例を、見出語の説明情報とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS32)。
If it is determined in step S21 that the audio output key 2h is not operated (step S21; No), the
次に、ユーザによりカーソルキー2eの上下キーで何れかの用例マークM2が指定され、訳/決定キー2bで選択されると(ステップS33)、CPU20は、選択された用例マークに対応する意味内容での用例をメインディスプレイ10に全画面表示させる(ステップS34)。
Next, when any example mark M2 is designated by the user with the up / down key of the
次に、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS35)、操作されないと判定した場合(ステップS35;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS35;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS36)、上述のステップS35の処理に移行する。
Next, the
また、上述のステップS31において用例キー2iが操作されないと判定した場合(ステップS31;No)には、CPU20は、ユーザによって複合語キー2jが操作されるか否かを判定し(ステップS41)、操作されないと判定した場合(ステップS41;No)には、他の処理へ移行する。
If it is determined in step S31 that the example key 2i is not operated (step S31; No), the
また、ステップS41において複合語キー2jが操作されたと判定した場合(ステップS41;Yes)には、CPU20は、反転指定の単語を含む複合語をメインディスプレイ10に一覧表示させ(ステップS42)、ユーザによりカーソルキー2eの上下キーで何れかの複合語が指定され、訳/決定キー2bで選択されると(ステップS43)、選択された複合語の説明情報をメインディスプレイ10に全画面表示させる(ステップS44)。
If it is determined in step S41 that the compound word key 2j has been operated (step S41; Yes), the
次に、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS45)、操作されないと判定した場合(ステップS45;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS45;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS46)、上述のステップS45の処理に移行する。
Next, the
<動作例>
続いて、図面を参照しつつ、上記の辞書検索処理を具体的に説明する。なお、後述の図11等においては、図中の左側に電子辞書1の全体図を簡略化して示すとともに、図中の右側に操作手順を示している。
<Operation example>
Next, the above dictionary search process will be specifically described with reference to the drawings. In addition, in FIG. 11 etc. which will be described later, an overall view of the
(動作例1)
例えば、図11(a)に示すように、ユーザによって「ジ○ニアス英和辞典」の辞書データベース84aが選択され(ステップS1)、検索文字列として「batteringram」が入力されると(ステップS3)、当該検索文字列に対応する見出語の候補「batter」,「battery」,…がメインディスプレイ10の中段に一覧表示されるとともに、先頭の見出語「[batter]〜ing ram」が反転指定されて、その説明情報がメインディスプレイ10の下段にプレビュー表示される(ステップS4)。
(Operation example 1)
For example, as shown in FIG. 11 (a), when the user selects the
次に、ユーザによって音声出力キー2hが操作されると(ステップS7;Yes)、反転指定の見出語「[batter]〜ing ram」が音声出力される(ステップS10)。 Next, when the voice output key 2h is operated by the user (step S7; Yes), the inverted word “[batter] to ing ram” is output as a voice (step S10).
次に、図11(b)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「[batter]〜ing ram」の説明情報が全画面表示され(ステップS13)、更にユーザによって音声出力キー2hが操作されると(ステップS21;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。
Next, as shown in FIG. 11B, when the translation / decision key 2b is operated by the user (step S12; Yes), the explanatory information of the headword “[batter] to ing ram” designated for inversion is obtained. When the full screen is displayed (step S13) and the voice output key 2h is further operated by the user (step S21; Yes), the voice search mark M3 is displayed on the
次に、メインディスプレイ10に表示されている説明情報の先頭の単語「batter」が反転指定された後(ステップT12)、ユーザによってカーソルキー2eの下キーが操作されると(ステップT13;Yes)、当該カーソル方向において単語列「〜ing ram」における単語「〜ing」が反転指定される(ステップT14)。
Next, after the first word “batter” of the description information displayed on the
次に、図11(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、反転指定されている単語「〜ing」から末尾の単語「ram」までの一連の単語列「battering ram」が単語列記憶領域94に記憶され(ステップT16)、当該単語列「battering ram」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT17)。 Next, as shown in FIG. 11C, when the translation / decision key 2b is operated by the user (step T15; Yes), from the inverted word “˜ing” to the last word “ram” Is stored in the word string storage area 94 (step T16), and the voice data corresponding to the word string “battering ram” is added to the candidate list in the voice output candidate storage area 95 (step S16). T17).
次に、末尾の単語「ram」が削除された単語列「battering」や、この単語列の変化形単語「batter」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「battering ram」,「battering」,「batter」が一覧表示される(ステップT32)。
Next, after the speech data corresponding to the word string “battering” from which the last word “ram” has been deleted and the variation word “batter” of this word string are added to the candidate list in the speech output candidate storage area 95 (Step T18), the word strings “battering ram”, “battering”, “batter” in the candidate list stored in the voice output
そして、図11(d)に示すように、ユーザによりカーソルキー2eの下キーが操作され、訳/決定キー2bが操作されると(ステップT33)、選択された単語列「battering」の音声データが音声出力される(ステップT34)。
Then, as shown in FIG. 11D, when the user operates the down key of the
(動作例2)
例えば、図12(a)に示すように、ユーザによって「ロ○グマン現代英英辞典」の辞書データベース84bが選択され(ステップS1)、検索文字列として「baked beans」が入力された後(ステップS3)、見出語の候補「baked beans」について訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「baked beans」の説明情報が全画面表示される(ステップS13)。
(Operation example 2)
For example, as shown in FIG. 12 (a), after the user selects the
次に、ユーザによって音声出力キー2hが操作されると(ステップS21;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。
Next, when the voice output key 2h is operated by the user (step S21; Yes), the voice search mark M3 is displayed on the
次に、メインディスプレイ10に表示されている説明情報の先頭の単語「baked」が反転指定された後(ステップT12)、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、図12(b)に示すように、反転指定されている単語「baked」から末尾の単語「beans」までの一連の単語列「baked beans」が単語列記憶領域94に記憶され(ステップT16)、当該単語列「baked beans」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT17)。
Next, after the first word “baked” of the description information displayed on the
次に、末尾の単語「beans」が削除された単語列「baked」の変化形単語「bake」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「baked beans」,「bake」が一覧表示される(ステップT32)。
Next, after the speech data corresponding to the variation word “bake” of the word string “baked” from which the last word “beans” has been deleted is added to the candidate list in the speech output candidate storage area 95 (step T18), A list of word strings “baked beans” and “bake” in the candidate list stored in the audio output
そして、図12(c)に示すように、ユーザにより訳/決定キー2bが操作されると(ステップT33)、選択された単語列「baked beans」の音声データが音声出力される(ステップT34)。 Then, as shown in FIG. 12C, when the translation / decision key 2b is operated by the user (step T33), the audio data of the selected word string “baked beans” is output as audio (step T34). .
(動作例3)
例えば、図13(a)に示すように、ユーザによって「ジ○ニアス英和辞典」の辞書データベース84aが選択され(ステップS1)、検索文字列として「bread」が入力された後(ステップS3)、見出語の候補「bread」について訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「baked beans」の説明情報が全画面表示される(ステップS13)。
(Operation example 3)
For example, as shown in FIG. 13 (a), after the user selects the
次に、図13(b)に示すように、ユーザによって用例キー2iが操作され(ステップS31;Yes)、意味内容「食パン」での用例について訳/決定キー2bが操作されると(ステップS33)、当該意味内容「食パン」での見出語「bread」の用例が全画面表示される(ステップS34)。 Next, as shown in FIG. 13B, the user operates the example key 2i (step S31; Yes), and operates the translation / decision key 2b for the example with the meaning content “bread” (step S33). ), An example of the headword “bread” in the meaning content “bread” is displayed on the full screen (step S34).
次に、ユーザによって音声出力キー2hが操作されると(ステップS35;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。
Next, when the voice output key 2h is operated by the user (step S35; Yes), the voice search mark M3 is displayed on the
次に、メインディスプレイ10に表示されている説明情報の先頭の単語「bread」が反転指定された後(ステップT12)、ユーザによってカーソルキー2eの下キーや右キーが複数回操作されると(ステップT13;Yes)、当該カーソル方向において用例「I have a glass of milk, hot cereal, and bread and butter for breakfast.」における単語「bread」が反転指定される(ステップT14)。
Next, after the first word “bread” of the description information displayed on the
次に、図13(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、反転指定されている単語「bread」から末尾の単語「breakfast」までの一連の単語列「bread and butter for breakfast」が単語列記憶領域94に記憶される(ステップT16)。このとき、当該単語列「bread and butter for breakfast」に対応する音声データは検出されない(ステップT17)。 Next, as shown in FIG. 13C, when the translation / decision key 2b is operated by the user (step T15; Yes), the word “bread” from the reverse designation to the last word “breakfast” is displayed. A series of word strings “bread and butter for breakfast” is stored in the word string storage area 94 (step T16). At this time, audio data corresponding to the word string “bread and butter for breakfast” is not detected (step T17).
次に、末尾の単語「breakfast」が削除された単語列「bread and butter for」が単語列記憶領域94に記憶される。このとき、当該単語列「bread and butter for breakfast」に対応する音声データは検出されない(ステップT18)。
Next, the word string “bread and butter for” from which the last word “breakfast” has been deleted is stored in the word
次に、末尾の単語「for」が削除された単語列「bread and butter」が単語列記憶領域94に記憶され、当該単語列「bread and butter」や変化形単語列「bread-and-butter」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT18)。
Next, the word string “bread and butter” from which the last word “for” has been deleted is stored in the word
次に、末尾の単語「butter」が削除された単語列「bread and」が単語列記憶領域94に記憶される。このとき、当該単語列「bread and」に対応する音声データは検出されない(ステップT18)。
Next, the word string “bread and” from which the last word “butter” has been deleted is stored in the word
次に、末尾の単語「and」が削除された単語列「bread」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「bread-and-butter」,「bread and butter」,「batter」が一覧表示される(ステップT32)。
Next, after the speech data corresponding to the word string “bread” from which the last word “and” has been deleted is added to the candidate list in the speech output candidate storage area 95 (step T18), it is stored in the speech output
そして、図13(d)に示すように、ユーザによりカーソルキー2eの下キーが操作され、訳/決定キー2bが操作されると(ステップT33)、選択された単語列「bread and butter」の音声データが音声出力される(ステップT34)。
Then, as shown in FIG. 13D, when the user operates the down key of the
以上の電子辞書1によれば、図9のステップT34や、図11〜図13に示したように、各複合語に対応する音声データが記憶されて音声出力されるので、各複合語を正確に音声出力することができる。また、表示されたテキスト中の何れかの単語が反転指定されると、その単語を先頭として当該テキスト中に表示されており、かつ、音声データベース83に音声データの記憶されている複合語が検出され、検出された複合語に対応する音声データが音声出力されるので、何れの複合語について音声データが記憶されているかを把握しないでも、テキスト中の単語を反転指定することによって複合語を音声出力させることができる。また、複合語の全体を入力する等して音声出力の対象とする場合と比較して、操作を簡略化することができる。
According to the
また、図8のステップT18や、図11〜図13に示したように、テキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものが検出されるので、音声データと対応付けて記憶されている複合語に対してテキスト中での複合語が変化形である場合であっても、当該複合語を音声出力することができる。 Further, as shown in step T18 of FIG. 8 and FIGS. 11 to 13, since a compound word displayed in the text is detected as a compound word converted into a change word. Even if the compound word in the text is a variation of the compound word stored in association with the voice data, the compound word can be output as a voice.
また、図9のステップT38や、図10(b)に示したように、複合語が検出されない場合には、その旨が表示されるとともに、反転指定単語についてのテキストデータから音声データが生成されて音声出力されるので、複合語の音声データが記憶されていない場合であっても、反転指定の単語を音声出力させることができる。また、複合語が検出されない場合にその旨が表示されるので、記憶されている音声データが音声出力されているのか、或いはテキストデータから生成されている音声データが音声出力されているのかを判別することができる。 Further, as shown in step T38 of FIG. 9 and FIG. 10B, when a compound word is not detected, a message to that effect is displayed and voice data is generated from the text data of the reverse designated word. Therefore, even if the compound word sound data is not stored, the inversion designated word can be output as a sound. In addition, when a compound word is not detected, a message to that effect is displayed, so it is determined whether the stored voice data is output as voice or the voice data generated from text data is output as voice. can do.
また、図6のステップS3〜S4,S13や、図11(a)等に示したように、ユーザ操作に基づいて辞書データベース84における何れかの見出語が指定されると、当該見出語に対応する説明情報が辞書データベース84から検索され、検索された説明情報がテキストとして表示されるので、説明情報中の何れかの単語を反転指定することにより、当該説明情報中の複合語を音声出力させることができる。
Further, as shown in steps S3 to S4 and S13 of FIG. 6, FIG. 11A, etc., when any headword in the
また、図6のステップS3〜S4,S10や、図11(a)等に示したように、ユーザ操作に基づいて見出語についての検索文字列の入力操作を受けると、当該検索文字列に対応する各見出語が辞書情報から抽出されて見出語一覧が表示され、見出語一覧における何れかの見出語に対応する音声データが音声出力されるので、任意の見出語を音声出力させることができる。また、見出語一覧に複合語を表示させることにより、当該複合語を音声出力させることができる。 In addition, as shown in steps S3 to S4 and S10 in FIG. 6 and FIG. 11A, when a search character string input operation for a headword is received based on a user operation, the search character string is displayed. Each corresponding headword is extracted from the dictionary information, a headword list is displayed, and voice data corresponding to any headword in the headword list is output as voice. Audio output is possible. Further, by displaying a compound word in the headword list, the compound word can be output as a voice.
なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。 The embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.
例えば、本発明に係る音声出力装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、携帯電話、パソコンなどの電子機器全般に適用可能である。また、本発明に係る音声出力プログラム81は、電子辞書1に対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。
For example, the voice output device according to the present invention has been described as the
1 電子辞書(音声出力装置)
20 CPU(複合語検出手段、変化形複合語検出手段、音声データ生成手段、
合成音声出力制御手段、検索手段)
30 入力部(単語指定手段、見出語指定手段、見出語入力手段、見出語選択手段)
40 表示部(テキスト表示手段、説明情報表示手段、見出語一覧表示手段)
50 音声出力部(音声出力手段、見出語音声出力手段)
81 音声出力プログラム
82 辞書データベース(辞書記憶手段)
83 音声データベース(音声データ記憶手段、見出語音声データ記憶手段)
1 Electronic dictionary (voice output device)
20 CPU (compound word detection means, variation compound word detection means, voice data generation means,
Synthetic voice output control means, search means)
30 input unit (word specifying means, headword specifying means, headword input means, headword selecting means)
40 display section (text display means, explanation information display means, headword list display means)
50 Voice output unit (voice output means, headword voice output means)
81
83 Voice database (voice data storage means, headword voice data storage means)
Claims (6)
テキストを表示するテキスト表示手段と、
前記テキスト表示手段に表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
前記指定単語を先頭として前記テキスト表示手段によりテキスト中に表示されており、かつ、前記音声データ記憶手段により音声データの記憶されている複合語を検出する複合語検出手段と、
前記複合語検出手段によって検出された複合語に対応する音声データを音声出力する音声出力手段と、
を備えることを特徴とする音声出力装置。 Voice data storage means for storing voice data in association with each compound word;
Text display means for displaying text;
A word designating unit for designating any word in the text displayed on the text display unit as a designated word based on a user operation;
Compound word detection means for detecting a compound word that is displayed in the text by the text display means with the designated word at the beginning and in which voice data is stored by the voice data storage means;
Voice output means for outputting voice data corresponding to the compound word detected by the compound word detecting means;
An audio output device comprising:
前記複合語検出手段は、
前記テキスト表示手段によりテキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものを検出する変化形複合語検出手段を有することを特徴とする音声出力装置。 The audio output device according to claim 1,
The compound word detecting means includes
An audio output device comprising: a change compound word detection means for detecting at least one constituent word converted into a change word as a compound word displayed in the text by the text display means.
前記音声出力手段で音声出力可能な音声データを、テキストデータから生成する音声データ生成手段と、
前記複合語検出手段によって複合語が検出されない場合に、その旨を前記テキスト表示手段に表示させるとともに、前記指定単語の音声データを前記音声データ生成手段に生成させて前記音声出力手段に音声出力させる合成音声出力制御手段と、
を備えることを特徴とする音声出力装置。 The audio output device according to claim 1 or 2,
Voice data generating means for generating voice data that can be output by the voice output means from text data;
When a compound word is not detected by the compound word detecting unit, the fact is displayed on the text display unit, and voice data of the designated word is generated by the voice data generating unit and output by the voice output unit. Synthesized voice output control means;
An audio output device comprising:
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報をテキストとして表示する説明情報表示手段を有することを特徴とする音声出力装置。 In the audio output device according to any one of claims 1 to 3,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
An audio output device comprising: explanation information display means for displaying the explanation information retrieved by the retrieval means as text.
前記音声データ記憶手段は、
各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を有し、
前記見出語指定手段は、
ユーザ操作に基づいて前記指定見出語についての検索文字列の入力操作を受ける見出語入力手段と、
前記検索文字列に対応する各見出語を前記辞書情報から抽出して見出語一覧を表示する見出語一覧表示手段と、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語を前記指定見出語として選択指定する見出語選択手段と、を有し、
前記音声出力手段は、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語に対応する音声データを音声出力する見出語音声出力手段を有することを特徴とする音声出力装置。 The audio output device according to claim 4, wherein
The voice data storage means includes
It has a headword voice data storage means for storing voice data in association with each headword,
The headword designating means is:
A headword input means for receiving a search character string input operation for the designated headword based on a user operation;
A headword list display means for extracting a headword corresponding to the search character string from the dictionary information and displaying a headword list;
A headword selection means for selecting and designating any headword in the headword list as the designated headword based on a user operation,
The audio output means is
An audio output device comprising: a headword voice output means for outputting voice data corresponding to any one of the headwords in the headword list based on a user operation.
各複合語に音声データを対応付けて記憶する音声データ記憶機能と、
テキストを表示するテキスト表示機能と、
前記テキスト表示機能によって表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
前記指定単語を先頭として前記テキスト表示機能によりテキスト中に表示されており、かつ、前記音声データ記憶機能により音声データの記憶されている複合語を検出する複合語検出機能と、
前記複合語検出機能によって検出された複合語に対応する音声データを音声出力する音声出力機能と、
を実現させることを特徴とする音声出力プログラム。 On the computer,
A voice data storage function for storing voice data in association with each compound word;
A text display function to display text,
A word designating function for designating any word in the text displayed by the text display function as a designated word based on a user operation;
A compound word detection function that detects a compound word that is displayed in the text by the text display function with the designated word at the beginning, and that has voice data stored by the voice data storage function;
An audio output function for outputting audio data corresponding to the compound word detected by the compound word detection function;
An audio output program characterized by realizing the above.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007003850A JP2008171208A (en) | 2007-01-11 | 2007-01-11 | Voice output device and voice output program |
US12/006,484 US8165879B2 (en) | 2007-01-11 | 2008-01-03 | Voice output device and voice output program |
KR1020080002380A KR100931464B1 (en) | 2007-01-11 | 2008-01-09 | Recording medium recording voice output device and voice output program |
CN200810002630.7A CN101221574B (en) | 2007-01-11 | 2008-01-10 | Voice output device and voice output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007003850A JP2008171208A (en) | 2007-01-11 | 2007-01-11 | Voice output device and voice output program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008171208A true JP2008171208A (en) | 2008-07-24 |
Family
ID=39631414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007003850A Pending JP2008171208A (en) | 2007-01-11 | 2007-01-11 | Voice output device and voice output program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008171208A (en) |
CN (1) | CN101221574B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106168945B (en) * | 2015-05-13 | 2021-09-28 | 卡西欧计算机株式会社 | Audio output device and audio output method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4267101B2 (en) * | 1997-11-17 | 2009-05-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Voice identification device, pronunciation correction device, and methods thereof |
US7496498B2 (en) * | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
-
2007
- 2007-01-11 JP JP2007003850A patent/JP2008171208A/en active Pending
-
2008
- 2008-01-10 CN CN200810002630.7A patent/CN101221574B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN101221574A (en) | 2008-07-16 |
CN101221574B (en) | 2013-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5257330B2 (en) | Statement recording device, statement recording method, program, and recording medium | |
JP2007206317A (en) | Authoring method and apparatus, and program | |
US20160055763A1 (en) | Electronic apparatus, pronunciation learning support method, and program storage medium | |
JP2010198241A (en) | Chinese input device and program | |
JP5119671B2 (en) | Audio output device and audio output program | |
KR100931464B1 (en) | Recording medium recording voice output device and voice output program | |
JP2007219218A (en) | Electronic equipment for language learning and translation reproducing method | |
JP6641680B2 (en) | Audio output device, audio output program, and audio output method | |
JP2008171208A (en) | Voice output device and voice output program | |
JP4305515B2 (en) | Audio output device and audio output program | |
JP6746886B2 (en) | Learning support device and program for the learning support device | |
JP4135316B2 (en) | Machine translation device | |
JP5673215B2 (en) | Russian language search device and program | |
CN112541071A (en) | Electronic dictionary, learning word judgment method, and recording medium | |
JP3762300B2 (en) | Text input processing apparatus and method, and program | |
JP2004171174A (en) | Device and program for reading text aloud, and recording medium | |
JP2009175941A (en) | Electronic dictionary device | |
JP4924148B2 (en) | Pronunciation learning support device and pronunciation learning support program | |
JP2008058678A (en) | Voice output device and program | |
JP5057764B2 (en) | Speech synthesis apparatus and speech synthesis program | |
JP2005018442A (en) | Display processing apparatus, method and program, and recording medium | |
JP2009048374A (en) | Character input device, and character input method for information processing apparatus | |
JP4581778B2 (en) | Information display control device and program | |
JP3838507B2 (en) | Sentence reading apparatus, program for reading out, and recording medium | |
JP3069532B2 (en) | Kana-kanji conversion method and device, and computer-readable recording medium storing a program for causing a computer to execute the kana-kanji conversion method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090407 |