JP4677869B2 - Information display control device with voice output function and control program thereof - Google Patents
Information display control device with voice output function and control program thereof Download PDFInfo
- Publication number
- JP4677869B2 JP4677869B2 JP2005286354A JP2005286354A JP4677869B2 JP 4677869 B2 JP4677869 B2 JP 4677869B2 JP 2005286354 A JP2005286354 A JP 2005286354A JP 2005286354 A JP2005286354 A JP 2005286354A JP 4677869 B2 JP4677869 B2 JP 4677869B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- information
- voice output
- word
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
本発明は、例えば辞書検索により表示された見出語に対応する読み上げ音声の出力機能を備えた音声出力機能付き情報表示制御装置およびその制御プログラムに関する。 The present invention relates to an information display control device with a voice output function having a function of outputting a reading voice corresponding to a headword displayed by dictionary search, for example, and a control program therefor.
従来の電子機器において、表示されたテキストの読み上げ音声を出力するものは種々提案されている。 In the conventional electronic devices, various devices that output a read-out sound of the displayed text have been proposed.
例えばその一つには、パーソナルコンピュータなどにインストールして機能するテキスト読み上げ制御プログラムのように、テキスト表示された個々の単語の文字に対応して予め記憶された音声を合成して順次出力するものがある。 For example, one of them is a text-to-speech control program that is installed and functioning on a personal computer or the like, and synthesizes pre-stored speech corresponding to the characters of each word displayed in text and sequentially outputs them. There is.
このテキスト読み上げ制御処理では、読み上げるべき単語の各文字毎に対応した合成音声を単純に出力すると、例えば日本語「はる」の場合に、同一の文字の綴りであっても品詞が異なる単語の「春(名詞)」と「貼る(動詞)」とでアクセントの位置が「は」と「る」で違ってしまう。 In this text-to-speech control process, if a synthesized speech corresponding to each character of a word to be read out is simply output, for example, in the case of Japanese “Haru”, words of different parts of speech are spelled even if the same character is spelled. The position of the accent is different between "Ha" and "Ru" between "Spring (noun)" and "Paste (verb)".
このため、音声出力対象の単語についてその前後の文章を文法的に解析して品詞を検知し、正しいアクセントの読み上げ音声で出力できるようにした単語アクセント決定方法が考えられている(例えば、特許文献1参照。)。
前記従来の電子機器において、テキストの読み上げ音声出力を正しく機能させるための単語アクセント決定方法は、音声出力対象の単語についてその前後の文章を文法的に解析して品詞を検知することで、品詞で異なるアクセントの位置を正しく音声出力できるようにしたものであるため、句や命令文として存在する単語、あるいは単体で存在する単語について音声出力する場合、正確な品詞を検知することができず、正しい発音の音声出力が行われないことがある。 In the conventional electronic device, the word accent determination method for properly functioning the text-to-speech voice output is based on the part-of-speech by detecting the part-of-speech by analyzing the sentences before and after the voice-output target word. Since different accent positions can be output correctly by voice, when speech is output for words that exist as phrases, command sentences, or words that exist alone, the correct part of speech cannot be detected and is correct. Sound output of pronunciation may not be performed.
本発明は、このような課題に鑑みなされたもので、任意の単語を指定してその読み上げ音声を出力する際に、品詞の違いで発音の異なる単語も正確に音声出力することが可能になる音声出力機能付き情報表示制御装置およびその制御プログラムを提供することを目的とする。 The present invention has been made in view of such a problem. When an arbitrary word is specified and its speech is output, it is possible to accurately output a word with different pronunciation due to a difference in part of speech. An object is to provide an information display control device with a voice output function and a control program thereof.
請求項1に記載の音声出力機能付き情報表示制御装置は、指定の見出語の説明情報を表示させる情報表示制御手段と、この情報表示制御手段により表示された説明情報中の指定部分の音声を出力する音声出力手段とを備えた音声出力機能付き情報表示制御装置であって、前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段と、前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を生成させる音声出力制御手段とを備え、前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴としている。
The information display control device with a voice output function according to
請求項2に記載の音声出力機能付き情報表示制御装置は、前記請求項1に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段により検知される所定の情報は品詞の情報であり、前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された品詞の情報を用いて音声を出力させる品詞対応音声出力制御手段を有することを特徴としている。
The information display control device with a voice output function according to
請求項3に記載の音声出力機能付き情報表示制御装置は、前記請求項1に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段により検知される所定の情報は発音記号であり、前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された発音記号を用いて音声を出力させる発音記号対応音声出力制御手段を有することを特徴としている。
The information display control device with a voice output function according to
請求項4に記載の音声出力機能付き情報表示制御装置は、前記請求項3に記載の音声出力機能付き情報表示制御装置において、前記発音記号対応音声出力制御手段は、前記所定情報検知手段により検知された発音記号に対応する音声出力コマンドを取得して前記音声出力手段により音声を生成させることを特徴としている。
The information display control device with a voice output function according to
請求項5に記載の音声出力機能付き情報表示制御装置は、前記請求項1ないし請求項4の何れか1項に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段は、前記指定部分である単語が当該単語に対応するところの説明情報中の先頭の見出語である場合にはその後方にある説明情報中の所定の情報を検知し、先頭の見出語以外の単語である場合にはその前方にある説明情報中の所定の情報を検知することを特徴としている。
The information display control device with a voice output function according to
本発明の請求項1(請求項6)に記載の音声出力機能付き情報表示制御装置(制御プログラム)によれば、音声出力対象となる指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として所定情報検知手段により検知された所定の情報を用いて音声を出力させるので、例えば辞書の説明情報中にある例文を音声出力対象として指定した場合でも、当該例文中で“〜”マークなどの所定マークによって記述される見出語対応部分をその品詞または発音記号に従った正確な発音にして音声出力できるようになる。 According to the audio output function information display control device according to claim 1 (claim 6) of the present invention (control program), if the specified portion to be output as speech is text, a predetermined mark portion of the text Is output using the predetermined information detected by the predetermined information detection means as a headword part. For example, even when an example sentence in the description information of the dictionary is designated as a voice output target, The headword corresponding part described by a predetermined mark such as the “˜” mark can be output as a sound with an accurate pronunciation according to its part of speech or phonetic symbol.
本発明の請求項2に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1に記載の音声出力機能付き情報表示制御装置において、音声出力制御手段では、音声出力手段により音声を出力させる際に、指定部分のうちの見出語部分の音声を、所定情報検知手段により検知された品詞の情報を用いて音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の品詞の記述を検知して正確に音声出力できるようになる。
According to the information display control device with a voice output function according to
本発明の請求項3に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1に記載の音声出力機能付き情報表示制御装置において、音声出力制御手段では、音声出力手段により音声を出力させる際に、指定部分のうちの見出語部分の音声を、所定情報検知手段により検知された発音記号を用いて音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の発音記号を用いて正確に音声出力できるようになる。
According to the information display control device with a voice output function according to
本発明の請求項4に記載の音声出力機能付き情報表示制御装置によれば、前記請求項3に記載の音声出力機能付き情報表示制御装置において、発音記号に対応した音声出力制御手段では、所定情報検知手段により検知された発音記号に対応する音声出力コマンドを取得して音声出力手段により音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の発音記号に応じた音声出力コマンドを音声出力エンジンに与えることで正確に音声出力できるようになる。
According to the information display control device with a sound output function according to
本発明の請求項5に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1ないし請求項4の何れか1項に記載の音声出力機能付き情報表示制御装置において、所定情報検知手段では、音声出力対象となる指定部分の単語が当該単語に対応するところの説明情報中の先頭の見出語である場合にはその後方にある説明情報中の所定の情報を検知し、先頭の見出語以外の単語である場合にはその前方にある説明情報中の所定の情報を検知するので、指定部分である単語や文のうちの見出語部分の品詞または発音記号を確実に検知して、同一綴りの見出語で品詞によって異なる発音も正確に音声出力できるようになる。
According to an information display control device with a voice output function according to
よって、本発明によれば、任意の単語を指定してその読み上げ音声を出力する際に、品詞の違いで発音の異なる単語も正確に音声出力することが可能になる音声出力機能付き情報表示制御装置およびその制御プログラムを提供できる。 Therefore, according to the present invention, when an arbitrary word is specified and its reading voice is output, the information display control with a voice output function that can accurately output a word having a different pronunciation due to a difference in part of speech. A device and its control program can be provided.
以下図面により本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の音声出力機能付き情報表示制御装置の実施形態に係る携帯機器(電子辞書)10の電子回路の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an electronic circuit of a portable device (electronic dictionary) 10 according to an embodiment of an information display control device with a voice output function of the present invention.
この携帯機器(電子辞書)10は、以下に説明する電子辞書機能を備えたPDA(personal digital assistants)、PC(personal computer)、携帯電話、電子ブックとして構成されるか、電子辞書専用の携帯機器として構成される。この携帯機器(電子辞書)10は、各種の記憶媒体に記録されたプログラム、または伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。 The portable device (electronic dictionary) 10 is configured as a PDA (personal digital assistants), a PC (personal computer), a mobile phone, an electronic book having an electronic dictionary function described below, or a portable device dedicated to the electronic dictionary. Configured as The portable device (electronic dictionary) 10 is configured by a computer that reads a program recorded in various storage media or a transmitted program and whose operation is controlled by the read program. A CPU (central processing unit) 11 is provided.
CPU11は、プログラムROM12a内に予め記憶された装置制御プログラム、あるいはメモリカード13などの外部記憶媒体からプログラムROM12aに読み込まれた装置制御プログラム、あるいは図示しないインターネットN上のWebサーバ(この場合はプログラムサーバ)から通信機器を経由してプログラムROM12aに読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記プログラムROM12aに記憶された装置制御プログラムは、キーボード14やタッチパネル15である入力部16からのユーザ操作に応じた入力信号、あるいは外部接続されるEEPROM,RAM,ROMなどのメモリカード(記憶媒体)13との接続通信信号に応じて起動される。
The
前記CPU11には、前記プログラムROM12aの他、データベースROM12b、RAM12cが接続され、また前記メモリカード13、キーボード14、タッチパネル15が接続される他に、LCDからなる表示部17、音声出力用のアンプ18aを介したスピーカ18などが接続される。
In addition to the
CPU11の内部には、合成音声出力処理プログラム12a2の起動によって機能し、辞書検索されたユーザ任意の単語や例文などのテキストの読み上げ音声を合成するための音声合成エンジン21が備えられ、これにより生成された音声信号が前記アンプ18aを介して増幅されスピーカ18から発音出力される。
The
そして、この携帯機器(電子辞書)10の電子回路は、電池電源Bによる電源回路19からの電圧供給によって駆動される。
The electronic circuit of the portable device (electronic dictionary) 10 is driven by voltage supply from the
図2は、前記携帯機器(電子辞書)10のプログラムROM12a、データベースROM12b、RAM12cに記憶されるデータの内容を示す図である。
FIG. 2 is a diagram showing the contents of data stored in the
プログラムROM12aに記憶される装置制御プログラムとしては、当該携帯機器(電子辞書)10の全体の動作を司るシステムプログラムが記憶される他に、辞書データ(12b1)に基づいて入力文字に応じた見出語の検索表示およびその説明情報の検索表示を行うための辞書検索処理プログラム12a1、表示上で指定されたテキストデータを合成音声による読み上げ音声として出力させるための合成音声出力処理プログラム12a2、出力対象であるテキストデータの文字列組合せや品詞・発音記号に従って各音素の音声データ(12b2)を合成してその読み上げ音声を生成し出力させるための音声合成処理プログラム12a3などが記憶される。
As a device control program stored in the
データベースROM12bには、英和辞書、英英辞書、和英辞書、国語辞書、漢和辞書などの各種の辞書データ12b1、音声合成処理にて使用される各音素に対応させた音声データ12b2、各辞書毎に異なる品詞記号と当該品詞に応じた音声合成処理を前記音声合成エンジン21にて行わせるための追加コマンドコードとを予め対応付けた辞書名・品詞・コマンドテーブル12b3(図3参照)、各辞書毎に異なる発音記号を前記音声合成エンジン21に対する発音記号コマンドに変換するための発音記号変換テーブル12b4(図4参照)などが記憶される。
In the
なお、データベースROM12bに記憶された辞書データ12b1と同様に、メモリカード13に記憶された他の辞書データを外部から入力して利用可能である。
Similar to the dictionary data 12b1 stored in the
RAM12cには、入力部16(14,15)から入力された文字データを記憶するための入力文字メモリ12c1、辞書検索処理(12a1)に従い検索された見出語やその説明情報を記憶するための検索見出語メモリ12c2、検索表示された見出語及びその説明情報の中でユーザ入力に応じて指定された単語や例文などの位置データを記憶するための見出語情報指定位置メモリ12c3、この見出語情報指定位置メモリ12c3にて指定された辞書データ(12b1)上の位置に対応する単語や例文の文字列を抽出して記憶するための出力指定文字列メモリ12c4、この出力指定文字列メモリ12c4に記憶された単語や例文の文字列について辞書データ(12b1)上に存在する品詞記号に基づき前記辞書名・品詞・コマンドテーブル12b3を参照して生成した音声合成用の追加コマンドを記憶するための品詞対応追加コマンドメモリ12c5、辞書データ(12b1)上に存在する発音記号に基づき前記発音記号変換テーブル12b4を参照して生成した音声合成用の変換コマンドを記憶するための発音記号対応変換コマンドメモリ12c6が備えられる。
In the
図3は、前記携帯機器(電子辞書)10のデータベースROM12bに記憶される辞書名・品詞・コマンドテーブル12b3のテーブルデータを示す図である。
FIG. 3 is a diagram showing table data of the dictionary name / part of speech / command table 12b3 stored in the
この辞書名・品詞・コマンドテーブル12b3は、前述したとおり各辞書毎に異なる品詞記号と当該品詞に応じた音声合成処理を前記音声合成エンジン21にて行わせるための追加コマンドコードとを予め対応付けたもので、前記出力指定文字列メモリ12c4に記憶された指定の単語について当該単語が例えば“動詞”であることを示す品詞記号「動」Mが辞書の説明情報中に存在する場合には、指定単語の文字列の前に“動詞”の追加コマンド[<pron>verb]を追加することで、音声合成エンジン21は指定の単語を動詞による発音音声として音声合成処理する。また、指定の単語が例えば“名詞”であることを示す品詞記号「名」Nが辞書の説明情報中に存在する場合には、指定単語の文字列の前に“名詞”の追加コマンド[<pron>noun]を追加することで、音声合成エンジン21は指定の単語を名詞による発音音声として音声合成処理する。
In the dictionary name / part of speech / command table 12b3, as described above, a part of speech symbol different for each dictionary and an additional command code for causing the
図4は、前記携帯機器(電子辞書)10のデータベースROM12bに記憶される発音記号変換テーブル12b4のテーブルデータを示す図である。
FIG. 4 shows table data of the phonetic symbol conversion table 12b4 stored in the
この発音記号変換テーブル12b4は、前述したとおり各辞書毎に異なる発音記号を前記音声合成エンジン21に対する発音記号コマンドに変換するためのテーブルデータであり、前記出力指定文字列メモリ12c4に記憶された指定の単語について当該単語の発音記号が辞書の説明情報中に存在する場合には、この辞書中の発音記号を本テーブル12b4によって発音記号コマンドに変換すると共に、この変換後の発音記号コマンドを予め設定された発音記号使用コマンド[<phoneme>ON]に加えることで、音声合成エンジン21は指定の単語をその辞書の説明情報中に記述された発音記号通りの発音音声として音声合成処理する。
The phonetic symbol conversion table 12b4 is table data for converting different phonetic symbols for each dictionary into phonetic symbol commands for the
次に、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能について説明する。 Next, a dictionary search function and a voice output function by the portable device (electronic dictionary) 10 having the above-described configuration will be described.
図5は、前記携帯機器(電子辞書)10による音声出力付き辞書検索処理の全体処理を示すフローチャートである。 FIG. 5 is a flowchart showing the overall processing of dictionary search processing with voice output by the portable device (electronic dictionary) 10.
図6は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴うキー操作対応の表示動作を示す図である。 FIG. 6 is a diagram showing a display operation corresponding to a key operation accompanying the dictionary search process with voice output of the portable device (electronic dictionary) 10.
入力部16において、例えば図6(A)に示すように、今回の辞書検索に使用する種類の「辞書」キー(例えば「英和」キー14a)が操作入力されると、当該「辞書」キーに対応する種類の「英和辞書」に対応した検索文字入力画面G1が表示部17に表示される(ステップS1)。
In the
この検索文字入力画面G1において、入力部16における文字入力キーの操作に応じて検索すべき文字列が入力され、入力文字メモリ12c1に記憶されて表示されると(ステップS1)、この入力文字列に一致した先頭文字列を有する見出語が「英和辞書」の辞書データ12b1から検索され見出語一覧画面(図示せず)として表示部17に表示される(ステップS2)。
In this search character input screen G1, when a character string to be searched is input according to the operation of the character input key in the
そして、この見出語一覧画面(図示せず)の表示状態にあって、上下カーソルキーの操作に応じて反転カーソルKを各見出語間で移動表示させ、ユーザ所望の見出語が選択指定された状態で「訳/決定」キー14bが操作されると(ステップS3)、当該選択指定されている見出語に対応した説明情報が「英和辞書」の辞書データ12b1から読み出され、図6(A)に示すように、語義分類(品詞・語義番号)毎に分けられた説明情報表示画面G2として表示部17に表示される(ステップS4)。
Then, in the display state of this headword list screen (not shown), the reverse cursor K is moved and displayed between the headwords according to the operation of the up and down cursor keys, and the headword desired by the user is selected. When the “translation / decision” key 14b is operated in the designated state (step S3), the explanation information corresponding to the selected entry word is read from the dictionary data 12b1 of the “English-Japanese dictionary”, As shown in FIG. 6A, it is displayed on the
このユーザにより選択された見出語(単語)の説明情報表示画面G2において、当該選択された単語の発音を学習すべく、図6(B)に示すように、「音声」キー14cが操作されると共に(ステップS5)、当該説明情報中における何れかの単語またはイディオム(成句・熟語・慣用句など)がカーソルキー14dの操作に応じた反転カーソルKの移動表示によって指定され(この場合、検索単語「record」の語義6における名詞の「record」)、「訳/決定」キー14bが操作されると(ステップS6)、後述の図7〜図11において説明する単語音声出力処理に移行され(ステップS7→SA)、当該ユーザ指定の単語(名詞の「record」)に対応した音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。
In the explanation information display screen G2 for the headword (word) selected by the user, as shown in FIG. 6B, the “voice” key 14c is operated to learn the pronunciation of the selected word. At the same time (step S5), any word or idiom in the explanation information (sung phrase, idiom, idiomatic phrase, etc.) is designated by the moving display of the reverse cursor K in response to the operation of the cursor key 14d (in this case, search When the “translation / decision” key 14b is operated (step S6), the process shifts to word voice output processing described later in FIGS. 7 to 11 (step S6). In step S7 → SA), a speech synthesis command corresponding to the user-specified word (noun “record”) is generated and subjected to speech output processing by the
また、前記ユーザ選択された見出語(単語)の説明情報表示画面G2において、「音声」キー14cが操作されると共に(ステップS5)、当該説明情報中における何れかのイディオム(成句・熟語・慣用句など)が指定され、「訳/決定」キー14bが操作されると(ステップS6)、後述の図12〜図16において説明する例文音声出力処理に移行され(ステップS7→SB)、当該ユーザ指定のイディオムに対応した音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。
In addition, in the explanation information display screen G2 of the entry word (word) selected by the user, the “voice” key 14c is operated (step S5), and any idiom (spoken phrase, idiom, When the “translation / decision” key 14b is operated (step S6), the process proceeds to example sentence voice output processing described in FIGS. 12 to 16 (step S7 → SB). A voice synthesis command corresponding to the user-specified idiom is generated and voice output processing is performed by the
一方、前記ユーザ選択された見出語(単語)の説明情報表示画面G2において、この選択された単語を使用した例文を学習すべく、図6(C)に示すように、「例文」キー14eが操作されると(ステップS8)、カーソルキー14dの操作に応じて選択された所望の語義分類の例文が一覧表示される(ステップS9)。 On the other hand, in the explanation information display screen G2 of the entry word (word) selected by the user, as shown in FIG. 6C, an “example sentence” key 14e is used to learn an example sentence using the selected word. Is operated (step S8), a list of example sentences of the desired meaning classification selected in accordance with the operation of the cursor key 14d is displayed (step S9).
そして、この所望の語義分類の例文一覧表示状態において、任意の例文の発音を学習すべく「音声」キー14cが操作されると共に(ステップS10)、何れかの例文(この場合、語義2における例文「I 〜ed the show on tape.」)がカーソルキー14dの操作に応じて反転カーソルKにより指定表示されると(ステップS11)、後述の図12〜図16において説明する例文音声出力処理に移行され(ステップSB)、当該ユーザ指定の動詞の「record」を使用した例文「I 〜ed the show on tape.」に対応する音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。
Then, in the example sentence list display state of the desired meaning classification, the “speech” key 14c is operated to learn the pronunciation of any example sentence (step S10), and any example sentence (in this case, the example sentence in the meaning 2) When "I-ed the show on tape.") Is designated and displayed by the reverse cursor K in response to the operation of the cursor key 14d (step S11), the processing proceeds to example sentence voice output processing described in FIGS. Then, a speech synthesis command corresponding to the example sentence “I to ed the show on tape.” Using the user-specified verb “record” is generated, and the
図7は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う単語音声出力処理(ステップSA)を示すフローチャートである。 FIG. 7 is a flowchart showing word speech output processing (step SA) accompanying the dictionary search processing with speech output of the portable device (electronic dictionary) 10.
図8は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の品詞情報から音声合成コマンドを生成するための単語:品詞対応処理(ステップAC)を示すフローチャートである。 FIG. 8 is a flowchart showing a word: part-of-speech correspondence process (step AC) for generating a speech synthesis command from the part-of-speech information of the designated word in accordance with the word speech output process (step SA) of the portable device (electronic dictionary) 10. is there.
図9は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:品詞対応処理(ステップAC)が起動される場合の指定単語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図である。 FIG. 9 is an explanatory information display screen on which a part-of-speech symbol of a designated word exists when a word: part-of-speech correspondence process (step AC) is started in association with the word voice output process (step SA) of the portable device (electronic dictionary) 10. It is a figure explaining the example of concrete production | generation of G2 and the word speech synthesis command based on this.
例えば図9に示すように、英単語の「lead」が検索されると共に、図9(A)に示すように、その説明情報表示画面G2における動詞の「lead1」が音声出力対象の単語として指定されることで、図7における単語音声出力処理が起動されると(ステップS1〜S7→SA)、まず、当該指定の単語「lead1」が本説明情報表示画面G2の見出語であるか否か判断される(ステップA1)。 For example, as shown in FIG. 9, the English word “lead” is searched, and as shown in FIG. 9A, the verb “lead 1 ” in the explanation information display screen G2 is used as the voice output target word. When the word voice output process in FIG. 7 is started by being designated (steps S1 to S7 → SA), first, the designated word “lead 1 ” is the headword on the explanation information display screen G2. (Step A1).
ここで、音声出力対象である指定の単語が本説明情報表示画面G2の見出語であると判断された場合には、当該指定の単語の位置から後方にある説明情報がサーチされ(ステップA1→A2)、また同指定の単語が本説明情報表示画面G2の見出語でないと判断された場合には、当該指定の単語の位置から前方にある説明情報がサーチされ(ステップA1→A3)、指定単語の品詞情報が存在するか否か判断される(ステップA4)。 Here, when it is determined that the designated word that is the voice output target is the headword on the explanation information display screen G2, the explanation information that is behind the position of the designated word is searched (step A1). → A2) If it is determined that the designated word is not a headword on the explanation information display screen G2, explanation information ahead from the position of the designated word is searched (step A1 → A3). Then, it is determined whether or not the part of speech information of the designated word exists (step A4).
この場合、図9(A)に示すように、指定の単語「lead1」は本説明情報表示画面G2の見出語であると判断されるので(ステップA1(Yes))、当該指定の単語の位置から後方にある説明情報がサーチされ(ステップA2)、辞書名・品詞・コマンドテーブル12b3(図3参照)に記憶されている動詞の品詞記号である「動」Mが存在していると判断される(ステップA4(Yes))。そして、図8における単語:品詞対応処理(ステップAC)に移行される。 In this case, as shown in FIG. 9A, since the designated word “lead 1 ” is determined to be a headword on the explanation information display screen G2 (step A1 (Yes)), the designated word The explanation information behind the position is searched (step A2), and the verb part-of-speech symbol “movement” M stored in the dictionary name / part of speech / command table 12b3 (see FIG. 3) exists. Judgment is made (step A4 (Yes)). Then, the process proceeds to the word: part of speech correspondence process (step AC) in FIG.
この単語:品詞対応処理が起動されると、前記指定の単語「lead1」の説明情報(G2)中から得られた動詞の品詞記号である「動」Mに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>verb]が決定され(ステップC1)、音声出力対象である指定の単語テキスト「lead1」の前に追加されて単語音声合成コマンド「[<pron>verb]lead1」が生成される(ステップC2)。 When this word: part of speech correspondence processing is started, the dictionary name / part of speech / command table is used in accordance with the verb “part of speech” M obtained from the explanation information (G2) of the designated word “lead 1 ”. An additional command code [<pron> verb] for speech synthesis is determined from 12b3 (see FIG. 3) (step C1), and is added before the designated word text “lead 1 ”, which is a speech output target, so that the word speech synthesis is performed. The command “[<pron> verb] lead 1 ” is generated (step C2).
すると、この品詞記号「動」Mに従い生成された指定の単語である動詞の「lead1」の単語音声合成コマンド「[<pron>verb]lead1」が音声合成エンジン21に送出されることで(ステップC3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」の単語音声信号が生成されスピーカ18から出力される(ステップAC→A7,A8)。
Then, the word speech synthesis command “[<pron> verb] lead 1 ” of the verb “lead 1 ”, which is the designated word generated according to the part of speech symbol “movement” M, is sent to the
一方、図9(B)に示すように、前記「lead」の説明情報表示画面G2における名詞の「lead2」が音声出力対象の単語として指定された場合には、辞書名・品詞・コマンドテーブル12b3(図3参照)に記憶されている名詞の品詞記号である「名」Nが存在していると判断され(ステップA4(Yes))、図8における単語:品詞対応処理(ステップAC)に移行される。 On the other hand, as shown in FIG. 9B, when the “lead 2 ” noun in the explanation information display screen G2 for “lead” is designated as a word to be output, the dictionary name / part of speech / command table It is determined that “name” N which is a part of speech symbol stored in 12b3 (see FIG. 3) is present (step A4 (Yes)), and the word: part of speech correspondence processing (step AC) in FIG. To be migrated.
すると、前記指定の単語「lead2」の説明情報(G2)中から得られた名詞の品詞記号である「名」Nに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>noun]が決定され(ステップC1)、音声出力対象である指定の単語テキスト「lead2」の前に追加されて単語音声合成コマンド「[<pron>noun]lead2」が生成される(ステップC2)。 Then, according to “name” N which is the part of speech symbol of the noun obtained from the explanation information (G2) of the designated word “lead 2 ”, the dictionary name / part of speech / command table 12b3 (see FIG. 3) is used for speech synthesis. The additional command code [<pron> noun] is determined (step C1), and is added before the designated word text “lead 2 ” which is the speech output target to be added to the word speech synthesis command “[<pron> noun] lead 2”. Is generated (step C2).
すると、この品詞記号「名」Nに従い生成された指定の単語である名詞の「lead2」の単語音声合成コマンド「[<pron>noun]lead2」が音声合成エンジン21に送出されることで(ステップC3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」の単語音声信号が生成されスピーカ18から出力される(ステップAC→A7,A8)。
Then, the word speech synthesis command “[<pron> noun] lead 2 ” of the noun “lead 2 ” which is the designated word generated according to the part of speech symbol “name” N is sent to the
なお、例えば前記指定の単語「lead1」の場合、名詞であって「リード」と発音する場合もあるが、この場合は指定の単語テキスト「lead1」の前に名詞の品詞記号「名」Nに従い決定された追加コマンドコード[<pron>noun]が追加され、単語音声合成コマンド「[<pron>noun]lead1」が生成されるので、合成音声エンジン21では、与えられた単語音声合成コマンドの記述が名詞の追加コマンドコード[<pron>noun]を有していても単語テキスト「lead1」の末尾に付加された番号「1」を検知することで名詞の「lead1」に対応した発音「リード」の音声信号を生成して出力する。
For example, in the case of the designated word “lead 1 ”, the noun may be pronounced as “lead”. In this case, the part of speech symbol “name” of the noun is preceded by the designated word text “lead 1 ”. Since the additional command code [<pron> noun] determined according to N is added and the word speech synthesis command “[<pron> noun] lead 1 ” is generated, the synthesized
図10は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の発音記号から音声合成コマンドを生成するための単語:発音記号対応処理(ステップAD)を示すフローチャートである。 FIG. 10 is a flowchart showing a word: phonetic symbol correspondence process (step AD) for generating a speech synthesis command from a phonetic symbol of a designated word in accordance with the word voice output process (step SA) of the portable device (electronic dictionary) 10. It is.
図11は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:発音記号対応処理(ステップAD)が起動される場合の指定単語の発音記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図である。 FIG. 11 is an explanatory information display in which a phonetic symbol of a designated word exists when a word: phonetic symbol correspondence processing (step AD) is started in accordance with the word voice output processing (step SA) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the screen G2 and the word speech synthesis command based on this.
例えば11(A)に示すように、指定の単語「lead1」の説明情報(G2)中をサーチしてもその品詞情報が存在しない場合であって(ステップA1〜A4(No))、発音記号「li:d」が存在していると判断されると(ステップA5(Yes))、図10における単語:発音記号対応処理(ステップAD)に移行される。 For example, as shown in FIG. 11 (A), even when searching the explanation information (G2) of the designated word “lead 1 ”, the part of speech information does not exist (steps A1 to A4 (No)), If it is determined that the symbol “li: d” exists (step A5 (Yes)), the process proceeds to the word: phonetic symbol correspondence process (step AD) in FIG.
この単語:発音記号対応処理が起動されると、前記指定の単語「lead1」の説明情報(G2)中から得られた発音記号「li:d」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[liyd]が決定され(ステップD1)、音声出力対象である指定の単語テキスト「lead1」が前記発音記号コマンド[liyd]の前に所定の発音記号使用コマンド[<phoneme>ON]を付加した単語音声発音記号コマンド[<phoneme>ON][liyd]に変換生成される(ステップD2)。
When this word: phonetic symbol correspondence process is activated, the phonetic symbol conversion table 12b4 (corresponding to the phonetic symbol “li: d” obtained from the explanation information (G2) of the designated word “lead 1 ”. The phonetic symbol command [liyd] for the
すると、この説明情報中の発音記号「li:d」に従い生成された指定の単語である動詞の「lead1」の単語音声発音記号コマンド[<phoneme>ON][liyd]が音声合成エンジン21に送出されることで(ステップD3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」の単語音声信号が生成されスピーカ18から出力される(ステップAD→A7,A8)。
Then, the word phonetic phonetic command [<phoneme> ON] [liyd] of the verb “lead 1 ”, which is the designated word generated according to the phonetic symbol “li: d” in the explanation information, is sent to the
一方、例えば図11(B)に示すように、指定の単語「lead2」の説明情報(G2)中をサーチしてもその品詞情報が存在しない場合であって(ステップA1〜A4(No))、発音記号「led」が存在していると判断され(ステップA5(Yes))、図10における単語:発音記号対応処理(ステップAD)に移行されると、当該指定単語「lead2」の説明情報(G2)中から得られた発音記号「led」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[lehd]が決定される(ステップD1)。
On the other hand, for example, as shown in FIG. 11B, the part of speech information does not exist even if the description information (G2) of the designated word “lead 2 ” is searched (steps A1 to A4 (No)). ), It is determined that the phonetic symbol “led” exists (step A5 (Yes)), and when the processing proceeds to the word: phonetic symbol correspondence processing (step AD) in FIG. 10, the designated word “lead 2 ” Corresponding to the phonetic symbol “led” obtained from the explanation information (G2), the phonetic symbol command [lehd] for the
すると、音声出力対象である指定の単語テキスト「lead2」が前記発音記号コマンド[lehd]の前に所定の発音記号使用コマンド[<phoneme>ON]を付加した単語音声発音記号コマンド[<phoneme>ON][lehd]に変換生成される(ステップD2)。 Then, the specified word text “lead 2 ”, which is a voice output target, has a word phonetic symbol command [<phoneme> with a predetermined phonetic symbol use command [<phoneme> ON] added before the phonetic symbol command [lehd]. ON] [lehd] is generated (step D2).
すると、この説明情報中の発音記号「led」に従い生成された指定の単語である名詞の「lead2」の単語音声発音記号コマンド[<phoneme>ON][lehd]が音声合成エンジン21に送出されることで(ステップD3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」の単語音声信号が生成されスピーカ18から出力される(ステップAD→A7,A8)。
Then, the phonetic symbol command [<phoneme> ON] [lehd] of the noun “lead 2 ”, which is the designated word generated according to the phonetic symbol “led” in the explanation information, is sent to the
これにより、音声出力対象の指定単語が、動詞である場合と名詞である場合とで異なる発音であったとしても、当該指定単語の説明情報中に存在する品詞記号または発音記号に従って音声合成エンジン21に対するそれぞれ対応した単語音声出力コマンドを生成できるので、品詞の違いによって異なる発音音声も正確に音声出力してユーザに誤り無く学習させることができる。
As a result, even if the designated word to be output is a verb and a noun, the
一方、前記音声出力対象の指定単語の説明情報中に、当該単語の品詞情報と発音記号との何れもが存在しないと判断された場合には(ステップA1〜A5(No))、当該指定の単語テキストがそのまま音声合成エンジン21へ送出され、当該単語テキストの個々の文字に対応した合成音声が生成されて1単語の発音音声としてスピーカ18から出力される(ステップA6〜A8)。
On the other hand, when it is determined that neither the part-of-speech information of the word nor the phonetic symbol is present in the explanation information of the designated word to be output (steps A1 to A5 (No)), The word text is sent to the
図12は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う例文音声出力処理(ステップSB)を示すフローチャートである。 FIG. 12 is a flowchart showing an example sentence voice output process (step SB) accompanying the dictionary search process with voice output of the portable device (electronic dictionary) 10.
図13は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の語義分類の品詞情報から音声合成コマンドを生成するための例文:品詞対応処理(ステップBE)を示すフローチャートである。 FIG. 13 shows an example sentence: part-of-speech correspondence process (step BE) for generating a speech synthesis command from the part-of-speech information of the meaning classification of the specified example sentence accompanying the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a flowchart to show.
図14は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:品詞対応処理(ステップBE)が起動される場合の指定例文中見出語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図である。 FIG. 14 shows a part-of-speech symbol of a headword in a specified example sentence when an example sentence: part-of-speech correspondence process (step BE) is started in accordance with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the description information display screen G2 and the example sentence speech synthesis command based on this.
例えば図14に示すように、英単語の「lead」が検索されると共に、図14(A2)に示すように、その説明情報表示画面G2における動詞の「lead1」の例文「lead a horse by the bridle」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動されると(ステップS1〜S4,S8〜S11→SB)、まず、当該指定の例文「lead a horse by the bridle」の説明情報における語義分類から品詞記号が検知され(ステップB1)、検索中である見出語の品詞記号の有無が判断される(ステップB2)。 For example, as shown in FIG. 14, the English word “lead” is searched, and as shown in FIG. 14 (A2), the example sentence “lead a horse by” of the verb “lead 1 ” in the explanation information display screen G2 is searched. When the example sentence speech output process in FIG. 12 is started by designating “the bridle” as a speech output target example sentence (steps S1 to S4, S8 to S11 → SB), first, the designated example sentence “lead a A part-of-speech symbol is detected from the meaning classification in the explanation information of “horse by the bridle” (step B1), and the presence / absence of the part-of-speech symbol of the headword being searched is determined (step B2).
ここで、図14(A)に示すように、指定の例文「lead a horse by the bridle」のある説明情報における語義分類から品詞記号「動」Mが検知されたと判断されると(ステップB2(Yes))、図13における例文:品詞対応処理(ステップBE)に移行される。 Here, as shown in FIG. 14A, when it is determined that the part-of-speech symbol “movement” M is detected from the meaning classification in the explanation information having the designated example sentence “lead a horse by the bridle” (step B2 ( Yes)), the process proceeds to the example sentence in FIG. 13: part-of-speech correspondence process (step BE).
この例文:品詞対応処理が起動されると、前記指定の例文「lead a horse by the bridle」のある説明情報(G2)中から得られた動詞の品詞記号である「動」Mに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>verb]が決定され(ステップE1)、音声出力対象である指定の例文テキスト「lead a horse by the bridle」の強調文字や斜体文字などで記述された見出語「lead」(または“〜”マーク)の前に追加されて例文音声合成コマンド「[<pron>verb]lead1 a horse by the bridle」が生成される(ステップE2)。 This example: When the part-of-speech correspondence processing is activated, the dictionary name is determined according to the verb part-of-speech symbol “movement” M obtained from the description information (G2) of the specified example sentence “lead a horse by the bridle”. -An additional command code [<pron> verb] for speech synthesis is determined from the part-of-speech / command table 12b3 (see FIG. 3) (step E1), and the designated example sentence text "lead a horse by the bridle" that is the target of speech output An example sentence speech synthesis command "[<pron> verb] lead 1 a horse by the bridle" is added before the headword "lead" (or "~" mark) written in emphasis or italic letters Is generated (step E2).
すると、この品詞記号「動」Mに従い生成された動詞の見出語「lead1」を含む例文「lead a horse by the bridle」に対応する例文音声合成コマンド「[<pron>verb]lead1 a horse by the bridle」が音声合成エンジン21に送出されることで(ステップE3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBE→B6,B7)。
Then, the example sentence speech synthesis command “[<pron> verb] lead 1 a” corresponding to the example sentence “lead a horse by the bridle” including the verb headword “lead 1 ” generated according to the part of speech symbol “movement” M. By sending “horse by the bridle” to the speech synthesis engine 21 (step E3), the
一方、図14(B2)に示すように、検索見出語「lead」の説明情報表示画面G2における名詞の「lead2」の例文「a lead pipe」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された場合に(ステップS1〜S4,S8〜S11→SB)、図14(B1)に示すように、指定の例文「a lead pipe」のある説明情報における語義分類から品詞記号「名」Nが検知されたと判断されると(ステップB2(Yes))、図13における例文:品詞対応処理(ステップBE)に移行される。 On the other hand, as shown in FIG. 14 (B2), the example sentence “a lead pipe” of the noun “lead 2 ” in the explanation information display screen G2 of the search headword “lead” is designated as an example sentence for voice output. Then, when the example sentence voice output process in FIG. 12 is activated (steps S1 to S4, S8 to S11 → SB), as shown in FIG. 14 (B1), there is explanatory information with the specified example sentence “a lead pipe”. If it is determined that the part-of-speech symbol “name” N is detected from the meaning classification in FIG. 13 (step B2 (Yes)), the process proceeds to the example sentence: part-of-speech correspondence process (step BE) in FIG.
この例文:品詞対応処理が起動されると、前記指定の例文「a lead pipe」のある説明情報(G2)中から得られた名詞の品詞記号である「名」Nに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>noun]が決定され(ステップE1)、音声出力対象である指定の例文テキスト「a lead pipe」の強調文字や斜体文字などで記述された見出語「lead」(または“〜”マーク)の前に追加されて例文音声合成コマンド「a[<pron>noun]lead2 pipe」が生成される(ステップE2)。 This example sentence: When the part-of-speech correspondence processing is activated, the dictionary name, part-of-speech, An additional command code [<pron> noun] for speech synthesis is determined from the command table 12b3 (see FIG. 3) (step E1), and the emphasis and italic characters of the designated example sentence text “a lead pipe” that is the target of speech output The example sentence speech synthesis command “a [<pron> noun] lead 2 pipe” is generated before the head word “lead” (or “˜” mark) described in the above (step E2).
すると、この品詞記号「名」Nに従い生成された名詞の見出語「lead2」を含む例文「a lead pipe」に対応する例文音声合成コマンド「a[<pron>noun]lead2 pipe」が音声合成エンジン21に送出されることで(ステップE3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBE→B6,B7)。
Then, the example sentence speech synthesis command “a [<pron> noun] lead 2 pipe” corresponding to the example sentence “a lead pipe” including the headword “lead 2 ” of the noun generated according to the part of speech symbol “name” N is By being sent to the speech synthesis engine 21 (step E3), the
図15は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の見出語発音記号から音声合成コマンドを生成するための例文:発音記号対応処理(ステップBF)を示すフローチャートである。 FIG. 15 shows an example sentence: phonetic symbol correspondence process (step BF) for generating a speech synthesis command from a headword pronunciation symbol of a specified example sentence accompanying the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a flowchart which shows.
図16は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:発音記号対応処理(ステップBF)が起動される場合の指定例文中見出語の発音記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図である。 FIG. 16 shows the pronunciation symbol of the headword in the specified example sentence when the example sentence: phonetic symbol correspondence process (step BF) is started in accordance with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the explanatory information display screen G2 to be performed, and the example sentence speech synthesis command based on this.
例えば図16(A2)に示すように、検索見出語「lead」の説明情報表示画面G2における動詞の「lead1」の例文「lead a horse by the bridle」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された際に(ステップS1〜S4,S8〜S11→SB)、当該指定の例文「lead a horse by the bridle」の説明情報における語義分類から品詞記号が検知されず(ステップB1,B2(No))、図16(A1)に示すように、同説明情報の前方サーチによって発音記号「li:d」が存在していると判断されると(ステップB3,B4(Yes))、図15における例文:発音記号対応処理(ステップBF)に移行される。 For example, as shown in FIG. 16 (A2), the example sentence “lead a horse by the bridle” of the verb “lead 1 ” in the explanation information display screen G2 of the search head word “lead” is designated as an example sentence for voice output. Thus, when the example sentence voice output process in FIG. 12 is started (steps S1 to S4, S8 to S11 → SB), the part of speech is determined from the meaning classification in the explanation information of the designated example sentence “lead a horse by the bridle”. When no symbol is detected (steps B1 and B2 (No)), as shown in FIG. 16A1, it is determined that the phonetic symbol “li: d” exists by a forward search of the explanation information ( Steps B3 and B4 (Yes)), the process proceeds to the example sentence: phonetic symbol correspondence process (Step BF) in FIG.
この例文:発音記号対応処理が起動されると、前記指定の例文「lead a horse by the bridle」のある説明情報(G2)中から得られた発音記号「li:d」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[liyd]が決定される(ステップF1)。そして、音声出力対象である指定の例文テキスト「lead a horse by the bridle」が、その見出語「lead」の部分を所定の発音記号使用コマンド[<phoneme>ON]+前記発音記号コマンド[liyd]に変換してなる例文音声発音記号コマンド「[<phoneme>ON][liyd]a horse by the bridle」として生成される(ステップF2)。
This example: When the phonetic symbol handling process is activated, the phonetic pronunciation corresponding to the phonetic symbol “li: d” obtained from the explanation information (G2) of the specified example sentence “lead a horse by the bridle” The phonetic symbol command [liyd] for the
すると、この説明情報中の発音記号「li:d」に従い生成された動詞の見出語「lead1」を含む例文「lead a horse by the bridle」に対応する例文音声合成コマンド「[<phoneme>ON][liyd]a horse by the bridle」が音声合成エンジン21に送出されることで(ステップF3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBF→B6,B7)。
Then, the example speech synthesis command “[<phoneme>” corresponding to the example sentence “lead a horse by the bridle” including the verb headword “lead 1 ” generated according to the phonetic symbol “li: d” in the explanation information "ON] [liyd] a horse by the bridle" is sent to the speech synthesis engine 21 (step F3), and the
一方、図16(B2)に示すように、検索見出語「lead」の説明情報表示画面G2における名詞の「lead2」の例文「a lead pipe」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された場合に(ステップS1〜S4,S8〜S11→SB)、当該指定の例文「a lead pipe」のある説明情報における語義分類から品詞記号が検知されず(ステップB1,B2(No))、図16(B1)に示すように、同説明情報の前方サーチによって発音記号「led」が存在していると判断されると(ステップB3,B4(Yes))、図15における例文:発音記号対応処理(ステップBF)に移行される。 On the other hand, as shown in FIG. 16 (B2), the example sentence “a lead pipe” of the noun “lead 2 ” in the explanation information display screen G2 of the search headword “lead” is designated as an example sentence for voice output. Then, when the example sentence voice output process in FIG. 12 is activated (steps S1 to S4, S8 to S11 → SB), the part of speech symbol is detected from the meaning classification in the explanatory information with the designated example sentence “a lead pipe”. (Steps B1 and B2 (No)), as shown in FIG. 16 (B1), if it is determined that the phonetic symbol “led” exists by forward search of the explanation information (Steps B3 and B4 (Yes) )), The flow proceeds to the example sentence: phonetic symbol correspondence process (step BF) in FIG.
この例文:発音記号対応処理が起動されると、前記指定の例文「a lead pipe」のある説明情報(G2)中から得られた発音記号「led」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[lehd]が決定される(ステップF1)。そして、音声出力対象である指定の例文テキスト「a lead pipe」が、その見出語「lead」の部分を所定の発音記号使用コマンド[<phoneme>ON]+前記発音記号コマンド[lehd]に変換してなる例文音声発音記号コマンド「a[<phoneme>ON][lehd]pipe」として生成される(ステップF2)。
This example: When the phonetic symbol correspondence process is started, the phonetic symbol conversion table 12b4 (in correspondence with the phonetic symbol “led” obtained from the explanation information (G2) of the specified example sentence “a lead pipe”. The phonetic symbol command [lehd] for the
すると、この説明情報中の発音記号「led」に従い生成された名詞の見出語「lead2」を含む例文「a lead pipe」に対応する例文音声合成コマンド「a[<phoneme>ON][lehd]pipe」が音声合成エンジン21に送出されることで(ステップF3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBF→B6,B7)。
Then, the example sentence speech synthesis command “a [<phoneme> ON] [lehd” corresponding to the example sentence “a lead pipe” containing the noun “lead 2 ” of the noun generated according to the phonetic symbol “led” in the explanation information ] pipe "is sent to the speech synthesis engine 21 (step F3), and the
これにより、音声出力対象の指定例文に含まれる検索見出語が、動詞である場合と名詞である場合とで異なる発音であったとしても、当該指定例文の説明情報中に存在する当該見出語の品詞記号または発音記号に従って音声合成エンジン21に対するそれぞれ対応した例文音声出力コマンドを生成できるので、例文中の見出語の品詞の違いによって異なる発音音声も正確に音声出力してユーザに誤り無く学習させることができる。
As a result, even if the search headword included in the designated example sentence to be output is different in pronunciation from a verb and a noun, the headword that exists in the explanation information of the designated example sentence According to the part-of-speech symbol or the phonetic symbol of the word, the corresponding example sentence voice output command to the
一方、前記音声出力対象の指定例文に対応した見出語説明情報中に、当該見出語の品詞情報と発音記号との何れもが存在しないと判断された場合には(ステップB1〜B4(No))、当該指定の例文テキストがそのまま音声合成エンジン21へ送出され、当該例文テキストの個々の文字に対応した合成音声が生成されて例文発音音声としてスピーカ18から出力される(ステップB5〜B7)。
On the other hand, if it is determined that neither the part-of-speech information of the entry word nor the phonetic symbol is present in the entry word explanation information corresponding to the designated example sentence to be output as a voice (steps B1 to B4 ( No)), the designated example sentence text is sent to the
したがって、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能によれば、辞書データ12b1から検索され表示された所望の見出語(単語)の説明情報表示画面G2において、発音音声の出力対象として任意の単語または例文が指定されると、当該指定の単語または例文中に含まれた見出語の辞書説明情報中に存在する品詞記号である「動」Mや「名」Nが検知され、この品詞記号に応じて予め設定された音声合成コマンド[<pron>verb]や[<pron>noun]を指定の単語や例文中の見出語の直前に追加してなる単語または例文の音声合成コマンドを生成し、これを音声合成エンジン21に与えて音声合成出力処理するので、音声出力対象の指定単語または指定例文中の見出語が、その品詞の違いによって異なる発音であったとしても、これを正確に音声合成出力して指定単語または指定例文の発音音声をユーザに誤り無く学習させることができる。
Therefore, according to the dictionary search function and the voice output function by the mobile device (electronic dictionary) 10 having the above-described configuration, the pronunciation information is displayed on the explanation information display screen G2 of the desired headword (word) searched and displayed from the dictionary data 12b1. When an arbitrary word or example sentence is designated as a speech output target, “motion” M or “name” which are part-of-speech symbols existing in the dictionary explanation information of the headword included in the designated word or example sentence N is detected and a word is created by adding a speech synthesis command [<pron> verb] or [<pron> noun] set in advance according to this part-of-speech symbol immediately before the specified word or headword in the example sentence. Alternatively, a speech synthesis command for an example sentence is generated and given to the
また、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能において、指定の単語または例文中の見出語の辞書説明情報中から品詞記号が検知されない場合には、さらに当該辞書説明情報中の発音記号が検知され、この発音記号を音声合成用の発音記号コマンドに変換すると共に、所定の発音記号使用コマンド[<phoneme>ON]+発音記号コマンドを指定の単語または例文中の見出語と置き換えてなる単語または例文の音声合成コマンドを生成し、これを音声合成エンジン21に与えて音声合成出力処理するので、この場合にも前記品詞記号を検知した場合と同様に、音声出力対象の指定単語または指定例文中の見出語が、その品詞の違いによって異なる発音であったとしても、これを正確に音声合成出力して指定単語または指定例文の発音音声をユーザに誤り無く学習させることができる。
Further, in the dictionary search function and voice output function by the mobile device (electronic dictionary) 10 having the above-described configuration, if no part of speech symbol is detected from the dictionary explanation information of the specified word or the headword in the example sentence, the dictionary further includes A phonetic symbol in the description information is detected, and this phonetic symbol is converted into a phonetic symbol command for speech synthesis, and a predetermined phonetic symbol use command [<phoneme> ON] + phonetic symbol command is added to the specified word or example sentence. A speech synthesis command of a word or example sentence replaced with a headword is generated, and this is given to the
なお、前記各実施形態において記載した携帯機器(電子辞書)10による各処理の手法、すなわち、図5のフローチャートに示す音声出力付き辞書検索処理、図7のフローチャートに示す前記音声出力付き辞書検索処理に伴う単語音声出力処理、図8のフローチャートに示す前記単語音声出力処理に伴う単語:品詞対応処理、図10のフローチャートに示す前記単語音声出力処理に伴う単語:発音記号対応処理、図12のフローチャートに示す前記音声出力付き辞書検索処理に伴う例文音声出力処理、図13のフローチャートに示す前記例文音声出力処理に伴う例文:品詞対応処理、図15のフローチャートに示す前記例文音声出力処理に伴う例文:発音記号対応処理などでの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)13、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体に格納して配布することができる。そして、辞書のデータベース(12b)を有する種々のコンピュータ端末は、この外部記憶媒体に記憶されたプログラムをプログラムROM12aに読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した辞書検索・音声合成出力機能を実現し、前述した手法による同様の処理を実行することができる。
Note that each processing method by the portable device (electronic dictionary) 10 described in each of the embodiments, that is, the dictionary search process with voice output shown in the flowchart of FIG. 5, and the dictionary search process with voice output shown in the flowchart of FIG. , Word speech output processing accompanying the word speech output processing shown in the flowchart of FIG. 8: part of speech correspondence processing, word accompanying the word speech output processing shown in the flowchart of FIG. 10: phonetic symbol correspondence processing, flowchart of FIG. Example sentence voice output process accompanying the dictionary search process with voice output shown in FIG. 13, Example sentence accompanying the example sentence voice output process shown in the flowchart of FIG. 13: Part of speech correspondence process, Example sentence accompanying the example sentence voice output process shown in the flowchart of FIG. Each method in phonetic symbol handling processing etc. is a program that can be executed by a computer. As a memory card (ROM card, RAM card, etc.) 13, magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), and an external storage medium such as a semiconductor memory for distribution. it can. The various computer terminals having the dictionary database (12b) read the program stored in the external storage medium into the
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)から前記のプログラムデータを取り込み、前述した辞書検索・音声合成出力機能を実現することもできる。 Further, program data for realizing each of the above methods can be transmitted on a communication network (Internet) N as a program code form, and a computer terminal (program server) connected to the communication network (Internet) N ) To obtain the above-described dictionary search / speech synthesis output function.
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。 Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.
10 …携帯機器(電子辞書)
11 …CPU
12a…プログラムROM
12a1…辞書検索処理プログラム
12a2…合成音声出力処理プログラム
12a3…音声合成処理プログラム
12b…データベースROM
12b1…辞書データ
12b2…音声データ
12b3…辞書名・品詞・コマンドテーブル
12b4…発音記号変換テーブル
12c…RAM
12c1…入力文字メモリ
12c2…検索見出語メモリ
12c3…見出語情報指定位置メモリ
12c4…出力指定文字列メモリ
12c5…品詞対応追加コマンドメモリ
12c6…発音記号対応変換コマンドメモリ
13 …メモリカード
14 …キーボード(Key)
14a…「英和」キー
14b…「訳/決定」キー
14c…「音声」キー
14d…カーソルキー
14e…「例文」キー
15 …タッチパネル
16 …入力部
17 …表示部(LCD)
18 …スピーカ
18a…アンプ(Amp)
19 …電源回路
21 …音声合成エンジン
B …電池電源
G1…検索文字入力画面
G2…説明情報表示画面
K …反転カーソル
M …動詞の品詞記号
N …名詞の品詞記号
10 ... Mobile device (electronic dictionary)
11 ... CPU
12a ... Program ROM
12a1 ... dictionary search processing program 12a2 ... synthesized speech output processing program 12a3 ... speech
12b1 ... Dictionary data 12b2 ... Audio data 12b3 ... Dictionary name / part of speech / command table 12b4 ... Phonetic symbol conversion table 12c ... RAM
12c1 ... Input character memory 12c2 ... Search word memory 12c3 ... Head word information designation position memory 12c4 ... Output designation character string memory 12c5 ... Part of speech correspondence addition command memory 12c6 ... Phonetic symbol correspondence
14a ... "English-Japanese" key 14b ... "Translation / OK" key 14c ... "Voice" key 14d ... Cursor key 14e ... "Example sentence" key 15 ...
18 ...
DESCRIPTION OF
Claims (6)
前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段と、
前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を出力させる音声出力制御手段と、
を備え、
前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴とする音声出力機能付き情報表示制御装置。 Information display with voice output function comprising information display control means for displaying the explanation information of the designated headword and voice output means for outputting the voice of the designated portion in the explanation information displayed by the information display control means A control device,
Predetermined information detecting means for detecting predetermined information in the explanation information of the headword displayed by the information display control means;
When outputting the sound of the designated portion by the sound output means, the sound for outputting the sound of the headword portion of the designated portion using the predetermined information detected by the predetermined information detecting means Output control means;
Equipped with a,
The voice output control means, when the designated part is a sentence, outputs a voice using predetermined information detected by the predetermined information detection means by using a predetermined mark part in the sentence as a headword part. An information display control device with a voice output function.
前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された品詞の情報を用いて音声を出力させる品詞対応音声出力制御手段を有する、
ことを特徴とする請求項1に記載の音声出力機能付き情報表示制御装置。 The predetermined information detected by the predetermined information detecting means is part of speech information,
The voice output control means, when outputting the voice by the voice output means, the voice of the headword part of the designated part is used as the voice using the part of speech information detected by the predetermined information detection means. Having a part-of-speech-corresponding voice output control means to output,
The information display control device with a voice output function according to claim 1.
前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された発音記号を用いて音声を出力させる発音記号対応音声出力制御手段を有する、
ことを特徴とする請求項1に記載の音声出力機能付き情報表示制御装置。 The predetermined information detected by the predetermined information detecting means is a phonetic symbol,
The voice output control means outputs the voice of the headword part of the designated portion using the pronunciation symbol detected by the predetermined information detection means when outputting the voice by the voice output means. Having phonetic symbol-corresponding voice output control means
The information display control device with a voice output function according to claim 1.
前記コンピュータを、
前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段、
前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を出力させる音声出力制御手段、
として機能させ、
前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴とするコンピュータ読み込み可能な音声出力機能付き情報表示制御装置の制御プログラム。 Information display with voice output function comprising information display control means for displaying the explanation information of the designated headword and voice output means for outputting the voice of the designated portion in the explanation information displayed by the information display control means A control program for controlling a computer of a control device,
The computer,
Predetermined information detecting means for detecting predetermined information in the explanation information of the headword displayed by the information display control means;
When outputting the sound of the designated portion by the sound output means, the sound for outputting the sound of the headword portion of the designated portion using the predetermined information detected by the predetermined information detecting means Output control means,
To function as,
The voice output control means, when the designated part is a sentence, outputs a voice using predetermined information detected by the predetermined information detection means by using a predetermined mark part in the sentence as a headword part. A computer-readable control program for an information display control device with an audio output function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005286354A JP4677869B2 (en) | 2005-09-30 | 2005-09-30 | Information display control device with voice output function and control program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005286354A JP4677869B2 (en) | 2005-09-30 | 2005-09-30 | Information display control device with voice output function and control program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007094269A JP2007094269A (en) | 2007-04-12 |
JP4677869B2 true JP4677869B2 (en) | 2011-04-27 |
Family
ID=37980022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005286354A Active JP4677869B2 (en) | 2005-09-30 | 2005-09-30 | Information display control device with voice output function and control program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4677869B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5842452B2 (en) | 2011-08-10 | 2016-01-13 | カシオ計算機株式会社 | Speech learning apparatus and speech learning program |
JP6389289B2 (en) * | 2017-01-19 | 2018-09-12 | 有限会社トピックメーカー | Language teaching material creation system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000330998A (en) * | 1999-05-20 | 2000-11-30 | Seiko Instruments Inc | Pronouncing electronic dictionary |
JP2000330995A (en) * | 1999-05-20 | 2000-11-30 | Seiko Instruments Inc | Pronouncing electronic dictionary |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02138660A (en) * | 1988-11-18 | 1990-05-28 | Sharp Corp | Display device for translated word |
-
2005
- 2005-09-30 JP JP2005286354A patent/JP4677869B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000330998A (en) * | 1999-05-20 | 2000-11-30 | Seiko Instruments Inc | Pronouncing electronic dictionary |
JP2000330995A (en) * | 1999-05-20 | 2000-11-30 | Seiko Instruments Inc | Pronouncing electronic dictionary |
Also Published As
Publication number | Publication date |
---|---|
JP2007094269A (en) | 2007-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1096472B1 (en) | Audio playback of a multi-source written document | |
US20100174545A1 (en) | Information processing apparatus and text-to-speech method | |
JP2014145842A (en) | Speech production analysis device, voice interaction control device, method, and program | |
US20090138266A1 (en) | Apparatus, method, and computer program product for recognizing speech | |
JP2007206317A (en) | Authoring method and apparatus, and program | |
JP2008209717A (en) | Device, method and program for processing inputted speech | |
JP2007534979A (en) | Apparatus and method for voice tag dictionary | |
WO2011033834A1 (en) | Speech translation system, speech translation method, and recording medium | |
JP4811557B2 (en) | Voice reproduction device and speech support device | |
JP2008243080A (en) | Device, method, and program for translating voice | |
Raza et al. | Design and development of phonetically rich Urdu speech corpus | |
JP5396530B2 (en) | Speech recognition apparatus and speech recognition method | |
JP5160594B2 (en) | Speech recognition apparatus and speech recognition method | |
JP4677869B2 (en) | Information display control device with voice output function and control program thereof | |
JP5088109B2 (en) | Morphological analyzer, morphological analyzer, computer program, speech synthesizer, and speech collator | |
JP4840051B2 (en) | Speech learning support apparatus and speech learning support program | |
Ekpenyong et al. | Towards an unrestricted domain TTS system for African tone languages | |
JP2004294542A (en) | Speech recognition device and program therefor | |
Marasek et al. | Multi-level annotation in SpeeCon Polish speech database | |
TWI759003B (en) | Method for training a speech recognition model | |
WO2023166651A1 (en) | Information processing device and information processing program | |
Hassana et al. | Text to Speech Synthesis System in Yoruba Language | |
JP2023046232A (en) | Electronic equipment, learning support system, learning processing method, and program | |
Boonmee et al. | Accuracy of Natural Language Processing Algorithms in Representing Stressed Words in Closed Captioning | |
JP2006098552A (en) | Speech information generating device, speech information generating program and speech information generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4677869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |