JP4677869B2 - Information display control device with voice output function and control program thereof - Google Patents

Information display control device with voice output function and control program thereof Download PDF

Info

Publication number
JP4677869B2
JP4677869B2 JP2005286354A JP2005286354A JP4677869B2 JP 4677869 B2 JP4677869 B2 JP 4677869B2 JP 2005286354 A JP2005286354 A JP 2005286354A JP 2005286354 A JP2005286354 A JP 2005286354A JP 4677869 B2 JP4677869 B2 JP 4677869B2
Authority
JP
Japan
Prior art keywords
speech
information
voice output
word
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005286354A
Other languages
Japanese (ja)
Other versions
JP2007094269A (en
Inventor
康治 鳥山
利久 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005286354A priority Critical patent/JP4677869B2/en
Publication of JP2007094269A publication Critical patent/JP2007094269A/en
Application granted granted Critical
Publication of JP4677869B2 publication Critical patent/JP4677869B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、例えば辞書検索により表示された見出語に対応する読み上げ音声の出力機能を備えた音声出力機能付き情報表示制御装置およびその制御プログラムに関する。   The present invention relates to an information display control device with a voice output function having a function of outputting a reading voice corresponding to a headword displayed by dictionary search, for example, and a control program therefor.

従来の電子機器において、表示されたテキストの読み上げ音声を出力するものは種々提案されている。   In the conventional electronic devices, various devices that output a read-out sound of the displayed text have been proposed.

例えばその一つには、パーソナルコンピュータなどにインストールして機能するテキスト読み上げ制御プログラムのように、テキスト表示された個々の単語の文字に対応して予め記憶された音声を合成して順次出力するものがある。   For example, one of them is a text-to-speech control program that is installed and functioning on a personal computer or the like, and synthesizes pre-stored speech corresponding to the characters of each word displayed in text and sequentially outputs them. There is.

このテキスト読み上げ制御処理では、読み上げるべき単語の各文字毎に対応した合成音声を単純に出力すると、例えば日本語「はる」の場合に、同一の文字の綴りであっても品詞が異なる単語の「春(名詞)」と「貼る(動詞)」とでアクセントの位置が「は」と「る」で違ってしまう。   In this text-to-speech control process, if a synthesized speech corresponding to each character of a word to be read out is simply output, for example, in the case of Japanese “Haru”, words of different parts of speech are spelled even if the same character is spelled. The position of the accent is different between "Ha" and "Ru" between "Spring (noun)" and "Paste (verb)".

このため、音声出力対象の単語についてその前後の文章を文法的に解析して品詞を検知し、正しいアクセントの読み上げ音声で出力できるようにした単語アクセント決定方法が考えられている(例えば、特許文献1参照。)。
特開平07−140995号公報
For this reason, a word accent determination method has been considered in which sentences before and after a speech output target word are grammatically analyzed to detect the part of speech, and can be output as a correct accent reading speech (for example, Patent Documents). 1).
Japanese Patent Application Laid-Open No. 07-140995

前記従来の電子機器において、テキストの読み上げ音声出力を正しく機能させるための単語アクセント決定方法は、音声出力対象の単語についてその前後の文章を文法的に解析して品詞を検知することで、品詞で異なるアクセントの位置を正しく音声出力できるようにしたものであるため、句や命令文として存在する単語、あるいは単体で存在する単語について音声出力する場合、正確な品詞を検知することができず、正しい発音の音声出力が行われないことがある。   In the conventional electronic device, the word accent determination method for properly functioning the text-to-speech voice output is based on the part-of-speech by detecting the part-of-speech by analyzing the sentences before and after the voice-output target word. Since different accent positions can be output correctly by voice, when speech is output for words that exist as phrases, command sentences, or words that exist alone, the correct part of speech cannot be detected and is correct. Sound output of pronunciation may not be performed.

本発明は、このような課題に鑑みなされたもので、任意の単語を指定してその読み上げ音声を出力する際に、品詞の違いで発音の異なる単語も正確に音声出力することが可能になる音声出力機能付き情報表示制御装置およびその制御プログラムを提供することを目的とする。   The present invention has been made in view of such a problem. When an arbitrary word is specified and its speech is output, it is possible to accurately output a word with different pronunciation due to a difference in part of speech. An object is to provide an information display control device with a voice output function and a control program thereof.

請求項1に記載の音声出力機能付き情報表示制御装置は、指定の見出語の説明情報を表示させる情報表示制御手段と、この情報表示制御手段により表示された説明情報中の指定部分の音声を出力する音声出力手段とを備えた音声出力機能付き情報表示制御装置であって、前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段と、前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を生成させる音声出力制御手段とを備え、前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴としている。 The information display control device with a voice output function according to claim 1 is an information display control means for displaying explanation information of a designated headword, and a voice of a designated portion in the explanation information displayed by the information display control means. A voice output function-equipped information display control device comprising: voice output means for outputting a predetermined information detection means for detecting predetermined information in the explanation information of the headword displayed by the information display control means; When outputting the voice of the designated part by the voice output means, the voice of the headword part of the designated part is generated using the predetermined information detected by the predetermined information detecting means. and an audio output control unit, the audio output control unit, when said specified portion is a sentence, where it was detected by the predetermined information detection means as Dego portion viewed predetermined mark portion of the text It is characterized in that to output sound using the information.

請求項2に記載の音声出力機能付き情報表示制御装置は、前記請求項1に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段により検知される所定の情報は品詞の情報であり、前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された品詞の情報を用いて音声を出力させる品詞対応音声出力制御手段を有することを特徴としている。   The information display control device with a voice output function according to claim 2 is the information display control device with a voice output function according to claim 1, wherein the predetermined information detected by the predetermined information detection means is part-of-speech information. And the voice output control means uses the information of the part of speech detected by the predetermined information detection means for the voice of the headword part of the designated part when the voice output means outputs the voice. It has a part-of-speech-corresponding speech output control means for outputting speech.

請求項3に記載の音声出力機能付き情報表示制御装置は、前記請求項1に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段により検知される所定の情報は発音記号であり、前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された発音記号を用いて音声を出力させる発音記号対応音声出力制御手段を有することを特徴としている。   The information display control device with a voice output function according to claim 3 is the information display control device with a voice output function according to claim 1, wherein the predetermined information detected by the predetermined information detection means is a phonetic symbol. The voice output control means, when outputting the voice by the voice output means, uses the phonetic symbol detected by the predetermined information detection means as the voice of the headword part of the designated part. It is characterized by having a phonetic symbol corresponding voice output control means for outputting.

請求項4に記載の音声出力機能付き情報表示制御装置は、前記請求項3に記載の音声出力機能付き情報表示制御装置において、前記発音記号対応音声出力制御手段は、前記所定情報検知手段により検知された発音記号に対応する音声出力コマンドを取得して前記音声出力手段により音声を生成させることを特徴としている。   The information display control device with a voice output function according to claim 4 is the information display control device with a voice output function according to claim 3, wherein the phonetic symbol corresponding voice output control means is detected by the predetermined information detection means. A voice output command corresponding to the generated phonetic symbol is acquired and a voice is generated by the voice output means.

請求項5に記載の音声出力機能付き情報表示制御装置は、前記請求項1ないし請求項4の何れか1項に記載の音声出力機能付き情報表示制御装置において、前記所定情報検知手段は、前記指定部分である単語が当該単語に対応するところの説明情報中の先頭の見出語である場合にはその後方にある説明情報中の所定の情報を検知し、先頭の見出語以外の単語である場合にはその前方にある説明情報中の所定の情報を検知することを特徴としている。   The information display control device with a voice output function according to claim 5 is the information display control device with a voice output function according to any one of claims 1 to 4, wherein the predetermined information detection means If the word that is the specified part is the first headword in the description information corresponding to the word, the word other than the first headword is detected by detecting predetermined information in the description information behind the word. In this case, predetermined information in the explanatory information ahead is detected.

本発明の請求項1(請求項)に記載の音声出力機能付き情報表示制御装置(制御プログラム)によれば、音声出力対象となる指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として所定情報検知手段により検知された所定の情報を用いて音声を出力させるので、例えば辞書の説明情報中にある例文を音声出力対象として指定した場合でも、当該例文中で“〜”マークなどの所定マークによって記述される見出語対応部分をその品詞または発音記号に従った正確な発音にして音声出力できるようになる。 According to the audio output function information display control device according to claim 1 (claim 6) of the present invention (control program), if the specified portion to be output as speech is text, a predetermined mark portion of the text Is output using the predetermined information detected by the predetermined information detection means as a headword part. For example, even when an example sentence in the description information of the dictionary is designated as a voice output target, The headword corresponding part described by a predetermined mark such as the “˜” mark can be output as a sound with an accurate pronunciation according to its part of speech or phonetic symbol.

本発明の請求項2に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1に記載の音声出力機能付き情報表示制御装置において、音声出力制御手段では、音声出力手段により音声を出力させる際に、指定部分のうちの見出語部分の音声を、所定情報検知手段により検知された品詞の情報を用いて音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の品詞の記述を検知して正確に音声出力できるようになる。   According to the information display control device with a voice output function according to claim 2 of the present invention, in the information display control device with a voice output function according to the first aspect, in the voice output control means, the voice is outputted by the voice output means. When outputting, the sound of the headword part of the designated part is output using the part of speech information detected by the predetermined information detecting means, so that the pronunciation of the same spelling word varies depending on the part of speech. The description of the part of speech in the explanation information can be detected and the voice can be output accurately.

本発明の請求項3に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1に記載の音声出力機能付き情報表示制御装置において、音声出力制御手段では、音声出力手段により音声を出力させる際に、指定部分のうちの見出語部分の音声を、所定情報検知手段により検知された発音記号を用いて音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の発音記号を用いて正確に音声出力できるようになる。   According to the information display control device with a voice output function according to claim 3 of the present invention, in the information display control device with a voice output function according to claim 1, in the voice output control means, the voice is outputted by the voice output means. When outputting, the sound of the headword part of the specified part is output using the phonetic symbols detected by the predetermined information detection means, so the pronunciation of the same spelling of the headword is also explained depending on the part of speech. Sound can be output accurately using phonetic symbols in the information.

本発明の請求項4に記載の音声出力機能付き情報表示制御装置によれば、前記請求項3に記載の音声出力機能付き情報表示制御装置において、発音記号に対応した音声出力制御手段では、所定情報検知手段により検知された発音記号に対応する音声出力コマンドを取得して音声出力手段により音声を出力させるので、同一綴りの見出語で品詞によって異なる発音も説明情報中の発音記号に応じた音声出力コマンドを音声出力エンジンに与えることで正確に音声出力できるようになる。   According to the information display control device with a sound output function according to claim 4 of the present invention, in the information display control device with a sound output function according to claim 3, the sound output control means corresponding to the phonetic symbol is Since the voice output command corresponding to the phonetic symbol detected by the information detecting means is acquired and the voice is output by the voice output means, the pronunciation that differs depending on the part of speech with the same spelling is also in accordance with the phonetic symbol in the explanation information By outputting the voice output command to the voice output engine, the voice can be output accurately.

本発明の請求項5に記載の音声出力機能付き情報表示制御装置によれば、前記請求項1ないし請求項4の何れか1項に記載の音声出力機能付き情報表示制御装置において、所定情報検知手段では、音声出力対象となる指定部分の単語が当該単語に対応するところの説明情報中の先頭の見出語である場合にはその後方にある説明情報中の所定の情報を検知し、先頭の見出語以外の単語である場合にはその前方にある説明情報中の所定の情報を検知するので、指定部分である単語や文のうちの見出語部分の品詞または発音記号を確実に検知して、同一綴りの見出語で品詞によって異なる発音も正確に音声出力できるようになる。   According to an information display control device with a voice output function according to claim 5 of the present invention, in the information display control device with a voice output function according to any one of claims 1 to 4, predetermined information detection is performed. In the means, when the word of the designated part to be output is the head word in the explanation information corresponding to the word, predetermined information in the explanation information behind it is detected, and the head If it is a word other than the headword, it detects certain information in the explanation information in front of it, so the part of speech or phonetic symbol of the headword part of the word or sentence that is the specified part is surely It is possible to detect and accurately output the pronunciation of the same spelling with different parts of speech.

よって、本発明によれば、任意の単語を指定してその読み上げ音声を出力する際に、品詞の違いで発音の異なる単語も正確に音声出力することが可能になる音声出力機能付き情報表示制御装置およびその制御プログラムを提供できる。   Therefore, according to the present invention, when an arbitrary word is specified and its reading voice is output, the information display control with a voice output function that can accurately output a word having a different pronunciation due to a difference in part of speech. A device and its control program can be provided.

以下図面により本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の音声出力機能付き情報表示制御装置の実施形態に係る携帯機器(電子辞書)10の電子回路の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an electronic circuit of a portable device (electronic dictionary) 10 according to an embodiment of an information display control device with a voice output function of the present invention.

この携帯機器(電子辞書)10は、以下に説明する電子辞書機能を備えたPDA(personal digital assistants)、PC(personal computer)、携帯電話、電子ブックとして構成されるか、電子辞書専用の携帯機器として構成される。この携帯機器(電子辞書)10は、各種の記憶媒体に記録されたプログラム、または伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。   The portable device (electronic dictionary) 10 is configured as a PDA (personal digital assistants), a PC (personal computer), a mobile phone, an electronic book having an electronic dictionary function described below, or a portable device dedicated to the electronic dictionary. Configured as The portable device (electronic dictionary) 10 is configured by a computer that reads a program recorded in various storage media or a transmitted program and whose operation is controlled by the read program. A CPU (central processing unit) 11 is provided.

CPU11は、プログラムROM12a内に予め記憶された装置制御プログラム、あるいはメモリカード13などの外部記憶媒体からプログラムROM12aに読み込まれた装置制御プログラム、あるいは図示しないインターネットN上のWebサーバ(この場合はプログラムサーバ)から通信機器を経由してプログラムROM12aに読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記プログラムROM12aに記憶された装置制御プログラムは、キーボード14やタッチパネル15である入力部16からのユーザ操作に応じた入力信号、あるいは外部接続されるEEPROM,RAM,ROMなどのメモリカード(記憶媒体)13との接続通信信号に応じて起動される。   The CPU 11 is a device control program stored in advance in the program ROM 12a, a device control program read into the program ROM 12a from an external storage medium such as the memory card 13, or a Web server on the Internet N (not shown) The device control program stored in the program ROM 12a is a keyboard 14 or a touch panel 15 according to a device control program read into the program ROM 12a via a communication device. It is activated in response to an input signal corresponding to a user operation from the input unit 16 or a connection communication signal with an externally connected memory card (storage medium) 13 such as EEPROM, RAM, ROM.

前記CPU11には、前記プログラムROM12aの他、データベースROM12b、RAM12cが接続され、また前記メモリカード13、キーボード14、タッチパネル15が接続される他に、LCDからなる表示部17、音声出力用のアンプ18aを介したスピーカ18などが接続される。   In addition to the program ROM 12a, the CPU 11 is connected to a database ROM 12b and a RAM 12c. In addition to the memory card 13, the keyboard 14 and the touch panel 15, the display unit 17 comprising an LCD and an audio output amplifier 18a are connected. A speaker 18 or the like is connected via

CPU11の内部には、合成音声出力処理プログラム12a2の起動によって機能し、辞書検索されたユーザ任意の単語や例文などのテキストの読み上げ音声を合成するための音声合成エンジン21が備えられ、これにより生成された音声信号が前記アンプ18aを介して増幅されスピーカ18から発音出力される。   The CPU 11 includes a speech synthesis engine 21 that functions by the activation of the synthesized speech output processing program 12a2 and synthesizes a text-to-speech speech of a user-searched word such as an arbitrary word or example sentence. The sound signal thus amplified is amplified through the amplifier 18a and output from the speaker 18 as a sound.

そして、この携帯機器(電子辞書)10の電子回路は、電池電源Bによる電源回路19からの電圧供給によって駆動される。   The electronic circuit of the portable device (electronic dictionary) 10 is driven by voltage supply from the power supply circuit 19 by the battery power supply B.

図2は、前記携帯機器(電子辞書)10のプログラムROM12a、データベースROM12b、RAM12cに記憶されるデータの内容を示す図である。   FIG. 2 is a diagram showing the contents of data stored in the program ROM 12a, database ROM 12b, and RAM 12c of the portable device (electronic dictionary) 10. As shown in FIG.

プログラムROM12aに記憶される装置制御プログラムとしては、当該携帯機器(電子辞書)10の全体の動作を司るシステムプログラムが記憶される他に、辞書データ(12b1)に基づいて入力文字に応じた見出語の検索表示およびその説明情報の検索表示を行うための辞書検索処理プログラム12a1、表示上で指定されたテキストデータを合成音声による読み上げ音声として出力させるための合成音声出力処理プログラム12a2、出力対象であるテキストデータの文字列組合せや品詞・発音記号に従って各音素の音声データ(12b2)を合成してその読み上げ音声を生成し出力させるための音声合成処理プログラム12a3などが記憶される。   As a device control program stored in the program ROM 12a, a system program for controlling the entire operation of the portable device (electronic dictionary) 10 is stored, and in addition, a finding corresponding to an input character based on the dictionary data (12b1) is stored. Dictionary search processing program 12a1 for searching and displaying words and explanation information thereof, synthesized speech output processing program 12a2 for outputting text data designated on the display as a read-out speech by synthesized speech, A speech synthesis processing program 12a3 for synthesizing speech data (12b2) of each phoneme according to a character string combination of a certain text data, a part of speech / phonetic symbol, and generating and outputting a reading speech is stored.

データベースROM12bには、英和辞書、英英辞書、和英辞書、国語辞書、漢和辞書などの各種の辞書データ12b1、音声合成処理にて使用される各音素に対応させた音声データ12b2、各辞書毎に異なる品詞記号と当該品詞に応じた音声合成処理を前記音声合成エンジン21にて行わせるための追加コマンドコードとを予め対応付けた辞書名・品詞・コマンドテーブル12b3(図3参照)、各辞書毎に異なる発音記号を前記音声合成エンジン21に対する発音記号コマンドに変換するための発音記号変換テーブル12b4(図4参照)などが記憶される。   In the database ROM 12b, various dictionary data 12b1, such as English-Japanese dictionary, English-English dictionary, Japanese-English dictionary, Japanese language dictionary, Han-Japanese dictionary, etc., voice data 12b2 corresponding to each phoneme used in the speech synthesis process, each dictionary Dictionary name / part of speech / command table 12b3 (see FIG. 3) in which different part-of-speech symbols and additional command codes for causing the speech synthesis engine 21 to perform speech synthesis processing corresponding to the part of speech are associated in advance. A phonetic symbol conversion table 12b4 (see FIG. 4) for converting different phonetic symbols into phonetic symbol commands for the speech synthesis engine 21 is stored.

なお、データベースROM12bに記憶された辞書データ12b1と同様に、メモリカード13に記憶された他の辞書データを外部から入力して利用可能である。   Similar to the dictionary data 12b1 stored in the database ROM 12b, other dictionary data stored in the memory card 13 can be input from the outside and used.

RAM12cには、入力部16(14,15)から入力された文字データを記憶するための入力文字メモリ12c1、辞書検索処理(12a1)に従い検索された見出語やその説明情報を記憶するための検索見出語メモリ12c2、検索表示された見出語及びその説明情報の中でユーザ入力に応じて指定された単語や例文などの位置データを記憶するための見出語情報指定位置メモリ12c3、この見出語情報指定位置メモリ12c3にて指定された辞書データ(12b1)上の位置に対応する単語や例文の文字列を抽出して記憶するための出力指定文字列メモリ12c4、この出力指定文字列メモリ12c4に記憶された単語や例文の文字列について辞書データ(12b1)上に存在する品詞記号に基づき前記辞書名・品詞・コマンドテーブル12b3を参照して生成した音声合成用の追加コマンドを記憶するための品詞対応追加コマンドメモリ12c5、辞書データ(12b1)上に存在する発音記号に基づき前記発音記号変換テーブル12b4を参照して生成した音声合成用の変換コマンドを記憶するための発音記号対応変換コマンドメモリ12c6が備えられる。   In the RAM 12c, an input character memory 12c1 for storing character data input from the input unit 16 (14, 15), a headword searched according to the dictionary search processing (12a1), and its explanation information are stored. Search word memory 12c2, head word information designation position memory 12c3 for storing position data such as words and example sentences designated according to user input in the searched and found head words and their explanation information, An output designation character string memory 12c4 for extracting and storing a character string of a word or example sentence corresponding to a position on the dictionary data (12b1) designated by the headword information designation position memory 12c3, and this output designation character Words and example sentence character strings stored in the column memory 12c4 are generated by referring to the dictionary name / part of speech / command table 12b3 based on the part of speech symbols existing in the dictionary data (12b1). Part-of-speech correspondence additional command memory 12c5 for storing additional commands for speech synthesis, conversion commands for speech synthesis generated by referring to the phonetic symbol conversion table 12b4 based on phonetic symbols existing in the dictionary data (12b1) Phonetic symbol correspondence conversion command memory 12c6 is stored.

図3は、前記携帯機器(電子辞書)10のデータベースROM12bに記憶される辞書名・品詞・コマンドテーブル12b3のテーブルデータを示す図である。   FIG. 3 is a diagram showing table data of the dictionary name / part of speech / command table 12b3 stored in the database ROM 12b of the portable device (electronic dictionary) 10. As shown in FIG.

この辞書名・品詞・コマンドテーブル12b3は、前述したとおり各辞書毎に異なる品詞記号と当該品詞に応じた音声合成処理を前記音声合成エンジン21にて行わせるための追加コマンドコードとを予め対応付けたもので、前記出力指定文字列メモリ12c4に記憶された指定の単語について当該単語が例えば“動詞”であることを示す品詞記号「動」Mが辞書の説明情報中に存在する場合には、指定単語の文字列の前に“動詞”の追加コマンド[<pron>verb]を追加することで、音声合成エンジン21は指定の単語を動詞による発音音声として音声合成処理する。また、指定の単語が例えば“名詞”であることを示す品詞記号「名」Nが辞書の説明情報中に存在する場合には、指定単語の文字列の前に“名詞”の追加コマンド[<pron>noun]を追加することで、音声合成エンジン21は指定の単語を名詞による発音音声として音声合成処理する。   In the dictionary name / part of speech / command table 12b3, as described above, a part of speech symbol different for each dictionary and an additional command code for causing the speech synthesis engine 21 to perform speech synthesis processing corresponding to the part of speech are associated in advance. If the part-of-speech symbol “movement” M indicating that the word is, for example, a “verb” for the designated word stored in the output designation character string memory 12c4 is present in the description information of the dictionary, By adding the “verb” addition command [<pron> verb] before the character string of the designated word, the speech synthesis engine 21 performs speech synthesis processing using the designated word as a pronunciation sound by the verb. If the part-of-speech symbol “name” N indicating that the designated word is, for example, “noun” is present in the description information of the dictionary, the “noun” additional command [< By adding pron> noun], the speech synthesis engine 21 performs speech synthesis processing on the designated word as pronunciation speech by noun.

図4は、前記携帯機器(電子辞書)10のデータベースROM12bに記憶される発音記号変換テーブル12b4のテーブルデータを示す図である。   FIG. 4 shows table data of the phonetic symbol conversion table 12b4 stored in the database ROM 12b of the portable device (electronic dictionary) 10. As shown in FIG.

この発音記号変換テーブル12b4は、前述したとおり各辞書毎に異なる発音記号を前記音声合成エンジン21に対する発音記号コマンドに変換するためのテーブルデータであり、前記出力指定文字列メモリ12c4に記憶された指定の単語について当該単語の発音記号が辞書の説明情報中に存在する場合には、この辞書中の発音記号を本テーブル12b4によって発音記号コマンドに変換すると共に、この変換後の発音記号コマンドを予め設定された発音記号使用コマンド[<phoneme>ON]に加えることで、音声合成エンジン21は指定の単語をその辞書の説明情報中に記述された発音記号通りの発音音声として音声合成処理する。   The phonetic symbol conversion table 12b4 is table data for converting different phonetic symbols for each dictionary into phonetic symbol commands for the speech synthesis engine 21 as described above, and the designation stored in the output designation character string memory 12c4. If the phonetic symbol of the word exists in the description information of the dictionary, the phonetic symbol in this dictionary is converted into a phonetic symbol command by this table 12b4, and the phonetic symbol command after this conversion is set in advance. By adding the generated phonetic symbol use command [<phoneme> ON], the speech synthesis engine 21 performs speech synthesis processing on the designated word as the phonetic speech according to the phonetic symbol described in the description information of the dictionary.

次に、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能について説明する。   Next, a dictionary search function and a voice output function by the portable device (electronic dictionary) 10 having the above-described configuration will be described.

図5は、前記携帯機器(電子辞書)10による音声出力付き辞書検索処理の全体処理を示すフローチャートである。   FIG. 5 is a flowchart showing the overall processing of dictionary search processing with voice output by the portable device (electronic dictionary) 10.

図6は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴うキー操作対応の表示動作を示す図である。   FIG. 6 is a diagram showing a display operation corresponding to a key operation accompanying the dictionary search process with voice output of the portable device (electronic dictionary) 10.

入力部16において、例えば図6(A)に示すように、今回の辞書検索に使用する種類の「辞書」キー(例えば「英和」キー14a)が操作入力されると、当該「辞書」キーに対応する種類の「英和辞書」に対応した検索文字入力画面G1が表示部17に表示される(ステップS1)。   In the input unit 16, for example, as shown in FIG. 6A, when a “dictionary” key (for example, “English-Japanese” key 14a) of the type used for this dictionary search is input, the “dictionary” key is input. A search character input screen G1 corresponding to the corresponding type of “English-Japanese dictionary” is displayed on the display unit 17 (step S1).

この検索文字入力画面G1において、入力部16における文字入力キーの操作に応じて検索すべき文字列が入力され、入力文字メモリ12c1に記憶されて表示されると(ステップS1)、この入力文字列に一致した先頭文字列を有する見出語が「英和辞書」の辞書データ12b1から検索され見出語一覧画面(図示せず)として表示部17に表示される(ステップS2)。   In this search character input screen G1, when a character string to be searched is input according to the operation of the character input key in the input unit 16, and stored in the input character memory 12c1 and displayed (step S1), this input character string The headword having the first character string that matches is searched from the “English-Japanese dictionary” dictionary data 12b1 and displayed on the display unit 17 as a headword list screen (not shown) (step S2).

そして、この見出語一覧画面(図示せず)の表示状態にあって、上下カーソルキーの操作に応じて反転カーソルKを各見出語間で移動表示させ、ユーザ所望の見出語が選択指定された状態で「訳/決定」キー14bが操作されると(ステップS3)、当該選択指定されている見出語に対応した説明情報が「英和辞書」の辞書データ12b1から読み出され、図6(A)に示すように、語義分類(品詞・語義番号)毎に分けられた説明情報表示画面G2として表示部17に表示される(ステップS4)。   Then, in the display state of this headword list screen (not shown), the reverse cursor K is moved and displayed between the headwords according to the operation of the up and down cursor keys, and the headword desired by the user is selected. When the “translation / decision” key 14b is operated in the designated state (step S3), the explanation information corresponding to the selected entry word is read from the dictionary data 12b1 of the “English-Japanese dictionary”, As shown in FIG. 6A, it is displayed on the display unit 17 as an explanation information display screen G2 divided for each meaning classification (part of speech / meaning number) (step S4).

このユーザにより選択された見出語(単語)の説明情報表示画面G2において、当該選択された単語の発音を学習すべく、図6(B)に示すように、「音声」キー14cが操作されると共に(ステップS5)、当該説明情報中における何れかの単語またはイディオム(成句・熟語・慣用句など)がカーソルキー14dの操作に応じた反転カーソルKの移動表示によって指定され(この場合、検索単語「record」の語義6における名詞の「record」)、「訳/決定」キー14bが操作されると(ステップS6)、後述の図7〜図11において説明する単語音声出力処理に移行され(ステップS7→SA)、当該ユーザ指定の単語(名詞の「record」)に対応した音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。   In the explanation information display screen G2 for the headword (word) selected by the user, as shown in FIG. 6B, the “voice” key 14c is operated to learn the pronunciation of the selected word. At the same time (step S5), any word or idiom in the explanation information (sung phrase, idiom, idiomatic phrase, etc.) is designated by the moving display of the reverse cursor K in response to the operation of the cursor key 14d (in this case, search When the “translation / decision” key 14b is operated (step S6), the process shifts to word voice output processing described later in FIGS. 7 to 11 (step S6). In step S7 → SA), a speech synthesis command corresponding to the user-specified word (noun “record”) is generated and subjected to speech output processing by the speech synthesis engine 21.

また、前記ユーザ選択された見出語(単語)の説明情報表示画面G2において、「音声」キー14cが操作されると共に(ステップS5)、当該説明情報中における何れかのイディオム(成句・熟語・慣用句など)が指定され、「訳/決定」キー14bが操作されると(ステップS6)、後述の図12〜図16において説明する例文音声出力処理に移行され(ステップS7→SB)、当該ユーザ指定のイディオムに対応した音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。   In addition, in the explanation information display screen G2 of the entry word (word) selected by the user, the “voice” key 14c is operated (step S5), and any idiom (spoken phrase, idiom, When the “translation / decision” key 14b is operated (step S6), the process proceeds to example sentence voice output processing described in FIGS. 12 to 16 (step S7 → SB). A voice synthesis command corresponding to the user-specified idiom is generated and voice output processing is performed by the voice synthesis engine 21.

一方、前記ユーザ選択された見出語(単語)の説明情報表示画面G2において、この選択された単語を使用した例文を学習すべく、図6(C)に示すように、「例文」キー14eが操作されると(ステップS8)、カーソルキー14dの操作に応じて選択された所望の語義分類の例文が一覧表示される(ステップS9)。   On the other hand, in the explanation information display screen G2 of the entry word (word) selected by the user, as shown in FIG. 6C, an “example sentence” key 14e is used to learn an example sentence using the selected word. Is operated (step S8), a list of example sentences of the desired meaning classification selected in accordance with the operation of the cursor key 14d is displayed (step S9).

そして、この所望の語義分類の例文一覧表示状態において、任意の例文の発音を学習すべく「音声」キー14cが操作されると共に(ステップS10)、何れかの例文(この場合、語義2における例文「I 〜ed the show on tape.」)がカーソルキー14dの操作に応じて反転カーソルKにより指定表示されると(ステップS11)、後述の図12〜図16において説明する例文音声出力処理に移行され(ステップSB)、当該ユーザ指定の動詞の「record」を使用した例文「I 〜ed the show on tape.」に対応する音声合成コマンドが生成され音声合成エンジン21によって音声出力処理される。   Then, in the example sentence list display state of the desired meaning classification, the “speech” key 14c is operated to learn the pronunciation of any example sentence (step S10), and any example sentence (in this case, the example sentence in the meaning 2) When "I-ed the show on tape.") Is designated and displayed by the reverse cursor K in response to the operation of the cursor key 14d (step S11), the processing proceeds to example sentence voice output processing described in FIGS. Then, a speech synthesis command corresponding to the example sentence “I to ed the show on tape.” Using the user-specified verb “record” is generated, and the speech synthesis engine 21 performs speech output processing.

図7は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う単語音声出力処理(ステップSA)を示すフローチャートである。   FIG. 7 is a flowchart showing word speech output processing (step SA) accompanying the dictionary search processing with speech output of the portable device (electronic dictionary) 10.

図8は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の品詞情報から音声合成コマンドを生成するための単語:品詞対応処理(ステップAC)を示すフローチャートである。   FIG. 8 is a flowchart showing a word: part-of-speech correspondence process (step AC) for generating a speech synthesis command from the part-of-speech information of the designated word in accordance with the word speech output process (step SA) of the portable device (electronic dictionary) 10. is there.

図9は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:品詞対応処理(ステップAC)が起動される場合の指定単語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図である。   FIG. 9 is an explanatory information display screen on which a part-of-speech symbol of a designated word exists when a word: part-of-speech correspondence process (step AC) is started in association with the word voice output process (step SA) of the portable device (electronic dictionary) 10. It is a figure explaining the example of concrete production | generation of G2 and the word speech synthesis command based on this.

例えば図9に示すように、英単語の「lead」が検索されると共に、図9(A)に示すように、その説明情報表示画面G2における動詞の「lead1」が音声出力対象の単語として指定されることで、図7における単語音声出力処理が起動されると(ステップS1〜S7→SA)、まず、当該指定の単語「lead1」が本説明情報表示画面G2の見出語であるか否か判断される(ステップA1)。 For example, as shown in FIG. 9, the English word “lead” is searched, and as shown in FIG. 9A, the verb “lead 1 ” in the explanation information display screen G2 is used as the voice output target word. When the word voice output process in FIG. 7 is started by being designated (steps S1 to S7 → SA), first, the designated word “lead 1 ” is the headword on the explanation information display screen G2. (Step A1).

ここで、音声出力対象である指定の単語が本説明情報表示画面G2の見出語であると判断された場合には、当該指定の単語の位置から後方にある説明情報がサーチされ(ステップA1→A2)、また同指定の単語が本説明情報表示画面G2の見出語でないと判断された場合には、当該指定の単語の位置から前方にある説明情報がサーチされ(ステップA1→A3)、指定単語の品詞情報が存在するか否か判断される(ステップA4)。   Here, when it is determined that the designated word that is the voice output target is the headword on the explanation information display screen G2, the explanation information that is behind the position of the designated word is searched (step A1). → A2) If it is determined that the designated word is not a headword on the explanation information display screen G2, explanation information ahead from the position of the designated word is searched (step A1 → A3). Then, it is determined whether or not the part of speech information of the designated word exists (step A4).

この場合、図9(A)に示すように、指定の単語「lead1」は本説明情報表示画面G2の見出語であると判断されるので(ステップA1(Yes))、当該指定の単語の位置から後方にある説明情報がサーチされ(ステップA2)、辞書名・品詞・コマンドテーブル12b3(図3参照)に記憶されている動詞の品詞記号である「動」Mが存在していると判断される(ステップA4(Yes))。そして、図8における単語:品詞対応処理(ステップAC)に移行される。 In this case, as shown in FIG. 9A, since the designated word “lead 1 ” is determined to be a headword on the explanation information display screen G2 (step A1 (Yes)), the designated word The explanation information behind the position is searched (step A2), and the verb part-of-speech symbol “movement” M stored in the dictionary name / part of speech / command table 12b3 (see FIG. 3) exists. Judgment is made (step A4 (Yes)). Then, the process proceeds to the word: part of speech correspondence process (step AC) in FIG.

この単語:品詞対応処理が起動されると、前記指定の単語「lead1」の説明情報(G2)中から得られた動詞の品詞記号である「動」Mに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>verb]が決定され(ステップC1)、音声出力対象である指定の単語テキスト「lead1」の前に追加されて単語音声合成コマンド「[<pron>verb]lead1」が生成される(ステップC2)。 When this word: part of speech correspondence processing is started, the dictionary name / part of speech / command table is used in accordance with the verb “part of speech” M obtained from the explanation information (G2) of the designated word “lead 1 ”. An additional command code [<pron> verb] for speech synthesis is determined from 12b3 (see FIG. 3) (step C1), and is added before the designated word text “lead 1 ”, which is a speech output target, so that the word speech synthesis is performed. The command “[<pron> verb] lead 1 ” is generated (step C2).

すると、この品詞記号「動」Mに従い生成された指定の単語である動詞の「lead1」の単語音声合成コマンド「[<pron>verb]lead1」が音声合成エンジン21に送出されることで(ステップC3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」の単語音声信号が生成されスピーカ18から出力される(ステップAC→A7,A8)。 Then, the word speech synthesis command “[<pron> verb] lead 1 ” of the verb “lead 1 ”, which is the designated word generated according to the part of speech symbol “movement” M, is sent to the speech synthesis engine 21. (Step C3), the speech synthesis engine 21 generates a word speech signal of pronunciation “lead” corresponding to the verb “lead 1 ” and outputs it from the speaker 18 (steps AC → A7, A8).

一方、図9(B)に示すように、前記「lead」の説明情報表示画面G2における名詞の「lead2」が音声出力対象の単語として指定された場合には、辞書名・品詞・コマンドテーブル12b3(図3参照)に記憶されている名詞の品詞記号である「名」Nが存在していると判断され(ステップA4(Yes))、図8における単語:品詞対応処理(ステップAC)に移行される。 On the other hand, as shown in FIG. 9B, when the “lead 2 ” noun in the explanation information display screen G2 for “lead” is designated as a word to be output, the dictionary name / part of speech / command table It is determined that “name” N which is a part of speech symbol stored in 12b3 (see FIG. 3) is present (step A4 (Yes)), and the word: part of speech correspondence processing (step AC) in FIG. To be migrated.

すると、前記指定の単語「lead2」の説明情報(G2)中から得られた名詞の品詞記号である「名」Nに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>noun]が決定され(ステップC1)、音声出力対象である指定の単語テキスト「lead2」の前に追加されて単語音声合成コマンド「[<pron>noun]lead2」が生成される(ステップC2)。 Then, according to “name” N which is the part of speech symbol of the noun obtained from the explanation information (G2) of the designated word “lead 2 ”, the dictionary name / part of speech / command table 12b3 (see FIG. 3) is used for speech synthesis. The additional command code [<pron> noun] is determined (step C1), and is added before the designated word text “lead 2 ” which is the speech output target to be added to the word speech synthesis command “[<pron> noun] lead 2”. Is generated (step C2).

すると、この品詞記号「名」Nに従い生成された指定の単語である名詞の「lead2」の単語音声合成コマンド「[<pron>noun]lead2」が音声合成エンジン21に送出されることで(ステップC3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」の単語音声信号が生成されスピーカ18から出力される(ステップAC→A7,A8)。 Then, the word speech synthesis command “[<pron> noun] lead 2 ” of the noun “lead 2 ” which is the designated word generated according to the part of speech symbol “name” N is sent to the speech synthesis engine 21. (Step C3) The speech synthesis engine 21 generates a word speech signal of pronunciation “red” corresponding to the noun “lead 2 ” and outputs it from the speaker 18 (steps AC → A7, A8).

なお、例えば前記指定の単語「lead1」の場合、名詞であって「リード」と発音する場合もあるが、この場合は指定の単語テキスト「lead1」の前に名詞の品詞記号「名」Nに従い決定された追加コマンドコード[<pron>noun]が追加され、単語音声合成コマンド「[<pron>noun]lead1」が生成されるので、合成音声エンジン21では、与えられた単語音声合成コマンドの記述が名詞の追加コマンドコード[<pron>noun]を有していても単語テキスト「lead1」の末尾に付加された番号「1」を検知することで名詞の「lead1」に対応した発音「リード」の音声信号を生成して出力する。 For example, in the case of the designated word “lead 1 ”, the noun may be pronounced as “lead”. In this case, the part of speech symbol “name” of the noun is preceded by the designated word text “lead 1 ”. Since the additional command code [<pron> noun] determined according to N is added and the word speech synthesis command “[<pron> noun] lead 1 ” is generated, the synthesized speech engine 21 provides the given word speech synthesis. additional description of the command is a noun command code [<pron> noun] word text also have a "lead 1" noun by detecting a "1" added the number to the end of the corresponding to "lead 1" Generate and output an audio signal of the pronunciation “Lead”.

図10は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の発音記号から音声合成コマンドを生成するための単語:発音記号対応処理(ステップAD)を示すフローチャートである。   FIG. 10 is a flowchart showing a word: phonetic symbol correspondence process (step AD) for generating a speech synthesis command from a phonetic symbol of a designated word in accordance with the word voice output process (step SA) of the portable device (electronic dictionary) 10. It is.

図11は、前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:発音記号対応処理(ステップAD)が起動される場合の指定単語の発音記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図である。   FIG. 11 is an explanatory information display in which a phonetic symbol of a designated word exists when a word: phonetic symbol correspondence processing (step AD) is started in accordance with the word voice output processing (step SA) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the screen G2 and the word speech synthesis command based on this.

例えば11(A)に示すように、指定の単語「lead1」の説明情報(G2)中をサーチしてもその品詞情報が存在しない場合であって(ステップA1〜A4(No))、発音記号「li:d」が存在していると判断されると(ステップA5(Yes))、図10における単語:発音記号対応処理(ステップAD)に移行される。 For example, as shown in FIG. 11 (A), even when searching the explanation information (G2) of the designated word “lead 1 ”, the part of speech information does not exist (steps A1 to A4 (No)), If it is determined that the symbol “li: d” exists (step A5 (Yes)), the process proceeds to the word: phonetic symbol correspondence process (step AD) in FIG.

この単語:発音記号対応処理が起動されると、前記指定の単語「lead1」の説明情報(G2)中から得られた発音記号「li:d」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[liyd]が決定され(ステップD1)、音声出力対象である指定の単語テキスト「lead1」が前記発音記号コマンド[liyd]の前に所定の発音記号使用コマンド[<phoneme>ON]を付加した単語音声発音記号コマンド[<phoneme>ON][liyd]に変換生成される(ステップD2)。 When this word: phonetic symbol correspondence process is activated, the phonetic symbol conversion table 12b4 (corresponding to the phonetic symbol “li: d” obtained from the explanation information (G2) of the designated word “lead 1 ”. The phonetic symbol command [liyd] for the speech synthesis engine 21 is determined (see FIG. 4) (step D1), and the designated word text “lead 1 ”, which is the target of speech output, is determined in advance before the phonetic symbol command [liyd]. The phonetic symbol use command [<phoneme> ON] is added to the phonetic phonetic symbol command [<phoneme> ON] [liyd] (step D2).

すると、この説明情報中の発音記号「li:d」に従い生成された指定の単語である動詞の「lead1」の単語音声発音記号コマンド[<phoneme>ON][liyd]が音声合成エンジン21に送出されることで(ステップD3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」の単語音声信号が生成されスピーカ18から出力される(ステップAD→A7,A8)。 Then, the word phonetic phonetic command [<phoneme> ON] [liyd] of the verb “lead 1 ”, which is the designated word generated according to the phonetic symbol “li: d” in the explanation information, is sent to the speech synthesis engine 21. By being transmitted (step D3), the speech synthesis engine 21 generates a word speech signal of pronunciation “lead” corresponding to the verb “lead 1 ” and outputs it from the speaker 18 (steps AD → A7, A8). ).

一方、例えば図11(B)に示すように、指定の単語「lead2」の説明情報(G2)中をサーチしてもその品詞情報が存在しない場合であって(ステップA1〜A4(No))、発音記号「led」が存在していると判断され(ステップA5(Yes))、図10における単語:発音記号対応処理(ステップAD)に移行されると、当該指定単語「lead2」の説明情報(G2)中から得られた発音記号「led」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[lehd]が決定される(ステップD1)。 On the other hand, for example, as shown in FIG. 11B, the part of speech information does not exist even if the description information (G2) of the designated word “lead 2 ” is searched (steps A1 to A4 (No)). ), It is determined that the phonetic symbol “led” exists (step A5 (Yes)), and when the processing proceeds to the word: phonetic symbol correspondence processing (step AD) in FIG. 10, the designated word “lead 2 ” Corresponding to the phonetic symbol “led” obtained from the explanation information (G2), the phonetic symbol command [lehd] for the speech synthesis engine 21 is determined from the phonetic symbol conversion table 12b4 (see FIG. 4) (step D1). .

すると、音声出力対象である指定の単語テキスト「lead2」が前記発音記号コマンド[lehd]の前に所定の発音記号使用コマンド[<phoneme>ON]を付加した単語音声発音記号コマンド[<phoneme>ON][lehd]に変換生成される(ステップD2)。 Then, the specified word text “lead 2 ”, which is a voice output target, has a word phonetic symbol command [<phoneme> with a predetermined phonetic symbol use command [<phoneme> ON] added before the phonetic symbol command [lehd]. ON] [lehd] is generated (step D2).

すると、この説明情報中の発音記号「led」に従い生成された指定の単語である名詞の「lead2」の単語音声発音記号コマンド[<phoneme>ON][lehd]が音声合成エンジン21に送出されることで(ステップD3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」の単語音声信号が生成されスピーカ18から出力される(ステップAD→A7,A8)。 Then, the phonetic symbol command [<phoneme> ON] [lehd] of the noun “lead 2 ”, which is the designated word generated according to the phonetic symbol “led” in the explanation information, is sent to the speech synthesis engine 21. Thus (step D3), the speech synthesis engine 21 generates a word speech signal of pronunciation “red” corresponding to the noun “lead 2 ” and outputs it from the speaker 18 (steps AD → A7, A8).

これにより、音声出力対象の指定単語が、動詞である場合と名詞である場合とで異なる発音であったとしても、当該指定単語の説明情報中に存在する品詞記号または発音記号に従って音声合成エンジン21に対するそれぞれ対応した単語音声出力コマンドを生成できるので、品詞の違いによって異なる発音音声も正確に音声出力してユーザに誤り無く学習させることができる。   As a result, even if the designated word to be output is a verb and a noun, the speech synthesis engine 21 according to the part-of-speech symbol or phonetic symbol present in the explanation information of the designated word. Therefore, it is possible to generate a voice output command corresponding to each of the voices, so that different pronunciation sounds depending on the part of speech can be output accurately and the user can learn without error.

一方、前記音声出力対象の指定単語の説明情報中に、当該単語の品詞情報と発音記号との何れもが存在しないと判断された場合には(ステップA1〜A5(No))、当該指定の単語テキストがそのまま音声合成エンジン21へ送出され、当該単語テキストの個々の文字に対応した合成音声が生成されて1単語の発音音声としてスピーカ18から出力される(ステップA6〜A8)。   On the other hand, when it is determined that neither the part-of-speech information of the word nor the phonetic symbol is present in the explanation information of the designated word to be output (steps A1 to A5 (No)), The word text is sent to the speech synthesis engine 21 as it is, and synthesized speech corresponding to each character of the word text is generated and output from the speaker 18 as a pronunciation sound of one word (steps A6 to A8).

図12は、前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う例文音声出力処理(ステップSB)を示すフローチャートである。   FIG. 12 is a flowchart showing an example sentence voice output process (step SB) accompanying the dictionary search process with voice output of the portable device (electronic dictionary) 10.

図13は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の語義分類の品詞情報から音声合成コマンドを生成するための例文:品詞対応処理(ステップBE)を示すフローチャートである。   FIG. 13 shows an example sentence: part-of-speech correspondence process (step BE) for generating a speech synthesis command from the part-of-speech information of the meaning classification of the specified example sentence accompanying the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a flowchart to show.

図14は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:品詞対応処理(ステップBE)が起動される場合の指定例文中見出語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図である。   FIG. 14 shows a part-of-speech symbol of a headword in a specified example sentence when an example sentence: part-of-speech correspondence process (step BE) is started in accordance with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the description information display screen G2 and the example sentence speech synthesis command based on this.

例えば図14に示すように、英単語の「lead」が検索されると共に、図14(A2)に示すように、その説明情報表示画面G2における動詞の「lead1」の例文「lead a horse by the bridle」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動されると(ステップS1〜S4,S8〜S11→SB)、まず、当該指定の例文「lead a horse by the bridle」の説明情報における語義分類から品詞記号が検知され(ステップB1)、検索中である見出語の品詞記号の有無が判断される(ステップB2)。 For example, as shown in FIG. 14, the English word “lead” is searched, and as shown in FIG. 14 (A2), the example sentence “lead a horse by” of the verb “lead 1 ” in the explanation information display screen G2 is searched. When the example sentence speech output process in FIG. 12 is started by designating “the bridle” as a speech output target example sentence (steps S1 to S4, S8 to S11 → SB), first, the designated example sentence “lead a A part-of-speech symbol is detected from the meaning classification in the explanation information of “horse by the bridle” (step B1), and the presence / absence of the part-of-speech symbol of the headword being searched is determined (step B2).

ここで、図14(A)に示すように、指定の例文「lead a horse by the bridle」のある説明情報における語義分類から品詞記号「動」Mが検知されたと判断されると(ステップB2(Yes))、図13における例文:品詞対応処理(ステップBE)に移行される。   Here, as shown in FIG. 14A, when it is determined that the part-of-speech symbol “movement” M is detected from the meaning classification in the explanation information having the designated example sentence “lead a horse by the bridle” (step B2 ( Yes)), the process proceeds to the example sentence in FIG. 13: part-of-speech correspondence process (step BE).

この例文:品詞対応処理が起動されると、前記指定の例文「lead a horse by the bridle」のある説明情報(G2)中から得られた動詞の品詞記号である「動」Mに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>verb]が決定され(ステップE1)、音声出力対象である指定の例文テキスト「lead a horse by the bridle」の強調文字や斜体文字などで記述された見出語「lead」(または“〜”マーク)の前に追加されて例文音声合成コマンド「[<pron>verb]lead1 a horse by the bridle」が生成される(ステップE2)。 This example: When the part-of-speech correspondence processing is activated, the dictionary name is determined according to the verb part-of-speech symbol “movement” M obtained from the description information (G2) of the specified example sentence “lead a horse by the bridle”. -An additional command code [<pron> verb] for speech synthesis is determined from the part-of-speech / command table 12b3 (see FIG. 3) (step E1), and the designated example sentence text "lead a horse by the bridle" that is the target of speech output An example sentence speech synthesis command "[<pron> verb] lead 1 a horse by the bridle" is added before the headword "lead" (or "~" mark) written in emphasis or italic letters Is generated (step E2).

すると、この品詞記号「動」Mに従い生成された動詞の見出語「lead1」を含む例文「lead a horse by the bridle」に対応する例文音声合成コマンド「[<pron>verb]lead1 a horse by the bridle」が音声合成エンジン21に送出されることで(ステップE3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBE→B6,B7)。 Then, the example sentence speech synthesis command “[<pron> verb] lead 1 a” corresponding to the example sentence “lead a horse by the bridle” including the verb headword “lead 1 ” generated according to the part of speech symbol “movement” M. By sending “horse by the bridle” to the speech synthesis engine 21 (step E3), the speech synthesis engine 21 generates a speech signal of a specified example sentence including the pronunciation “lead” corresponding to the verb “lead 1 ”. Generated and output from the speaker 18 (steps BE → B6, B7).

一方、図14(B2)に示すように、検索見出語「lead」の説明情報表示画面G2における名詞の「lead2」の例文「a lead pipe」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された場合に(ステップS1〜S4,S8〜S11→SB)、図14(B1)に示すように、指定の例文「a lead pipe」のある説明情報における語義分類から品詞記号「名」Nが検知されたと判断されると(ステップB2(Yes))、図13における例文:品詞対応処理(ステップBE)に移行される。 On the other hand, as shown in FIG. 14 (B2), the example sentence “a lead pipe” of the noun “lead 2 ” in the explanation information display screen G2 of the search headword “lead” is designated as an example sentence for voice output. Then, when the example sentence voice output process in FIG. 12 is activated (steps S1 to S4, S8 to S11 → SB), as shown in FIG. 14 (B1), there is explanatory information with the specified example sentence “a lead pipe”. If it is determined that the part-of-speech symbol “name” N is detected from the meaning classification in FIG. 13 (step B2 (Yes)), the process proceeds to the example sentence: part-of-speech correspondence process (step BE) in FIG.

この例文:品詞対応処理が起動されると、前記指定の例文「a lead pipe」のある説明情報(G2)中から得られた名詞の品詞記号である「名」Nに従い、辞書名・品詞・コマンドテーブル12b3(図3参照)から音声合成用の追加コマンドコード[<pron>noun]が決定され(ステップE1)、音声出力対象である指定の例文テキスト「a lead pipe」の強調文字や斜体文字などで記述された見出語「lead」(または“〜”マーク)の前に追加されて例文音声合成コマンド「a[<pron>noun]lead2 pipe」が生成される(ステップE2)。 This example sentence: When the part-of-speech correspondence processing is activated, the dictionary name, part-of-speech, An additional command code [<pron> noun] for speech synthesis is determined from the command table 12b3 (see FIG. 3) (step E1), and the emphasis and italic characters of the designated example sentence text “a lead pipe” that is the target of speech output The example sentence speech synthesis command “a [<pron> noun] lead 2 pipe” is generated before the head word “lead” (or “˜” mark) described in the above (step E2).

すると、この品詞記号「名」Nに従い生成された名詞の見出語「lead2」を含む例文「a lead pipe」に対応する例文音声合成コマンド「a[<pron>noun]lead2 pipe」が音声合成エンジン21に送出されることで(ステップE3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBE→B6,B7)。 Then, the example sentence speech synthesis command “a [<pron> noun] lead 2 pipe” corresponding to the example sentence “a lead pipe” including the headword “lead 2 ” of the noun generated according to the part of speech symbol “name” N is By being sent to the speech synthesis engine 21 (step E3), the speech synthesis engine 21 generates a speech signal of a specified example sentence including the pronunciation “red” corresponding to the noun “lead 2 ” and outputs it from the speaker 18. (Steps BE → B6, B7).

図15は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の見出語発音記号から音声合成コマンドを生成するための例文:発音記号対応処理(ステップBF)を示すフローチャートである。   FIG. 15 shows an example sentence: phonetic symbol correspondence process (step BF) for generating a speech synthesis command from a headword pronunciation symbol of a specified example sentence accompanying the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a flowchart which shows.

図16は、前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:発音記号対応処理(ステップBF)が起動される場合の指定例文中見出語の発音記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図である。   FIG. 16 shows the pronunciation symbol of the headword in the specified example sentence when the example sentence: phonetic symbol correspondence process (step BF) is started in accordance with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10. It is a figure explaining the specific production | generation example of the explanatory information display screen G2 to be performed, and the example sentence speech synthesis command based on this.

例えば図16(A2)に示すように、検索見出語「lead」の説明情報表示画面G2における動詞の「lead1」の例文「lead a horse by the bridle」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された際に(ステップS1〜S4,S8〜S11→SB)、当該指定の例文「lead a horse by the bridle」の説明情報における語義分類から品詞記号が検知されず(ステップB1,B2(No))、図16(A1)に示すように、同説明情報の前方サーチによって発音記号「li:d」が存在していると判断されると(ステップB3,B4(Yes))、図15における例文:発音記号対応処理(ステップBF)に移行される。 For example, as shown in FIG. 16 (A2), the example sentence “lead a horse by the bridle” of the verb “lead 1 ” in the explanation information display screen G2 of the search head word “lead” is designated as an example sentence for voice output. Thus, when the example sentence voice output process in FIG. 12 is started (steps S1 to S4, S8 to S11 → SB), the part of speech is determined from the meaning classification in the explanation information of the designated example sentence “lead a horse by the bridle”. When no symbol is detected (steps B1 and B2 (No)), as shown in FIG. 16A1, it is determined that the phonetic symbol “li: d” exists by a forward search of the explanation information ( Steps B3 and B4 (Yes)), the process proceeds to the example sentence: phonetic symbol correspondence process (Step BF) in FIG.

この例文:発音記号対応処理が起動されると、前記指定の例文「lead a horse by the bridle」のある説明情報(G2)中から得られた発音記号「li:d」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[liyd]が決定される(ステップF1)。そして、音声出力対象である指定の例文テキスト「lead a horse by the bridle」が、その見出語「lead」の部分を所定の発音記号使用コマンド[<phoneme>ON]+前記発音記号コマンド[liyd]に変換してなる例文音声発音記号コマンド「[<phoneme>ON][liyd]a horse by the bridle」として生成される(ステップF2)。   This example: When the phonetic symbol handling process is activated, the phonetic pronunciation corresponding to the phonetic symbol “li: d” obtained from the explanation information (G2) of the specified example sentence “lead a horse by the bridle” The phonetic symbol command [liyd] for the speech synthesis engine 21 is determined from the symbol conversion table 12b4 (see FIG. 4) (step F1). Then, the designated example sentence text “lead a horse by the bridle”, which is a voice output target, uses a predetermined phonetic symbol use command [<phoneme> ON] + the phonetic symbol command [liyd] ] Is generated as an example phonetic phonetic symbol command “[<phoneme> ON] [liyd] a horse by the bridle” (step F2).

すると、この説明情報中の発音記号「li:d」に従い生成された動詞の見出語「lead1」を含む例文「lead a horse by the bridle」に対応する例文音声合成コマンド「[<phoneme>ON][liyd]a horse by the bridle」が音声合成エンジン21に送出されることで(ステップF3)、当該音声合成エンジン21にて動詞の「lead1」に対応した発音「リード」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBF→B6,B7)。 Then, the example speech synthesis command “[<phoneme>” corresponding to the example sentence “lead a horse by the bridle” including the verb headword “lead 1 ” generated according to the phonetic symbol “li: d” in the explanation information "ON] [liyd] a horse by the bridle" is sent to the speech synthesis engine 21 (step F3), and the speech synthesis engine 21 includes the pronunciation "lead" corresponding to the verb "lead 1 " Is generated and output from the speaker 18 (steps BF → B6, B7).

一方、図16(B2)に示すように、検索見出語「lead」の説明情報表示画面G2における名詞の「lead2」の例文「a lead pipe」が音声出力対象の例文として指定されることで、図12における例文音声出力処理が起動された場合に(ステップS1〜S4,S8〜S11→SB)、当該指定の例文「a lead pipe」のある説明情報における語義分類から品詞記号が検知されず(ステップB1,B2(No))、図16(B1)に示すように、同説明情報の前方サーチによって発音記号「led」が存在していると判断されると(ステップB3,B4(Yes))、図15における例文:発音記号対応処理(ステップBF)に移行される。 On the other hand, as shown in FIG. 16 (B2), the example sentence “a lead pipe” of the noun “lead 2 ” in the explanation information display screen G2 of the search headword “lead” is designated as an example sentence for voice output. Then, when the example sentence voice output process in FIG. 12 is activated (steps S1 to S4, S8 to S11 → SB), the part of speech symbol is detected from the meaning classification in the explanatory information with the designated example sentence “a lead pipe”. (Steps B1 and B2 (No)), as shown in FIG. 16 (B1), if it is determined that the phonetic symbol “led” exists by forward search of the explanation information (Steps B3 and B4 (Yes) )), The flow proceeds to the example sentence: phonetic symbol correspondence process (step BF) in FIG.

この例文:発音記号対応処理が起動されると、前記指定の例文「a lead pipe」のある説明情報(G2)中から得られた発音記号「led」に対応して、発音記号変換テーブル12b4(図4参照)から音声合成エンジン21に対する発音記号コマンド[lehd]が決定される(ステップF1)。そして、音声出力対象である指定の例文テキスト「a lead pipe」が、その見出語「lead」の部分を所定の発音記号使用コマンド[<phoneme>ON]+前記発音記号コマンド[lehd]に変換してなる例文音声発音記号コマンド「a[<phoneme>ON][lehd]pipe」として生成される(ステップF2)。   This example: When the phonetic symbol correspondence process is started, the phonetic symbol conversion table 12b4 (in correspondence with the phonetic symbol “led” obtained from the explanation information (G2) of the specified example sentence “a lead pipe”. The phonetic symbol command [lehd] for the speech synthesis engine 21 is determined from (see FIG. 4) (step F1). Then, the specified example sentence text “a lead pipe”, which is a voice output target, converts the headword “lead” part into a predetermined phonetic symbol use command [<phoneme> ON] + the phonetic symbol command [lehd] An example sentence phonetic symbol command “a [<phoneme> ON] [lehd] pipe” is generated (step F2).

すると、この説明情報中の発音記号「led」に従い生成された名詞の見出語「lead2」を含む例文「a lead pipe」に対応する例文音声合成コマンド「a[<phoneme>ON][lehd]pipe」が音声合成エンジン21に送出されることで(ステップF3)、当該音声合成エンジン21にて名詞の「lead2」に対応した発音「レッド」を含む指定の例文の音声信号が生成されスピーカ18から出力される(ステップBF→B6,B7)。 Then, the example sentence speech synthesis command “a [<phoneme> ON] [lehd” corresponding to the example sentence “a lead pipe” containing the noun “lead 2 ” of the noun generated according to the phonetic symbol “led” in the explanation information ] pipe "is sent to the speech synthesis engine 21 (step F3), and the speech synthesis engine 21 generates a speech signal of a specified example sentence including the pronunciation" red "corresponding to the noun" lead 2 ". Output from the speaker 18 (steps BF → B6, B7).

これにより、音声出力対象の指定例文に含まれる検索見出語が、動詞である場合と名詞である場合とで異なる発音であったとしても、当該指定例文の説明情報中に存在する当該見出語の品詞記号または発音記号に従って音声合成エンジン21に対するそれぞれ対応した例文音声出力コマンドを生成できるので、例文中の見出語の品詞の違いによって異なる発音音声も正確に音声出力してユーザに誤り無く学習させることができる。   As a result, even if the search headword included in the designated example sentence to be output is different in pronunciation from a verb and a noun, the headword that exists in the explanation information of the designated example sentence According to the part-of-speech symbol or the phonetic symbol of the word, the corresponding example sentence voice output command to the speech synthesis engine 21 can be generated. You can learn.

一方、前記音声出力対象の指定例文に対応した見出語説明情報中に、当該見出語の品詞情報と発音記号との何れもが存在しないと判断された場合には(ステップB1〜B4(No))、当該指定の例文テキストがそのまま音声合成エンジン21へ送出され、当該例文テキストの個々の文字に対応した合成音声が生成されて例文発音音声としてスピーカ18から出力される(ステップB5〜B7)。   On the other hand, if it is determined that neither the part-of-speech information of the entry word nor the phonetic symbol is present in the entry word explanation information corresponding to the designated example sentence to be output as a voice (steps B1 to B4 ( No)), the designated example sentence text is sent to the speech synthesis engine 21 as it is, and synthesized speech corresponding to each character of the example sentence text is generated and output from the speaker 18 as example sentence pronunciation speech (steps B5 to B7). ).

したがって、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能によれば、辞書データ12b1から検索され表示された所望の見出語(単語)の説明情報表示画面G2において、発音音声の出力対象として任意の単語または例文が指定されると、当該指定の単語または例文中に含まれた見出語の辞書説明情報中に存在する品詞記号である「動」Mや「名」Nが検知され、この品詞記号に応じて予め設定された音声合成コマンド[<pron>verb]や[<pron>noun]を指定の単語や例文中の見出語の直前に追加してなる単語または例文の音声合成コマンドを生成し、これを音声合成エンジン21に与えて音声合成出力処理するので、音声出力対象の指定単語または指定例文中の見出語が、その品詞の違いによって異なる発音であったとしても、これを正確に音声合成出力して指定単語または指定例文の発音音声をユーザに誤り無く学習させることができる。   Therefore, according to the dictionary search function and the voice output function by the mobile device (electronic dictionary) 10 having the above-described configuration, the pronunciation information is displayed on the explanation information display screen G2 of the desired headword (word) searched and displayed from the dictionary data 12b1. When an arbitrary word or example sentence is designated as a speech output target, “motion” M or “name” which are part-of-speech symbols existing in the dictionary explanation information of the headword included in the designated word or example sentence N is detected and a word is created by adding a speech synthesis command [<pron> verb] or [<pron> noun] set in advance according to this part-of-speech symbol immediately before the specified word or headword in the example sentence. Alternatively, a speech synthesis command for an example sentence is generated and given to the speech synthesis engine 21 for speech synthesis output processing, so that the specified word to be output or the headword in the specified example sentence has a different pronunciation depending on the part of speech. If there was Also, this can be without error learning accurately the user to pronounce the voice of a specified word or specified sentence to speech synthesis output.

また、前記構成の携帯機器(電子辞書)10による辞書検索機能および音声出力機能において、指定の単語または例文中の見出語の辞書説明情報中から品詞記号が検知されない場合には、さらに当該辞書説明情報中の発音記号が検知され、この発音記号を音声合成用の発音記号コマンドに変換すると共に、所定の発音記号使用コマンド[<phoneme>ON]+発音記号コマンドを指定の単語または例文中の見出語と置き換えてなる単語または例文の音声合成コマンドを生成し、これを音声合成エンジン21に与えて音声合成出力処理するので、この場合にも前記品詞記号を検知した場合と同様に、音声出力対象の指定単語または指定例文中の見出語が、その品詞の違いによって異なる発音であったとしても、これを正確に音声合成出力して指定単語または指定例文の発音音声をユーザに誤り無く学習させることができる。   Further, in the dictionary search function and voice output function by the mobile device (electronic dictionary) 10 having the above-described configuration, if no part of speech symbol is detected from the dictionary explanation information of the specified word or the headword in the example sentence, the dictionary further includes A phonetic symbol in the description information is detected, and this phonetic symbol is converted into a phonetic symbol command for speech synthesis, and a predetermined phonetic symbol use command [<phoneme> ON] + phonetic symbol command is added to the specified word or example sentence. A speech synthesis command of a word or example sentence replaced with a headword is generated, and this is given to the speech synthesis engine 21 for speech synthesis output processing. In this case as well, as in the case where the part-of-speech symbol is detected, the speech synthesis command is used. Even if the specified word to be output or the headword in the specified example sentence has a different pronunciation depending on the part of speech, The user can learn the pronunciation sound of the specified example sentence without error.

なお、前記各実施形態において記載した携帯機器(電子辞書)10による各処理の手法、すなわち、図5のフローチャートに示す音声出力付き辞書検索処理、図7のフローチャートに示す前記音声出力付き辞書検索処理に伴う単語音声出力処理、図8のフローチャートに示す前記単語音声出力処理に伴う単語:品詞対応処理、図10のフローチャートに示す前記単語音声出力処理に伴う単語:発音記号対応処理、図12のフローチャートに示す前記音声出力付き辞書検索処理に伴う例文音声出力処理、図13のフローチャートに示す前記例文音声出力処理に伴う例文:品詞対応処理、図15のフローチャートに示す前記例文音声出力処理に伴う例文:発音記号対応処理などでの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)13、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体に格納して配布することができる。そして、辞書のデータベース(12b)を有する種々のコンピュータ端末は、この外部記憶媒体に記憶されたプログラムをプログラムROM12aに読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した辞書検索・音声合成出力機能を実現し、前述した手法による同様の処理を実行することができる。   Note that each processing method by the portable device (electronic dictionary) 10 described in each of the embodiments, that is, the dictionary search process with voice output shown in the flowchart of FIG. 5, and the dictionary search process with voice output shown in the flowchart of FIG. , Word speech output processing accompanying the word speech output processing shown in the flowchart of FIG. 8: part of speech correspondence processing, word accompanying the word speech output processing shown in the flowchart of FIG. 10: phonetic symbol correspondence processing, flowchart of FIG. Example sentence voice output process accompanying the dictionary search process with voice output shown in FIG. 13, Example sentence accompanying the example sentence voice output process shown in the flowchart of FIG. 13: Part of speech correspondence process, Example sentence accompanying the example sentence voice output process shown in the flowchart of FIG. Each method in phonetic symbol handling processing etc. is a program that can be executed by a computer. As a memory card (ROM card, RAM card, etc.) 13, magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), and an external storage medium such as a semiconductor memory for distribution. it can. The various computer terminals having the dictionary database (12b) read the program stored in the external storage medium into the program ROM 12a, and the operation is controlled by the read program. A dictionary search / speech synthesis output function can be realized, and the same processing as described above can be executed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)から前記のプログラムデータを取り込み、前述した辞書検索・音声合成出力機能を実現することもできる。   Further, program data for realizing each of the above methods can be transmitted on a communication network (Internet) N as a program code form, and a computer terminal (program server) connected to the communication network (Internet) N ) To obtain the above-described dictionary search / speech synthesis output function.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.

本発明の音声出力機能付き情報表示制御装置の実施形態に係る携帯機器(電子辞書)10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the portable apparatus (electronic dictionary) 10 which concerns on embodiment of the information display control apparatus with an audio | voice output function of this invention. 前記携帯機器(電子辞書)10のプログラムROM12a、データベースROM12b、RAM12cに記憶されるデータの内容を示す図。The figure which shows the content of the data memorize | stored in program ROM12a, database ROM12b, and RAM12c of the said portable device (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10のデータベースROM12bに記憶される辞書名・品詞・コマンドテーブル12b3のテーブルデータを示す図。The figure which shows the table data of the dictionary name / part of speech / command table 12b3 memorize | stored in database ROM12b of the said portable apparatus (electronic dictionary) 10. 前記携帯機器(電子辞書)10のデータベースROM12bに記憶される発音記号変換テーブル12b4のテーブルデータを示す図。The figure which shows the table data of the phonetic symbol conversion table 12b4 memorize | stored in database ROM12b of the said portable apparatus (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10による音声出力付き辞書検索処理の全体処理を示すフローチャート。5 is a flowchart showing overall processing of dictionary search processing with voice output by the portable device (electronic dictionary) 10; 前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴うキー操作対応の表示動作を示す図。The figure which shows the display operation corresponding to key operation accompanying the dictionary search process with audio | voice output of the said portable device (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う単語音声出力処理(ステップSA)を示すフローチャート。The flowchart which shows the word audio | voice output process (step SA) accompanying the dictionary search process with audio | voice output of the said portable device (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の品詞情報から音声合成コマンドを生成するための単語:品詞対応処理(ステップAC)を示すフローチャート。The flowchart which shows the word: part-of-speech correspondence process (step AC) for producing | generating a speech synthesis command from the part-of-speech information of a designated word accompanying the word voice output process (step SA) of the said portable apparatus (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:品詞対応処理(ステップAC)が起動される場合の指定単語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図。Explanation information display screen G2 in which the part-of-speech symbol of the designated word exists when the word: part-of-speech correspondence process (step AC) is started in accordance with the word voice output process (step SA) of the portable device (electronic dictionary) 10 and The figure explaining the specific production | generation example of the word speech synthesis command based on. 前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い指定単語の発音記号から音声合成コマンドを生成するための単語:発音記号対応処理(ステップAD)を示すフローチャート。7 is a flowchart showing a word: phonetic symbol correspondence process (step AD) for generating a speech synthesis command from a phonetic symbol of a designated word in accordance with the word voice output process (step SA) of the portable device (electronic dictionary) 10. 前記携帯機器(電子辞書)10の単語音声出力処理(ステップSA)に伴い単語:発音記号対応処理(ステップAD)が起動される場合の指定単語の発音記号が存在する説明情報表示画面G2およびこれに基づいた単語音声合成コマンドの具体的生成例を説明する図。Explanation information display screen G2 in which the phonetic symbol of the designated word exists when the word: phonetic symbol correspondence processing (step AD) is started in accordance with the word voice output processing (step SA) of the portable device (electronic dictionary) 10 and this The example explaining the specific production | generation of the word speech synthesizing command based on the. 前記携帯機器(電子辞書)10の音声出力付き辞書検索処理に伴う例文音声出力処理(ステップSB)を示すフローチャート。10 is a flowchart showing an example sentence voice output process (step SB) accompanying a dictionary search process with voice output of the portable device (electronic dictionary) 10; 前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の語義分類の品詞情報から音声合成コマンドを生成するための例文:品詞対応処理(ステップBE)を示すフローチャート。The flowchart which shows the example sentence: part-of-speech correspondence process (step BE) for producing | generating a speech synthesis command from the part-of-speech information of the meaning classification of a designated example sentence accompanying the example sentence audio | voice output process (step SB) of the said portable apparatus (electronic dictionary) 10. FIG. 前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:品詞対応処理(ステップBE)が起動される場合の指定例文中見出語の品詞記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図。Explanation information display screen in which a part-of-speech symbol of a headword in a specified example sentence exists when an example sentence: part-of-speech correspondence process (step BE) is started in association with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10 The figure explaining the specific production | generation example of G2 and an example sentence speech synthesis command based on this. 前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い指定例文の見出語発音記号から音声合成コマンドを生成するための例文:発音記号対応処理(ステップBF)を示すフローチャート。7 is a flowchart showing an example sentence: phonetic symbol correspondence process (step BF) for generating a speech synthesis command from a headword phonetic symbol of a specified example sentence accompanying the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10; 前記携帯機器(電子辞書)10の例文音声出力処理(ステップSB)に伴い例文:発音記号対応処理(ステップBF)が起動される場合の指定例文中見出語の発音記号が存在する説明情報表示画面G2およびこれに基づいた例文音声合成コマンドの具体的生成例を説明する図。Explanation information display in which the phonetic symbol of the headword in the specified example sentence exists when the example sentence: phonetic symbol correspondence process (step BF) is started in accordance with the example sentence voice output process (step SB) of the portable device (electronic dictionary) 10 The figure explaining the specific production | generation example of the screen G2 and the example sentence speech synthesis command based on this.

符号の説明Explanation of symbols

10 …携帯機器(電子辞書)
11 …CPU
12a…プログラムROM
12a1…辞書検索処理プログラム
12a2…合成音声出力処理プログラム
12a3…音声合成処理プログラム
12b…データベースROM
12b1…辞書データ
12b2…音声データ
12b3…辞書名・品詞・コマンドテーブル
12b4…発音記号変換テーブル
12c…RAM
12c1…入力文字メモリ
12c2…検索見出語メモリ
12c3…見出語情報指定位置メモリ
12c4…出力指定文字列メモリ
12c5…品詞対応追加コマンドメモリ
12c6…発音記号対応変換コマンドメモリ
13 …メモリカード
14 …キーボード(Key)
14a…「英和」キー
14b…「訳/決定」キー
14c…「音声」キー
14d…カーソルキー
14e…「例文」キー
15 …タッチパネル
16 …入力部
17 …表示部(LCD)
18 …スピーカ
18a…アンプ(Amp)
19 …電源回路
21 …音声合成エンジン
B …電池電源
G1…検索文字入力画面
G2…説明情報表示画面
K …反転カーソル
M …動詞の品詞記号
N …名詞の品詞記号
10 ... Mobile device (electronic dictionary)
11 ... CPU
12a ... Program ROM
12a1 ... dictionary search processing program 12a2 ... synthesized speech output processing program 12a3 ... speech synthesis processing program 12b ... database ROM
12b1 ... Dictionary data 12b2 ... Audio data 12b3 ... Dictionary name / part of speech / command table 12b4 ... Phonetic symbol conversion table 12c ... RAM
12c1 ... Input character memory 12c2 ... Search word memory 12c3 ... Head word information designation position memory 12c4 ... Output designation character string memory 12c5 ... Part of speech correspondence addition command memory 12c6 ... Phonetic symbol correspondence conversion command memory 13 ... Memory card 14 ... Keyboard (Key)
14a ... "English-Japanese" key 14b ... "Translation / OK" key 14c ... "Voice" key 14d ... Cursor key 14e ... "Example sentence" key 15 ... Touch panel 16 ... Input unit 17 ... Display unit (LCD)
18 ... Speaker 18a ... Amplifier (Amp)
DESCRIPTION OF SYMBOLS 19 ... Power supply circuit 21 ... Speech synthesis engine B ... Battery power supply G1 ... Search character input screen G2 ... Explanation information display screen K ... Reverse cursor M ... Part-of-speech symbol N ... Part-of-speech symbol

Claims (6)

指定の見出語の説明情報を表示させる情報表示制御手段と、この情報表示制御手段により表示された説明情報中の指定部分の音声を出力する音声出力手段とを備えた音声出力機能付き情報表示制御装置であって、
前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段と、
前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を出力させる音声出力制御手段と、
を備え
前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴とする音声出力機能付き情報表示制御装置。
Information display with voice output function comprising information display control means for displaying the explanation information of the designated headword and voice output means for outputting the voice of the designated portion in the explanation information displayed by the information display control means A control device,
Predetermined information detecting means for detecting predetermined information in the explanation information of the headword displayed by the information display control means;
When outputting the sound of the designated portion by the sound output means, the sound for outputting the sound of the headword portion of the designated portion using the predetermined information detected by the predetermined information detecting means Output control means;
Equipped with a,
The voice output control means, when the designated part is a sentence, outputs a voice using predetermined information detected by the predetermined information detection means by using a predetermined mark part in the sentence as a headword part. An information display control device with a voice output function.
前記所定情報検知手段により検知される所定の情報は品詞の情報であり、
前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された品詞の情報を用いて音声を出力させる品詞対応音声出力制御手段を有する、
ことを特徴とする請求項1に記載の音声出力機能付き情報表示制御装置。
The predetermined information detected by the predetermined information detecting means is part of speech information,
The voice output control means, when outputting the voice by the voice output means, the voice of the headword part of the designated part is used as the voice using the part of speech information detected by the predetermined information detection means. Having a part-of-speech-corresponding voice output control means to output,
The information display control device with a voice output function according to claim 1.
前記所定情報検知手段により検知される所定の情報は発音記号であり、
前記音声出力制御手段は、前記音声出力手段により音声を出力させる際に、前記指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された発音記号を用いて音声を出力させる発音記号対応音声出力制御手段を有する、
ことを特徴とする請求項1に記載の音声出力機能付き情報表示制御装置。
The predetermined information detected by the predetermined information detecting means is a phonetic symbol,
The voice output control means outputs the voice of the headword part of the designated portion using the pronunciation symbol detected by the predetermined information detection means when outputting the voice by the voice output means. Having phonetic symbol-corresponding voice output control means
The information display control device with a voice output function according to claim 1.
前記発音記号対応音声出力制御手段は、前記所定情報検知手段により検知された発音記号に対応する音声出力コマンドを取得して前記音声出力手段により音声を出力させることを特徴とする請求項3に記載の音声出力機能付き情報表示制御装置。   4. The phonetic symbol corresponding voice output control means acquires a voice output command corresponding to a phonetic symbol detected by the predetermined information detection means, and causes the voice output means to output a voice. Information display control device with voice output function. 前記所定情報検知手段は、前記指定部分である単語が当該単語に対応するところの説明情報中の先頭の見出語である場合にはその後方にある説明情報中の所定の情報を検知し、先頭の見出語以外の単語である場合にはその前方にある説明情報中の所定の情報を検知することを特徴とする請求項1ないし請求項4の何れか1項に記載の音声出力機能付き情報表示制御装置。   The predetermined information detection means detects the predetermined information in the explanation information at the back of the word, which is the designated portion, when the first headword in the explanation information corresponding to the word, The voice output function according to any one of claims 1 to 4, wherein when the word is a word other than the first headword, predetermined information in the explanatory information preceding the headword is detected. Attached information display control device. 指定の見出語の説明情報を表示させる情報表示制御手段と、この情報表示制御手段により表示された説明情報中の指定部分の音声を出力する音声出力手段とを備えた音声出力機能付き情報表示制御装置のコンピュータを制御するための制御プログラムであって、
前記コンピュータを、
前記情報表示制御手段により表示された見出語の説明情報中の所定の情報を検知する所定情報検知手段、
前記音声出力手段により前記指定部分の音声を出力させる際に、当該指定部分のうちの見出語部分の音声を、前記所定情報検知手段により検知された所定の情報を用いて音声を出力させる音声出力制御手段、
として機能させ
前記音声出力制御手段は、前記指定部分が文である場合に、当該文中の所定マーク部分を見出語部分として前記所定情報検知手段により検知された所定の情報を用いて音声を出力させることを特徴とするコンピュータ読み込み可能な音声出力機能付き情報表示制御装置の制御プログラム。
Information display with voice output function comprising information display control means for displaying the explanation information of the designated headword and voice output means for outputting the voice of the designated portion in the explanation information displayed by the information display control means A control program for controlling a computer of a control device,
The computer,
Predetermined information detecting means for detecting predetermined information in the explanation information of the headword displayed by the information display control means;
When outputting the sound of the designated portion by the sound output means, the sound for outputting the sound of the headword portion of the designated portion using the predetermined information detected by the predetermined information detecting means Output control means,
To function as,
The voice output control means, when the designated part is a sentence, outputs a voice using predetermined information detected by the predetermined information detection means by using a predetermined mark part in the sentence as a headword part. A computer-readable control program for an information display control device with an audio output function.
JP2005286354A 2005-09-30 2005-09-30 Information display control device with voice output function and control program thereof Active JP4677869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005286354A JP4677869B2 (en) 2005-09-30 2005-09-30 Information display control device with voice output function and control program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005286354A JP4677869B2 (en) 2005-09-30 2005-09-30 Information display control device with voice output function and control program thereof

Publications (2)

Publication Number Publication Date
JP2007094269A JP2007094269A (en) 2007-04-12
JP4677869B2 true JP4677869B2 (en) 2011-04-27

Family

ID=37980022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005286354A Active JP4677869B2 (en) 2005-09-30 2005-09-30 Information display control device with voice output function and control program thereof

Country Status (1)

Country Link
JP (1) JP4677869B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842452B2 (en) 2011-08-10 2016-01-13 カシオ計算機株式会社 Speech learning apparatus and speech learning program
JP6389289B2 (en) * 2017-01-19 2018-09-12 有限会社トピックメーカー Language teaching material creation system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330998A (en) * 1999-05-20 2000-11-30 Seiko Instruments Inc Pronouncing electronic dictionary
JP2000330995A (en) * 1999-05-20 2000-11-30 Seiko Instruments Inc Pronouncing electronic dictionary

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02138660A (en) * 1988-11-18 1990-05-28 Sharp Corp Display device for translated word

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330998A (en) * 1999-05-20 2000-11-30 Seiko Instruments Inc Pronouncing electronic dictionary
JP2000330995A (en) * 1999-05-20 2000-11-30 Seiko Instruments Inc Pronouncing electronic dictionary

Also Published As

Publication number Publication date
JP2007094269A (en) 2007-04-12

Similar Documents

Publication Publication Date Title
EP1096472B1 (en) Audio playback of a multi-source written document
US20100174545A1 (en) Information processing apparatus and text-to-speech method
JP2014145842A (en) Speech production analysis device, voice interaction control device, method, and program
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2007206317A (en) Authoring method and apparatus, and program
JP2008209717A (en) Device, method and program for processing inputted speech
JP2007534979A (en) Apparatus and method for voice tag dictionary
WO2011033834A1 (en) Speech translation system, speech translation method, and recording medium
JP4811557B2 (en) Voice reproduction device and speech support device
JP2008243080A (en) Device, method, and program for translating voice
Raza et al. Design and development of phonetically rich Urdu speech corpus
JP5396530B2 (en) Speech recognition apparatus and speech recognition method
JP5160594B2 (en) Speech recognition apparatus and speech recognition method
JP4677869B2 (en) Information display control device with voice output function and control program thereof
JP5088109B2 (en) Morphological analyzer, morphological analyzer, computer program, speech synthesizer, and speech collator
JP4840051B2 (en) Speech learning support apparatus and speech learning support program
Ekpenyong et al. Towards an unrestricted domain TTS system for African tone languages
JP2004294542A (en) Speech recognition device and program therefor
Marasek et al. Multi-level annotation in SpeeCon Polish speech database
TWI759003B (en) Method for training a speech recognition model
WO2023166651A1 (en) Information processing device and information processing program
Hassana et al. Text to Speech Synthesis System in Yoruba Language
JP2023046232A (en) Electronic equipment, learning support system, learning processing method, and program
Boonmee et al. Accuracy of Natural Language Processing Algorithms in Representing Stressed Words in Closed Captioning
JP2006098552A (en) Speech information generating device, speech information generating program and speech information generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110117

R150 Certificate of patent or registration of utility model

Ref document number: 4677869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3