JP4305515B2 - Audio output device and audio output program - Google Patents

Audio output device and audio output program Download PDF

Info

Publication number
JP4305515B2
JP4305515B2 JP2007014754A JP2007014754A JP4305515B2 JP 4305515 B2 JP4305515 B2 JP 4305515B2 JP 2007014754 A JP2007014754 A JP 2007014754A JP 2007014754 A JP2007014754 A JP 2007014754A JP 4305515 B2 JP4305515 B2 JP 4305515B2
Authority
JP
Japan
Prior art keywords
word
display
voice
compound word
compound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007014754A
Other languages
Japanese (ja)
Other versions
JP2008181369A (en
Inventor
拓郎 阿部
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007014754A priority Critical patent/JP4305515B2/en
Priority to US12/006,484 priority patent/US8165879B2/en
Priority to KR1020080002380A priority patent/KR100931464B1/en
Priority to CN200810002630.7A priority patent/CN101221574B/en
Publication of JP2008181369A publication Critical patent/JP2008181369A/en
Application granted granted Critical
Publication of JP4305515B2 publication Critical patent/JP4305515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice output device for outputting a compound word in a voice with a simple operation. <P>SOLUTION: An electronic dictionary 1 is provided with: a voice database 83 for storing voice data in association with each compound word which is composed of a plurality of words; a display part 40 for displaying a text including a plurality of words; an input part 30 for specifying any one of words in the text displayed by the display part 40 as a specified word on the basis of user operation; a CPU 20 for detecting a compound word whose voice data are stored in the voice database 83 out of the plurality of words in the text including the specified word; and a voice output part 50 for outputting voice data corresponding to the compound word detected by the CPU 20 in a voice. <P>COPYRIGHT: (C)2008,JPO&amp;INPIT

Description

本発明は、音声出力装置及び音声出力プログラムに関する。   The present invention relates to an audio output device and an audio output program.

従来、語学学習に用いられる電子辞書などの装置においては、音声出力が可能となっており、単語等の発音記号情報に基づいて音声データを合成して出力したり、予め記憶された単語等の録音データを音声出力したりしている(例えば、特許文献1,2参照)。   Conventionally, in devices such as electronic dictionaries used for language learning, voice output is possible, and voice data is synthesized based on phonetic symbol information such as words and output, or words stored in advance are stored. The recorded data is output as voice (for example, see Patent Documents 1 and 2).

ところで、電子辞書による音声出力の対象としては、複数の単語からなる複合語がある。
特開2006−268501号公報 特開2006−268496号公報
By the way, there is a compound word composed of a plurality of words as a target of voice output by the electronic dictionary.
JP 2006-268501 A Japanese Patent Laid-Open No. 2006-268496

しかしながら、上記のような電子辞書においては、テキスト中の文字列のうち、音声データの記憶されている複合語を簡単な操作で音声出力させることができない。   However, in the electronic dictionary as described above, a compound word in which voice data is stored among character strings in text cannot be output as a voice by a simple operation.

本発明の課題は、複合語を簡単な操作で音声出力させることのできる音声出力装置及び音声出力プログラムを提供することである。   An object of the present invention is to provide an audio output device and an audio output program that can output a compound word by an easy operation.

請求項記載の発明は、音声出力装置において、
表示手段と、
各単語及び各複合語音声データを対応付けて記憶する複合語音声データ記憶手段と、
複数の単語を含むテキストを前記表示手段に表示制御するテキスト表示制御手段と、
前記表示手段により表示された前記テキスト中の任意の単語を識別語として前記表示手段に識別表示制御する識別表示制御手段と、
ユーザ操作に応じて所定の方向を指示する方向指示手段と、
前記表示手段により任意の単語が識別表示されている際に前記方向指示手段により右又は左の方向が指示されると、前記識別表示されている単語を端として前記指示された方向に連続する複合語を前記音声データ記憶手段から検索する複合語検索手段と、
この複合語検索手段により複合語が検出された場合には当該複合語を、複合語が検出されなかった場合には前記指示された方向の単語を、それぞれ新たな識別語として前記表示手段に識別表示制御する識別表示変更制御手段と、
前記表示手段により表示された識別語に対応する音声データをユーザ操作に基づき前記音声データ記憶手段から読み出して音声出力する音声出力手段と、
を備えることを特徴とする。
The invention according to claim 1 is an audio output device,
Display means;
And compound word speech data storing means for storing in association with audio data in each word and each compound word,
Text display control means for controlling display of text including a plurality of words on the display means ;
An identification display control means for identifying the display control on the display means any word in the displayed text as identification word by the display means,
Direction indicating means for instructing a predetermined direction in response to a user operation;
When a right or left direction is instructed by the direction indicating unit while an arbitrary word is identified and displayed by the display unit, a composite that continues in the indicated direction with the identified and displayed word as an end. Compound word retrieval means for retrieving words from the voice data storage means;
When a compound word is detected by the compound word search unit, the compound word is identified to the display unit as a new identification word, respectively. Identification display change control means for display control;
Voice output means for reading out voice data corresponding to the identification word displayed by the display means from the voice data storage means based on a user operation and outputting the voice;
It is characterized by providing.

請求項記載の発明は、請求項1記載の音声出力装置において、
ユーザ操作に基づいて、前記音声出力手段による音声出力速度を制御する音声出力速度制御手段を備えることを特徴とする。
The invention according to claim 2 is the audio output device according to claim 1,
Voice output speed control means for controlling the voice output speed by the voice output means based on a user operation is provided.

請求項記載の発明は、請求項1または2に記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示制御手段は、
前記検索手段により検索された説明情報を前記テキストとして前記表示手段に表示制御する説明情報表示制御手段を有することを特徴とする。
The invention according to claim 3 is the audio output device according to claim 1 or 2 ,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display control means includes
It has a description information display control means for controlling the display of the description information searched by the search means as the text on the display means .

請求項記載の発明は、音声出力プログラムにおいて、
コンピュータに、
各単語及び各複合語音声データを対応付けて記憶する複合語音声データ記憶機能と、
複数の単語を含むテキストを表示部に表示制御するテキスト表示制御機能と、
前記表示部により表示された前記テキスト中の任意の単語を識別語として前記表示部に識別表示制御する識別表示制御機能と、
ユーザ操作に応じて所定の方向を指示する方向指示機能と、
前記表示部により任意の単語が識別表示されている際に前記方向指示機能により右又は左の方向が指示されると、前記識別表示されている単語を端として前記指示された方向に連続する複合語を前記音声データ記憶機能から検索する複合語検索機能と、
この複合語検索機能により複合語が検出された場合には当該複合語を、複合語が検出されなかった場合には前記指示された方向の単語を、それぞれ新たな識別語として前記表示部に識別表示制御する識別表示変更制御機能と、
前記表示部により識別表示された識別語に対応する音声データをユーザ操作に基づき前記音声データ記憶手段から読み出して音声出力する音声出力機能と、
を実現させることを特徴とする。
The invention according to claim 4 is an audio output program,
On the computer,
And compound word audio data storage function of storing in association with audio data in each word and each compound word,
A text display control function of the display control on the display unit a text containing a plurality of words,
An identification display control function for identifying and controlling an arbitrary word in the text displayed by the display unit as an identification word on the display unit;
A direction instruction function for instructing a predetermined direction in response to a user operation;
When a right or left direction is instructed by the direction indicating function when an arbitrary word is identified and displayed by the display unit, a composite that continues in the indicated direction with the identified and displayed word as an end A compound word search function for searching words from the voice data storage function;
When a compound word is detected by the compound word search function, the compound word is identified on the display unit as a new identifier, and the compound word in the designated direction is identified as a new identifier. An identification display change control function for display control;
A voice output function for reading voice data corresponding to the identification word identified and displayed by the display unit from the voice data storage unit based on a user operation and outputting the voice;
It is characterized by realizing.

本発明によれば、任意の単語を識別語とし、ユーザ操作に応じて指示された方向の単語又は複合語に識別語を変更し、識別語に対応する音声データが音声出力されるので、識別語を指定することにより、当該識別語を音声出力させることができる。従って、従来と比較して簡単な操作で複合語を音声出力させることができる。 According to the present invention, any word with the identification word to change the identifier words in the direction of the word or compound words instructed in response to a user operation, the audio data corresponding to the identification word is audio output, identification By designating a word , the identification word can be output as a voice. Therefore, it is possible to output a compound word by a simple operation compared to the conventional case.

以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.

まず、電子辞書の構成を説明する。
[外観構成]
図1は、電子辞書1の平面図である。
First, the configuration of the electronic dictionary will be described.
[Appearance configuration]
FIG. 1 is a plan view of the electronic dictionary 1.

この図に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、スピーカ12及びキー群2を備えている。   As shown in this figure, the electronic dictionary 1 includes a main display 10, a sub display 11, a speaker 12, and a key group 2.

メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)等によって構成されている。なお、本実施の形態におけるサブディスプレイ11は、いわゆるタッチパネルとなっており、表面を押下することにより、押下位置に応じた入力操作が可能となっている。   The main display 10 and the sub display 11 are parts for displaying various data such as characters and codes according to the operation of the key group 2 by the user, and are configured by an LCD (Liquid Crystal Display), an ELD (Electronic Luminescent Display), or the like. ing. In addition, the sub display 11 in this Embodiment is what is called a touch panel, and the input operation according to the pressing position is possible by pressing down the surface.

スピーカ12は、ユーザによるキー群2の操作に応じた見出語や例文等の音声を出力する部分である。   The speaker 12 is a part that outputs sounds such as headwords and example sentences according to the operation of the key group 2 by the user.

キー群2は、ユーザが電子辞書1を操作するための各種キーを有している。具体的には、キー群2は、訳/決定キー2bと、文字キー2cと、辞書選択キー2dと、カーソルキー2eと、シフトキー2fと、戻るキー2gと、音声出力キー2hと、用例キー2iと、複合語キー2j等とを有している。   The key group 2 has various keys for the user to operate the electronic dictionary 1. Specifically, the key group 2 includes a translation / decision key 2b, a character key 2c, a dictionary selection key 2d, a cursor key 2e, a shift key 2f, a return key 2g, a voice output key 2h, and an example key. 2i, compound word key 2j, and the like.

訳/決定キー2bは、検索の実行や、見出語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。辞書選択キー2dは、後述の辞書データベース84,…(図2参照)の選択に使用されるキーである。   The translation / decision key 2b is a key used for executing a search, determining a headword, and the like. The character key 2c is a key used for inputting characters by the user, and includes “A” to “Z” keys in the present embodiment. The dictionary selection key 2d is a key used for selecting a dictionary database 84 (see FIG. 2) described later.

カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。シフトキー2fは、日本語の単語を検索対象に設定するとき等に使用されるキーである。戻るキー2gは、前回表示した画面に戻るとき等に使用されるキーである。   The cursor key 2e is a key used for the reverse display position in the screen, that is, the movement of the cursor position. In the present embodiment, the up / down / left / right directions can be designated. The shift key 2f is a key used when a Japanese word is set as a search target. The return key 2g is a key used when returning to the previously displayed screen.

音声出力キー2hは、選択された見出語や複合語などの音声を出力させる場合に押下されるキーである。用例キー2iは、選択された見出語などを含む例文を表示させる場合に押下されるキーである。複合語キー2jは、選択された見出語を含む成句・複合語を表示させる場合に押下されるキーである。   The voice output key 2h is a key that is pressed when outputting a voice such as a selected headword or compound word. The example key 2i is a key that is pressed when displaying an example sentence including the selected headword. The compound word key 2j is a key that is pressed when displaying a phrase / compound word including the selected headword.

[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。
[Internal configuration]
Next, the internal structure of the electronic dictionary 1 will be described. FIG. 2 is a block diagram showing an internal configuration of the electronic dictionary 1.

この図に示すように、電子辞書1は、表示部40、入力部30、音声出力部50、CPU(Central Processing Unit)20、フラッシュROM(Read Only Memory)80、RAM(Random Access Memory)90を備え、各部はバス100で相互にデータ通信可能に接続されて構成されている。   As shown in this figure, the electronic dictionary 1 includes a display unit 40, an input unit 30, an audio output unit 50, a CPU (Central Processing Unit) 20, a flash ROM (Read Only Memory) 80, and a RAM (Random Access Memory) 90. Each unit is configured to be connected to each other via a bus 100 so that data communication is possible.

表示部40は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。   The display unit 40 includes the main display 10 and the sub display 11 described above, and displays various types of information on the main display 10 and the sub display 11 based on a display signal input from the CPU 20.

入力部30は、上述のキー群2を備えており、押下されたキーに対応する信号をCPU20に出力するようになっている。   The input unit 30 includes the key group 2 described above, and outputs a signal corresponding to the pressed key to the CPU 20.

音声出力部50は、上述のスピーカ12を備えており、CPU20から入力される音声出力信号に基づいて音声データをスピーカ12に再生させるようになっている。   The audio output unit 50 includes the speaker 12 described above, and causes the speaker 12 to reproduce audio data based on an audio output signal input from the CPU 20.

CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じてフラッシュROM80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果をRAM90に保存するとともに、当該処理結果を表示部40や音声出力部50に適宜出力させる。   The CPU 20 executes processing based on a predetermined program in accordance with an input instruction, performs an instruction to each function unit, data transfer, and the like, and comprehensively controls the electronic dictionary 1. Specifically, the CPU 20 reads various programs stored in the flash ROM 80 according to an operation signal or the like input from the input unit 30, and executes processing according to the program. Then, the CPU 20 stores the processing result in the RAM 90 and causes the display unit 40 and the audio output unit 50 to output the processing result as appropriate.

フラッシュROM80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM80は、本発明に係る音声出力プログラム81と、辞書データベース群82と、音声データベース83等とを記憶している。   The flash ROM 80 is a memory that stores programs and data for realizing various functions of the electronic dictionary 1. In the present embodiment, the flash ROM 80 stores a voice output program 81 according to the present invention, a dictionary database group 82, a voice database 83, and the like.

音声出力プログラム81は、後述の辞書検索処理(図6〜図9参照)をCPU20に実行させるためのプログラムである。   The voice output program 81 is a program for causing the CPU 20 to execute a later-described dictionary search process (see FIGS. 6 to 9).

辞書データベース群82は、複数の辞書データベース84,…を有しており、本実施の形態においては、「ジー○アス英和辞典」の辞書データベース84aや、「ロ○グマン現代英英辞典」の辞書データベース84b等を有している。   The dictionary database group 82 includes a plurality of dictionary databases 84... In the present embodiment, the dictionary database 84 a of “G * Ass English-Japanese Dictionary” and the dictionary of “Ro * Guman Modern English-English Dictionary” are used. It has a database 84b and the like.

これら辞書データベース84,…には、例えば図3に1例を示すように、複数の見出語に対して、この見出語の発音記号及び意味内容からなる説明情報や、見出語の例文(用例)を識別するための用例番号、見出語を含む熟語を識別するための熟語番号,成句・複合語を識別するための複合語番号などが対応付けされて格納されている。また、各辞書データベース84には、例えば図4(a)〜(b)に1例を示すように、上述の用例番号に例文と、その対訳が対応付けられたテーブルや、上述の複合語番号に成句・複合語と、当該成句・複合語の説明情報とが対応付けられたテーブル、上述の熟語番号に熟語と、当該熟語の説明情報とが対応付けられたテーブル等が格納されている。なお、本実施の形態においては、各辞書データベース84における説明情報はテキストデータとなっている。   In these dictionary databases 84,..., For example, as shown in FIG. 3, for example, for a plurality of headwords, explanation information including pronunciation symbols and meaning contents of the headwords, and example sentences of headwords An example number for identifying (example), a idiom number for identifying a idiom including a headword, a compound word number for identifying a phrase / compound word, and the like are stored in association with each other. Each dictionary database 84 includes a table in which example numbers and their translations are associated with the above example numbers, as shown in FIG. 4A to FIG. 4B, for example, and the above compound word numbers. A table in which the phrase / compound word and the explanation information of the phrase / compound word are associated with each other, a table in which the idiom number is associated with the phrase information, and the explanation information of the phrase is stored. In the present embodiment, the description information in each dictionary database 84 is text data.

また、音声データベース83には、例えば図5に1例を示すように、見出語や成句・複合語などに対して、ネイティブの発音による音声データ、いわゆる「トゥルーボイス」が対応付けされて格納されている。   In the voice database 83, for example, as shown in an example in FIG. 5, voice data based on native pronunciation, so-called “true voice”, is stored in association with headwords, phrases, compound words, and the like. Has been.

RAM90は、CPU20が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリ領域を備えている。このRAM90は、本実施の形態においては、選択辞書記憶領域91、入力文字記憶領域92、選択見出語記憶領域93、第1音声出力候補記憶領域95及び第2音声出力候補記憶領域96を備えている。   The RAM 90 includes a memory area that temporarily holds various programs executed by the CPU 20 and data related to the execution of these programs. In the present embodiment, the RAM 90 includes a selected dictionary storage area 91, an input character storage area 92, a selected headword storage area 93, a first speech output candidate storage area 95, and a second speech output candidate storage area 96. ing.

ここで、選択辞書記憶領域91には、見出語の検索対象としてユーザにより選択された辞書データベース84の識別情報が格納されるようになっており、入力文字記憶領域92には、ユーザにより入力された入力文字が格納されるようになっている。また、選択見出語記憶領域93には、辞書引きする対象の見出語としてユーザによって選択された選択見出語が記憶されるようになっている。なお、本実施の形態における選択見出語は、本実施の形態においては、入力文字や指定文字に前方一致するようアルファベット順或いは五十音順に辞書データベースから読み出された見出語の一覧から選択されるようになっている。   Here, the selected dictionary storage area 91 stores identification information of the dictionary database 84 selected by the user as a search target of the headword, and the input character storage area 92 is input by the user. Input characters are stored. Further, the selected headword storage area 93 stores the selected headword selected by the user as the headword to be dictionaryd. In the present embodiment, the selected headword in the present embodiment is based on a list of headwords read from the dictionary database in alphabetical order or alphabetical order so as to match the input character or designated character in front. It is to be selected.

また、第1音声出力候補記憶領域95,第2音声出力候補記憶領域96には、後述の音声サーチ処理(図8〜図9参照)において音声出力対象の候補とされる各単語列がリスト化されてメイン候補リスト,サブ候補リストとして記憶されるようになっている。   Further, in the first voice output candidate storage area 95 and the second voice output candidate storage area 96, word strings that are candidates for voice output in a voice search process (see FIGS. 8 to 9) described later are listed. And stored as a main candidate list and a sub candidate list.

[動作]
続いて、電子辞書1の動作を説明する。
図6〜図9は、CPU20が音声出力プログラム81を読み出して実行する辞書検索処理の流れを示すフローチャートである。
[Operation]
Next, the operation of the electronic dictionary 1 will be described.
6 to 9 are flowcharts showing the flow of dictionary search processing in which the CPU 20 reads out and executes the voice output program 81.

まず、図6に示すように、ユーザにより辞書選択キー2dが押下されて辞書データベース群82から何れかの辞書データベース84が選択された後(ステップS1)、見出語検索の開始が指示されて(ステップS2)、検索文字列が入力されると(ステップS3)、CPU20は、入力された検索文字列に対応する見出語の候補を選択された辞書データベース84の中から抽出してメインディスプレイ10に一覧表示させるとともに、先頭の見出語を反転表示の対象として反転指定し、その説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS4)。   First, as shown in FIG. 6, after the dictionary selection key 2d is pressed by the user and any dictionary database 84 is selected from the dictionary database group 82 (step S1), an instruction to start a headword search is issued. (Step S2) When a search character string is input (Step S3), the CPU 20 extracts a headword candidate corresponding to the input search character string from the selected dictionary database 84, and performs main display. 10 is displayed as a list, and the head entry is designated as a reverse display target, and the explanation information is retrieved from the dictionary database 84 and displayed on the main display 10 as a preview area in a region different from the entry list ( Step S4).

なお、本実施の形態では、ステップS1の処理において、見出語及び説明情報の少なくとも一方が英語で記載された辞書データベース84が選択されるものとして説明する。また、ステップS3の処理において分離複合語が入力されるときは、当該分離複合語における各構成単語が互いに連結した状態で入力されることとして説明する。   In the present embodiment, it is assumed that the dictionary database 84 in which at least one of the headword and the explanation information is written in English is selected in the process of step S1. In addition, when a separated compound word is input in the process of step S3, it will be described that the constituent words in the separated compound word are input in a state of being connected to each other.

次に、CPU20は、ユーザによってカーソルキー2eの上下キーが操作されるか否かを判定し(ステップS5)、操作されたと判定した場合(ステップS5;Yes)には、反転指定の見出語を見出語一覧中でカーソル方向に変更し、変更先の見出語の説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させた後(ステップS6)、上述のステップS5の処理に移行する。   Next, the CPU 20 determines whether or not the up / down key of the cursor key 2e is operated by the user (step S5), and when it is determined that the user has operated (step S5; Yes), the inversion designated entry word Is changed in the direction of the cursor in the headword list, the description information of the headword to be changed is retrieved from the dictionary database 84 and previewed on the main display 10 in a different area from the headword list (step S6), the process proceeds to step S5 described above.

一方、ステップS5において上下キーが操作されないと判定した場合(ステップS5;No)には、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS7)、操作されたと判定した場合(ステップS7;Yes)には、反転指定の見出語に対応する音声データを音声データベース83で検索し(ステップS8)、音声データがあるか否かを判定する(ステップS9)。そして、このステップS9において音声データがあると判定した場合(ステップS9;Yes)には、CPU20は、当該音声データを音声出力部50に音声出力させた後(ステップS10)、上述のステップS5の処理に移行する。また、ステップS9において音声データがないと判定した場合(ステップS9;No)には、CPU20は、図10(a)に示すように、音声データがない旨をメインディスプレイ10に表示させた後(ステップS11)、上述のステップS5の処理に移行する。   On the other hand, if it is determined in step S5 that the up / down key is not operated (step S5; No), the CPU 20 determines whether or not the audio output key 2h is operated by the user (step S7) and is operated. If it is determined (step S7; Yes), the speech database 83 is searched for speech data corresponding to the headword designated for inversion (step S8), and it is determined whether there is speech data (step S9). And when it determines with there being audio | voice data in this step S9 (step S9; Yes), after outputting the said audio | voice data to the audio | voice output part 50 (step S10), CPU20 of the above-mentioned step S5 Transition to processing. If it is determined in step S9 that there is no audio data (step S9; No), the CPU 20 displays on the main display 10 that there is no audio data as shown in FIG. Step S11), the process proceeds to the above-described step S5.

また、上述のステップS7において音声出力キー2hが操作されないと判定した場合(ステップS7;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定し(ステップS12)、操作されないと判定した場合(ステップS12;No)には、他の処理へ移行する。   If it is determined in step S7 that the voice output key 2h is not operated (step S7; No), the CPU 20 determines whether or not the translation / decision key 2b is operated by the user (step S12). ), When it is determined that it is not operated (step S12; No), the process proceeds to another process.

一方、ステップS12において訳/決定キー2bが操作されたと判定した場合(ステップS12;Yes)には、CPU20は、反転指定の見出語の説明情報をメインディスプレイ10に全画面表示させる(ステップS13)。このとき、表示されている見出語を含む複合語が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す複合語マークM1(図11参照)をメインディスプレイ10の右上部に表示させる。また、見出語の用例が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す用例マークM2(図11参照)をメインディスプレイ10の表示領域のうち、用例の記憶されている意味内容の部分にそれぞれ表示させる。   On the other hand, if it is determined in step S12 that the translation / decision key 2b has been operated (step S12; Yes), the CPU 20 causes the main display 10 to display the explanation information of the headword designated for reversal (step S13). ). At this time, if a compound word including the displayed headword is stored in the dictionary database 84, the CPU 20 displays a compound word mark M1 (see FIG. 11) indicating that to the upper right portion of the main display 10. To display. In addition, when an example of a headword is stored in the dictionary database 84, the CPU 20 stores an example mark M2 (see FIG. 11) indicating that fact in the display area of the main display 10. Each meaning content is displayed.

次に、図7に示すように、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS21)、音声出力キー2hが操作されたと判定した場合(ステップS21;Yes)には、音声サーチ処理を行う(ステップS22)。   Next, as shown in FIG. 7, the CPU 20 determines whether or not the audio output key 2h is operated (step S21), and when it is determined that the audio output key 2h is operated (step S21; Yes). Performs voice search processing (step S22).

具体的には、図8に示すように、まずCPU20は、音声サーチ処理の実行中であることを示す音声サーチマークM3(図11等参照)を表示部40のメインディスプレイ10に表示させるとともに、音声出力の速度設定画面(図1参照)をサブディスプレイ11に表示させる(ステップT11)。なお、この速度設定画面が表示された状態では、ユーザがサブディスプレイ11の所定領域を押下することにより、音声の出力速度が任意の速度に変更される。   Specifically, as shown in FIG. 8, first, the CPU 20 displays a voice search mark M3 (see FIG. 11 and the like) indicating that the voice search process is being performed on the main display 10 of the display unit 40, and An audio output speed setting screen (see FIG. 1) is displayed on the sub-display 11 (step T11). When the speed setting screen is displayed, when the user presses a predetermined area of the sub-display 11, the audio output speed is changed to an arbitrary speed.

次に、CPU20は、メインディスプレイ10に表示されている説明情報または用例における先頭の単語を反転指定した後(ステップT12)、ユーザによってカーソルキー2eが操作されるか否かを判定し(ステップT13)、操作されたと判定した場合(ステップT13;Yes)には、反転指定の単語(以下、指定単語とする)をカーソル方向に変更した後(ステップT14)、上述のステップT13の処理に移行する。   Next, the CPU 20 designates the first word in the explanation information or the example displayed on the main display 10 in reverse (step T12), and then determines whether or not the cursor key 2e is operated by the user (step T13). ), If it is determined that it has been operated (step T13; Yes), after the reverse designated word (hereinafter designated word) is changed in the cursor direction (step T14), the process proceeds to the above-described step T13. .

一方、ステップT13においてカーソルキー2eが操作されないと判定した場合(ステップT13;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定する(ステップT15)。   On the other hand, when it is determined in step T13 that the cursor key 2e is not operated (step T13; No), the CPU 20 determines whether or not the translation / decision key 2b is operated by the user (step T15).

このステップT15において訳/決定キー2bが操作されたと判定した場合(ステップT15;Yes)には、CPU20は、指定単語や、この指定単語の変化形単語と完全一致する見出語を音声データベース83で検索し、検索された場合には、その見出語を音声出力候補として第1音声出力候補記憶領域95のメイン候補リストに加える(ステップT17)。   If it is determined in step T15 that the translation / decision key 2b has been operated (step T15; Yes), the CPU 20 searches the speech database 83 for a headword that completely matches the specified word or a modified word of the specified word. When the search is performed, the headword is added as a speech output candidate to the main candidate list in the first speech output candidate storage area 95 (step T17).

なお、変化形単語としては、例えば、原形動詞の構成単語に対する原形、過去形、過去分詞形、格変化形の単語や、原形の形容詞の構成単語に対する原形、比較級形、最上級形の単語などがある。また、構成単語の変化形単語を取得する方法としては、各単語について変化形単語を対応付けて記憶したテーブルを参照するなど、従来より公知の手法を用いることができる。   In addition, as the change word, for example, the original form, the past tense, the past participle form, the case change form word, the original form of the original form adjective, the comparative form, the superlative form word and so on. Moreover, as a method of acquiring the variation word of the constituent words, a conventionally known method can be used such as referring to a table storing the variation word for each word in association with each other.

次に、CPU20は、指定単語から少なくとも1つ後方の単語までの単語列や、この単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に部分一致する複合語を音声データベース83で検索し、検索された場合には、その複合語を音声出力候補として第2音声出力候補記憶領域96のサブ候補リストに加える(ステップT18)。同様に、CPU20は、指定単語から少なくとも1つ前方の単語までの単語列や、この単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に部分一致する複合語を音声データベース83で検索し、検索された場合には、その複合語を音声出力候補として第2音声出力候補記憶領域96のサブ候補リストに加える(ステップT19)。なお、変化形単語列としては、構成単語が変化形単語に変換された単語列の他、構成単語をハイフンなどで結合した単語列などがある。   Next, the CPU 20 selects a compound word that partially matches a word string from the specified word to at least one backward word or a change word string in which at least one constituent word in the word string is converted to a change word. Search is performed in the speech database 83, and if a search is made, the compound word is added to the sub-candidate list in the second speech output candidate storage area 96 as a speech output candidate (step T18). Similarly, the CPU 20 selects a compound word that partially matches a word string from a specified word to at least one preceding word or a change word string in which at least one constituent word in the word string is converted to a change word. Search is performed in the speech database 83, and if a search is made, the compound word is added as a speech output candidate to the sub-candidate list in the second speech output candidate storage area 96 (step T19). The change word string includes a word string in which the constituent words are converted to the change word, and a word string in which the constituent words are combined with a hyphen.

次に、CPU20は、第2音声出力候補記憶領域96のサブ候補リストにおける複合語と、指定単語を含んでメインディスプレイ10に表示されている単語列や、その変化形単語列とを比較し、当該単語列または変化形単語列に完全一致する複合語を音声出力候補として第1音声出力候補記憶領域95のメイン候補リストに加える(ステップT20)。   Next, the CPU 20 compares the compound word in the sub-candidate list in the second audio output candidate storage area 96 with the word string displayed on the main display 10 including the designated word, and the variation word string. A compound word that completely matches the word string or the variation word string is added to the main candidate list in the first voice output candidate storage area 95 as a voice output candidate (step T20).

これにより、指定単語を先頭または2番目以降に含んでテキスト中に表示されており、かつ、音声データの記憶されている複合語が検出されて、第1音声出力候補記憶領域95のメイン候補リストに加えられる。   As a result, a compound word that includes the designated word at the beginning or the second or later and is displayed in the text and in which the speech data is stored is detected, and the main candidate list in the first speech output candidate storage area 95 is detected. Added to.

次に、CPU20は、図9に示すように、第1音声出力候補記憶領域95に音声出力候補が記憶されているか否かを判定し(ステップT31)、記憶されていると判定した場合(ステップT31;Yes)には、メイン候補リストの単語列をメインディスプレイ10に一覧表示させ(ステップT32)、ユーザによりカーソルキー2eで何れかの単語列が指定され、訳/決定キー2bで選択されると(ステップT33)、選択された単語列の音声データを音声出力部50に音声出力させる(ステップT34)。   Next, as shown in FIG. 9, the CPU 20 determines whether or not an audio output candidate is stored in the first audio output candidate storage area 95 (step T31), and determines that it is stored (step T31). At T31; Yes), the word strings of the main candidate list are displayed in a list on the main display 10 (step T32), and one of the word strings is designated by the user with the cursor key 2e and selected with the translation / decision key 2b. (Step T33), the audio output of the selected word string is output to the audio output unit 50 (Step T34).

次に、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT35)、操作されないと判定した場合(ステップT35;No)には、上述のステップT33の処理に移行し、操作されたと判定した場合(ステップT35;Yes)には、図8に示すように、上述のステップT13の処理に移行する。   Next, the CPU 20 determines whether or not the return key 2g is operated by the user (step T35), and when it is determined that the user does not operate (step T35; No), the process proceeds to the above-described step T33. If it is determined that it has been operated (step T35; Yes), the process proceeds to the above-described step T13 as shown in FIG.

また、図9,図10(b)に示すように、上述のステップT31において音声出力の候補がないと判定した場合(ステップT31;No)には、CPU20は、その旨と、指定単語について合成音声を音声出力するか否か質問する旨とをメインディスプレイ10に表示させた後(ステップT36)、音声出力が選択されるか否かを判定し(ステップT37)、選択されないと判定した場合(ステップT37;No)には、図8に示すように、上述のステップT13の処理に移行する。   Further, as shown in FIGS. 9 and 10B, when it is determined in step T31 that there is no voice output candidate (step T31; No), the CPU 20 synthesizes this and the designated word. After displaying on the main display 10 whether to ask whether or not to output a sound (Step T36), it is determined whether or not the sound output is selected (Step T37), and when it is determined that the sound is not selected (Step T37). In step T37; No), as shown in FIG. 8, the process proceeds to step T13 described above.

また、図9に示すように、ステップT37において音声出力が選択されたと判定した場合(ステップT37;Yes)には、CPU20は、指定単語の発音記号に基づいて当該単語の合成音声データを生成し、合成音声データを音声出力部50に音声出力させた後(ステップT38)、図8に示すように、上述のステップT13の処理に移行する。なお、発音記号に基づいて合成音声データを音声出力する手法としては、各音素に対応する音声データをフラッシュROM80等に予め格納した状態で、発音記号のテキストデータを音素に分解し、分解された各音素に対応する音声データを合成して連続再生する等、従来より公知の手法を用いることができる。但し、発音記号のテキストデータに基づいて合成音声を出力するのではなく、単語自体のテキストデータに基づいて合成音声を出力するようにしても良い。   As shown in FIG. 9, when it is determined in step T37 that speech output has been selected (step T37; Yes), the CPU 20 generates synthesized speech data of the word based on the phonetic symbol of the designated word. After the synthesized voice data is output to the voice output unit 50 (step T38), the process proceeds to the above-described step T13 as shown in FIG. As a method for outputting synthesized speech data based on phonetic symbols, the speech data corresponding to each phoneme is stored in the flash ROM 80 or the like in advance, and the phonetic symbol text data is decomposed into phonemes. Conventionally known methods such as synthesizing voice data corresponding to each phoneme and continuously reproducing the data can be used. However, instead of outputting the synthesized speech based on the text data of the phonetic symbols, the synthesized speech may be output based on the text data of the word itself.

また、上述のステップT15において訳/決定キー2bが操作されないと判定した場合(ステップT15;No)には、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT21)、操作されないと判定した場合(ステップT21;No)には、他の処理へ移行し、操作されたと判定したと判定した場合(ステップT21;Yes)には、音声サーチ処理を終了した後、図7に示すように、上述のステップS21の処理に移行する。   If it is determined in step T15 that the translation / decision key 2b is not operated (step T15; No), the CPU 20 determines whether or not the return key 2g is operated by the user (step T21). If it is determined that it has not been operated (step T21; No), the process proceeds to another process. If it is determined that it has been operated (step T21; Yes), the voice search process is terminated, As shown in FIG. 7, the process proceeds to step S21 described above.

また、このステップS21において音声出力キー2hが操作されないと判定した場合(ステップS21;No)には、CPU20は、ユーザによって用例キー2iが操作されるか否かを判定し(ステップS31)、操作されたと判定した場合(ステップS31;Yes)には、上述のステップS13によってメインディスプレイ10に表示された用例マークM2,…のうち、先頭の用例マークM2を反転指定し、当該用例マークに対応する意味内容での用例を、見出語の説明情報とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS32)。   If it is determined in step S21 that the audio output key 2h is not operated (step S21; No), the CPU 20 determines whether or not the example key 2i is operated by the user (step S31). If it is determined that it has been performed (step S31; Yes), the first example mark M2 of the example marks M2,. An example of semantic content is displayed on the main display 10 as a preview in a different area from the explanation information of the headword (step S32).

次に、ユーザによりカーソルキー2eの上下キーで何れかの用例マークM2が指定され、訳/決定キー2bで選択されると(ステップS33)、CPU20は、選択された用例マークに対応する意味内容での用例をメインディスプレイ10に全画面表示させる(ステップS34)。   Next, when any example mark M2 is designated by the user with the up / down key of the cursor key 2e and selected with the translation / decision key 2b (step S33), the CPU 20 makes the meaning content corresponding to the selected example mark. The example in is displayed on the main display 10 in full screen (step S34).

次に、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS35)、操作されないと判定した場合(ステップS35;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS35;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS36)、上述のステップS35の処理に移行する。   Next, the CPU 20 determines whether or not the voice output key 2h is operated (step S35). When it is determined that the voice output key 2h is not operated (step S35; No), the CPU 20 proceeds to another process and is operated. If it is determined (step S35; Yes), after performing the voice search process similar to step S22 described above (step S36), the process proceeds to step S35 described above.

また、上述のステップS31において用例キー2iが操作されないと判定した場合(ステップS31;No)には、CPU20は、ユーザによって複合語キー2jが操作されるか否かを判定し(ステップS41)、操作されないと判定した場合(ステップS41;No)には、他の処理へ移行する。   If it is determined in step S31 that the example key 2i is not operated (step S31; No), the CPU 20 determines whether the compound word key 2j is operated by the user (step S41). If it is determined not to be operated (step S41; No), the process proceeds to another process.

また、ステップS41において複合語キー2jが操作されたと判定した場合(ステップS41;Yes)には、CPU20は、指定単語を含む複合語をメインディスプレイ10に一覧表示させ(ステップS42)、ユーザによりカーソルキー2eの上下キーで何れかの複合語が指定され、訳/決定キー2bで選択されると(ステップS43)、選択された複合語の説明情報をメインディスプレイ10に全画面表示させる(ステップS44)。   If it is determined in step S41 that the compound word key 2j has been operated (step S41; Yes), the CPU 20 displays a list of compound words including the designated word on the main display 10 (step S42), and the user moves the cursor. When any compound word is designated by the up / down key of the key 2e and selected by the translation / decision key 2b (step S43), the explanation information of the selected compound word is displayed on the main display 10 in full screen (step S44). ).

次に、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS45)、操作されないと判定した場合(ステップS45;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS45;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS46)、上述のステップS45の処理に移行する。   Next, the CPU 20 determines whether or not the voice output key 2h is operated by the user (step S45). When it is determined that the user does not operate (step S45; No), the CPU 20 proceeds to another process and operates. If it is determined that it has been performed (step S45; Yes), after performing the voice search process similar to step S22 described above (step S46), the process proceeds to step S45 described above.

<動作例>
続いて、図11を参照しつつ、上記の辞書検索処理を具体的に説明する。なお、図11等においては、図中の左側に電子辞書1の全体図を簡略化して示すとともに、図中の右側に操作手順を示している。
<Operation example>
Next, the above dictionary search process will be specifically described with reference to FIG. In addition, in FIG. 11 etc., the overall view of the electronic dictionary 1 is simplified and shown on the left side in the figure, and the operation procedure is shown on the right side in the figure.

例えば、図11(a)に示すように、ユーザによって「ジ○ニアス英和辞典」の辞書データベース84aが選択され(ステップS1)、検索文字列として「bread」が入力された後(ステップS3)、見出語の候補「bread」について訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「bread」の説明情報が全画面表示される(ステップS13)。   For example, as shown in FIG. 11 (a), after the user selects the dictionary database 84a of “Gianius English-Japanese Dictionary” (Step S1) and inputs “bread” as a search character string (Step S3), When the translation / decision key 2b is operated for the headword candidate “bread” (step S12; Yes), the explanatory information of the headword “bread” designated for inversion is displayed in full screen (step S13).

次に、図11(b)に示すように、ユーザによって用例キー2iが操作され(ステップS31;Yes)、意味内容「食パン」での用例について訳/決定キー2bが操作されると(ステップS33)、当該意味内容「食パン」での見出語「bread」の用例が全画面表示される(ステップS34)。   Next, as shown in FIG. 11B, when the user operates the example key 2i (step S31; Yes) and operates the translation / decision key 2b for the example with the meaning content “bread” (step S33). ), An example of the headword “bread” in the meaning content “bread” is displayed on the full screen (step S34).

次に、ユーザによって音声出力キー2hが操作されると(ステップS35;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。   Next, when the voice output key 2h is operated by the user (step S35; Yes), the voice search mark M3 is displayed on the main display 10 and the speed setting screen for voice output is displayed on the sub display 11 ( Step T11).

次に、メインディスプレイ10に表示されている説明情報の先頭の単語「bread」が反転指定された後(ステップT12)、ユーザによってカーソルキー2eの下キーや右キーが複数回操作されると(ステップT13;Yes)、当該カーソル方向において用例「I have a glass of milk, hot cereal, and bread and butter for breakfast.」における単語「bread」が反転指定される(ステップT14)。   Next, after the first word “bread” of the description information displayed on the main display 10 is designated in reverse (step T12), when the user operates the cursor key 2e down key or right key multiple times (step T12). Step T13; Yes) In the cursor direction, the word “bread” in the example “I have a glass of milk, hot cereal, and bread and butter for breakfast.” Is designated in reverse (step T14).

次に、図11(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、指定単語「bread」と完全一致する見出語「bread」が音声データベース83から検索され、第1音声出力候補記憶領域95のメイン候補リストに加えられる(ステップT17)。   Next, as shown in FIG. 11C, when the translation / decision key 2b is operated by the user (step T15; Yes), the headword “bread” that completely matches the designated word “bread” is stored in the speech database. 83 and is added to the main candidate list in the first audio output candidate storage area 95 (step T17).

次に、指定単語「bread」から少なくとも1つ後方の単語までの単語列「bread and」や「bread and butter」、変化形単語列「bread-and-butter」などに部分一致する複合語「bread and butter」及び「bread-and-butter」が音声データベース83から検索され、第2音声出力候補記憶領域96のサブ候補リストに加えられる(ステップT18)。   Next, the compound word “bread” partially matching the word string “bread and” or “bread and butter” from the specified word “bread” to at least one word behind it, the variation word string “bread-and-butter”, etc. and butter "and" bread-and-butter "are retrieved from the speech database 83 and added to the sub-candidate list in the second speech output candidate storage area 96 (step T18).

次に、指定単語「bread」から少なくとも1つ前方の単語列「and bread」などに部分一致する複合語が検索されるが、この検索では複合語が検出されない(ステップT18)。   Next, a compound word partially matching at least one word string “and bread” or the like ahead of the designated word “bread” is searched, but the compound word is not detected in this search (step T18).

次に、第2音声出力候補記憶領域96のサブ候補リストにおける複合語「bread and butter」及び「bread-and-butter」と、指定単語を含んでメインディスプレイ10に表示されている単語列「bread and butter」,…や、その変化形単語列「bread-and-butter」,…とが比較され、当該単語列または変化形単語列に完全一致する複合語「bread and butter」,「bread-and-butter」が第1音声出力候補記憶領域95のメイン候補リストに加えられる(ステップT20)。   Next, the compound word “bread and butter” and “bread-and-butter” in the sub-candidate list in the second audio output candidate storage area 96 and the word string “bread” displayed on the main display 10 including the designated word are displayed. and butter and its variation word string “bread-and-butter”,... are compared, and the compound words “bread and butter” and “bread-and” that exactly match the word string or variation word string. -butter "is added to the main candidate list in the first audio output candidate storage area 95 (step T20).

次に、第1音声出力候補記憶領域95に記憶されたメイン候補リストの単語列「bread-and-butter」,「bread and butter」,「butter」が一覧表示される(ステップT32)。   Next, the word strings “bread-and-butter”, “bread and butter”, and “butter” in the main candidate list stored in the first audio output candidate storage area 95 are displayed in a list (step T32).

そして、図11(d)に示すように、ユーザによりカーソルキー2eの下キーが操作され、訳/決定キー2bが操作されると(ステップT33)、選択された単語列「bread and butter」の音声データが音声出力される(ステップT34)。   Then, as shown in FIG. 11D, when the user operates the down key of the cursor key 2e and operates the translation / decision key 2b (step T33), the selected word string “bread and butter” Audio data is output as audio (step T34).

なお、上記の動作例においては、図11(b)に示すように、用例「I have a …bread and butter…」における単語「bread」が反転指定された状態で訳/決定キー2bが操作された場合について説明したが、図12(a),(b)に示すように、「and」や「butter」が反転指定された状態で訳/決定キー2bが操作された場合であっても、図11(c),(d)に示すように、同様の処理が行われる。   In the above operation example, as shown in FIG. 11B, the translation / decision key 2b is operated in a state where the word “bread” in the example “I have a... However, as shown in FIGS. 12A and 12B, even when the translation / decision key 2b is operated in a state where “and” and “butter” are designated in reverse, As shown in FIGS. 11C and 11D, similar processing is performed.

以上の電子辞書1によれば、図8のステップT18〜T20や、図11〜図12に示したように、指定単語を含むテキスト中の複数の単語のうち、音声データの記憶されている複合語が検出され、検出された複合語に対応する音声データが音声出力されるので、複合語に含まれる何れかの単語を指定することにより、複合語を音声出力させることができる。従って、従来と比較して簡単な操作で複合語を音声出力させることができる。   According to the electronic dictionary 1 described above, as shown in steps T18 to T20 of FIG. 8 and FIGS. 11 to 12, among the plurality of words in the text including the designated word, the composite in which the audio data is stored. Since the word is detected and the voice data corresponding to the detected compound word is output as a voice, the compound word can be output as a voice by designating any word included in the compound word. Therefore, it is possible to output a compound word by a simple operation compared to the conventional case.

また、図8のステップT17〜T20や、図11に示したように、テキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものが検出されるので、音声データと対応付けて記憶されている複合語に対してテキスト中での複合語が変化形である場合であっても、当該複合語を音声出力させることができる。   Also, as shown in steps T17 to T20 of FIG. 8 and FIG. 11, as a compound word displayed in the text, one in which at least one constituent word is converted to a change word is detected. Even if the compound word in the text is a modified form with respect to the compound word stored in association with the sound data, the compound word can be output as a sound.

また、図9のステップT32や、図11(c)等に示したように、音声出力される音声出力候補として指定単語と、検出された各複合語とが一覧表示され、ユーザ操作に基づいて何れかの音声出力候補に対応する音声データが音声出力されるので、複合語を音声出力させるか、指定単語を音声出力させるかを選択することができる。また、検出された複合語が複数ある場合に、何れの複合語を音声出力させるかを選択することができる。   Also, as shown in step T32 of FIG. 9, FIG. 11C, and the like, the designated words and the detected compound words are displayed as a list as voice output candidates to be output as voices, and are based on user operations. Since voice data corresponding to any of the voice output candidates is output as a voice, it is possible to select whether to output a compound word or a specified word as a voice. Further, when there are a plurality of detected compound words, it is possible to select which compound word is to be output as a voice.

また、図6のステップS3〜S4,S13や、図11(a)等に示したように、ユーザ操作に基づいて辞書データベース84における何れかの見出語が指定されると、当該見出語に対応する説明情報が辞書データベース84から検索され、検索された説明情報がテキストとして表示されるので、説明情報中の何れかの単語を反転指定することにより、当該説明情報中の複合語を音声出力させることができる。   Further, as shown in steps S3 to S4 and S13 of FIG. 6, FIG. 11A, etc., when any headword in the dictionary database 84 is designated based on a user operation, the headword Is retrieved from the dictionary database 84, and the retrieved explanation information is displayed as text. By designating one of the words in the explanation information in reverse, the compound word in the explanation information is voiced. Can be output.

<変形例>
続いて、上記の実施形態における電子辞書の変形例について説明する。なお、上記実施形態と同様の構成要素には同一の符号を付し、その説明を省略する。
<Modification>
Next, a modification of the electronic dictionary in the above embodiment will be described. In addition, the same code | symbol is attached | subjected to the component similar to the said embodiment, and the description is abbreviate | omitted.

上述の図2に示すように、本実施形態における電子辞書1Aは、フラッシュROM80Aを備えており、このフラッシュROM80Aは、本発明に係る音声出力プログラム81Aを記憶している。   As shown in FIG. 2 described above, the electronic dictionary 1A in the present embodiment includes a flash ROM 80A, and the flash ROM 80A stores an audio output program 81A according to the present invention.

この音声出力プログラム81Aは、後述の辞書検索処理(図6〜7,図9,図13等参照)をCPU20に実行させるためのプログラムである。   The voice output program 81A is a program for causing the CPU 20 to execute a later-described dictionary search process (see FIGS. 6 to 7, FIG. 9, FIG. 13, etc.).

続いて、電子辞書1Aの動作を説明する。
図6〜図7,図8のステップT15〜ステップT21、図9,図13は、CPU20が音声出力プログラム81を読み出して実行する辞書検索処理の流れを示すフローチャートである。なお、電子辞書1Aの動作は、上述の電子辞書1の動作と比較して主にステップT14の処理(図8参照)が異なっているため、以下、ステップT13においてカーソルキー2eが操作された後(ステップT13;Yes)の処理について説明する。
Next, the operation of the electronic dictionary 1A will be described.
Steps T15 to T21, FIGS. 9 and 13 in FIGS. 6 to 7 and 8 are flowcharts showing the flow of dictionary search processing that the CPU 20 reads out and executes the voice output program 81. Note that the operation of the electronic dictionary 1A is mainly different from the operation of the electronic dictionary 1 described above in the process of step T14 (see FIG. 8), and hence, after the cursor key 2e is operated in step T13. The process of (Step T13; Yes) will be described.

具体的には、図13に示すように、まずステップT13においてカーソルキー2eが操作されたと判定した場合(ステップT13;Yes)には、CPU20は、現時点で複合語が反転指定されているか否かを判定し(ステップT44)、反転指定されていると判定した場合(ステップT44;Yes)には、当該複合語内においてカーソル方向に2番目の単語を反転指定し(ステップT45)、ステップT13の処理に移行する。   Specifically, as shown in FIG. 13, when it is first determined in step T13 that the cursor key 2e has been operated (step T13; Yes), the CPU 20 determines whether or not the compound word is currently designated as reversed. Is determined (step T44), and if it is determined that the inversion is specified (step T44; Yes), the second word is specified in the cursor direction in the compound word (step T45). Transition to processing.

また、ステップT44において複合語が反転指定されていないと判定した場合(ステップT44;No)には、CPU20は現時点での指定単語からカーソル方向に少なくとも1つ先の単語までの単語列や、この単語列の変化形単語列に完全一致する複合語を音声データベース83で検索し(ステップT46)、検出された複合語があるか否かを判定する(ステップT47)。   If it is determined in step T44 that the compound word is not inverted (step T44; No), the CPU 20 selects a word string from the currently specified word to at least one word ahead in the cursor direction, A compound word that completely matches the variation word string of the word string is searched in the speech database 83 (step T46), and it is determined whether there is a detected compound word (step T47).

そして、複合語があると判定した場合(ステップT47;Yes)には、CPU20は当該複合語を反転指定した後(ステップT48)、ステップT13の処理に移行し、複合語がないと判定した場合(ステップT47;No)には、カーソル方向に1つ先の単語を反転指定した後(ステップT49)、ステップT13の処理に移行する。   When it is determined that there is a compound word (step T47; Yes), after the CPU 20 designates the compound word in reverse (step T48), the process proceeds to step T13 and it is determined that there is no compound word. In (Step T47; No), after designating the next word in the cursor direction to be inverted (Step T49), the process proceeds to Step T13.

なお、本変形例においては、上記のステップT48の処理によって複合語が反転指定された状態でステップT15(図8参照)において訳/決定キー2bが操作された場合(ステップT15;Yes)には、CPU20は、ステップT17〜T20及びステップT31〜T34(図9参照)の処理を行う代わりに、当該複合語に対応する音声データを音声出力させるようになっている。   In this modified example, when the translation / decision key 2b is operated in step T15 (see FIG. 8) in a state where the compound word is specified in reverse by the processing in step T48 described above (step T15; Yes). Instead of performing the processes of steps T17 to T20 and steps T31 to T34 (see FIG. 9), the CPU 20 outputs voice data corresponding to the compound word.

これにより、例えば図14(a)に示すように、図11(a)〜(b)と同様の操作により用例「I have a glass of milk, hot cereal, and bread and butter for breakfast.」における単語「and」が反転指定された状態から、カーソルキー2eの右キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「and」からカーソル方向(右方向)に少なくとも1つ目の単語までの単語列「and bread…」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(b)に示すように、カーソル方向(右方向)の単語「bread」が反転指定される(ステップT49)。   Thus, for example, as shown in FIG. 14 (a), the words in the example “I have a glass of milk, hot cereal, and bread and butter for breakfast.” By the same operation as in FIGS. 11 (a) to 11 (b). When the right key of the cursor key 2e is operated from the state in which “and” is designated as reversed (step T13; Yes), it is determined that the compound word is not designated as reversed at this time (step T44; No). After the compound word completely matching the word string “and bread...” From the designated word “and” to the at least first word in the cursor direction (right direction) is searched in the speech database 83 (step T46), the compound word is searched. It is determined that there is no word (step T47; No), and as shown in FIG. 14B, the word “bread” in the cursor direction (right direction) is reversely designated (step T49).

また、この状態から更にカーソルキー2eの右キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「bread」からカーソル方向(右方向)に少なくとも1つ目の単語までの単語列「bread and…」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語「bread and butter」があると判定され(ステップT47;Yes)、図14(c)に示すように、当該複合語「bread and butter」が反転指定される(ステップT48)。   Further, if the right key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No), so the designated word “bread” is determined. ”To the at least first word in the cursor direction (rightward), a compound word that exactly matches the word string“ bread and... ”Is searched in the speech database 83 (step T46). "(Step T47; Yes), and as shown in FIG. 14C, the compound word" bread and butter "is reversely designated (step T48).

また、この状態から更にカーソルキー2eの右キーが操作されると(ステップT13;Yes)、現時点では複合語「bread and butter」が反転指定されていると判定されるため(ステップT44;Yes)、図14(d)に示すように、当該複合語「bread and butter」内においてカーソル方向(右方向)に2番目の単語「and」が反転指定される(ステップT45)。   Further, when the right key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word “bread and butter” is currently specified to be reversed (step T44; Yes). As shown in FIG. 14D, the second word “and” is designated in reverse in the cursor direction (right direction) in the compound word “bread and butter” (step T45).

また、この状態から更にカーソルキー2eの右キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「and」からカーソル方向(右方向)に少なくとも1つ目の単語までの単語列「and butter…」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(e)に示すように、カーソル方向(右方向)の単語「butter」が反転指定される(ステップT49)。   Further, if the right key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No), so the designated word “and ”To the cursor direction (right direction) and at least the first word is searched in the speech database 83 for a compound word that completely matches the word string“ and butter... ”(Step T46), it is determined that there is no compound word. Then (step T47; No), as shown in FIG. 14E, the word “butter” in the cursor direction (right direction) is designated in reverse (step T49).

また、この状態から更にカーソルキー2eの右キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「butter」からカーソル方向(右方向)に少なくとも1つ目の単語までの単語列「butter for…」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(f)に示すように、カーソル方向(右方向)の単語「for」が反転指定される(ステップT49)。   Further, when the right key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No), so the designated word “butter” ”To the cursor direction (right direction) and at least the first word is searched in the speech database 83 for a compound word that completely matches the word string“ butter for... ”(Step T46), it is determined that there is no compound word. Then (step T47; No), as shown in FIG. 14F, the word “for” in the cursor direction (right direction) is designated in reverse (step T49).

また、この状態から更にカーソルキー2eの左キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「for」からカーソル方向(左方向)に少なくとも1つ目の単語までの単語列「…butter for」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(g)に示すように、カーソル方向(左方向)の単語「butter」が反転指定される(ステップT49)。   Further, when the left key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No), so the designated word “for ”To the at least first word in the cursor direction (left direction), a compound word that completely matches the word string“... Butter for ”is searched in the speech database 83 (step T46), and it is determined that there is no compound word. Then (step T47; No), as shown in FIG. 14G, the word “butter” in the cursor direction (left direction) is reversely designated (step T49).

また、この状態から更にカーソルキー2eの左キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「butter」からカーソル方向(左方向)に少なくとも1つ目の単語までの単語列「…and butter」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語「bread and butter」があると判定され(ステップT47;Yes)、図14(h)に示すように、当該複合語「bread and butter」が反転指定される(ステップT48)。   Further, when the left key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No), the designated word “butter” ”To the at least first word in the cursor direction (left direction), a compound word completely matching the word string“... And butter ”is searched in the speech database 83 (step T 46), and then the compound word“ bread and butter ” "(Step T47; Yes), and as shown in FIG. 14H, the compound word" bread and butter "is reversely designated (step T48).

また、この状態から更にカーソルキー2eの左キーが操作されると(ステップT13;Yes)、現時点では複合語「bread and butter」が反転指定されていると判定されるため(ステップT44;Yes)、図14(i)に示すように、当該複合語「bread and butter」内においてカーソル方向(左方向)に2番目の単語「and」が反転指定される(ステップT45)。   Further, when the left key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word “bread and butter” is currently specified to be inverted (step T44; Yes). As shown in FIG. 14 (i), the second word “and” is designated in reverse in the cursor direction (left direction) in the compound word “bread and butter” (step T45).

また、この状態から更にカーソルキー2eの左キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「and」からカーソル方向(左方向)に少なくとも1つ目の単語までの単語列「…bread and」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(j)に示すように、カーソル方向(左方向)の単語「bread」が反転指定される(ステップT49)。   Further, if the left key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not specified to be reversed at this time (step T44; No), so the designated word “and ”To the cursor direction (left direction) and at least the first word is searched in the speech database 83 for a compound word that completely matches the word string“... Bread and ”(step T46), and it is determined that there is no compound word. Then (step T47; No), as shown in FIG. 14J, the word “bread” in the cursor direction (left direction) is reversely designated (step T49).

また、この状態から更にカーソルキー2eの左キーが操作されると(ステップT13;Yes)、現時点では複合語が反転指定されていないと判定されるため(ステップT44;No)、指定単語「bread」からカーソル方向(左方向)に少なくとも1つ目の単語までの単語列「…and bread」に完全一致する複合語が音声データベース83で検索された後(ステップT46)、複合語がないと判定され(ステップT47;No)、図14(j)に示すように、カーソル方向(左方向)の単語「and」が反転指定される(ステップT49)。   Further, when the left key of the cursor key 2e is further operated from this state (step T13; Yes), it is determined that the compound word is not designated to be reversed at this time (step T44; No). ”To the cursor direction (left direction) and at least the first word is searched in the speech database 83 for a compound word that completely matches the word string“... And bread ”(step T46), and it is determined that there is no compound word. Then, as shown in FIG. 14J, the word “and” in the cursor direction (left direction) is reversely designated (step T49).

以上の電子辞書1Aによれば、図13のステップT48や、図14に示したように、ユーザ操作に基づき反転指定された指定複合語に対応する音声データが音声出力されるので、複合語を指定することにより、当該複合語を音声出力させることができる。従って、従来と比較して簡単な操作で複合語を音声出力させることができる。   According to the electronic dictionary 1A described above, since the voice data corresponding to the designated compound word that is reversely designated based on the user operation is output as voice as shown in step T48 of FIG. 13 or FIG. By specifying, the compound word can be output as a voice. Therefore, it is possible to output a compound word by a simple operation compared to the conventional case.

また、図13のステップT45や、図14に示したように、ユーザ操作に基づいて指定複合語中の何れかの単語が反転指定されるので、複合語を反転指定した状態から、単語を反転指定した状態に変更することができる。   Further, as shown in step T45 of FIG. 13 or FIG. 14, any word in the designated compound word is designated in reverse based on the user operation, so that the word is inverted from the state in which the compound word is designated in reverse. It can be changed to the specified state.

なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

例えば、本発明に係る音声出力装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、携帯電話、パソコンなどの電子機器全般に適用可能である。また、本発明に係る音声出力プログラム81は、電子辞書1に対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。   For example, the voice output device according to the present invention has been described as the electronic dictionary 1, but those to which the present invention is applicable are not limited to such products, and can be applied to electronic devices such as mobile phones and personal computers. . Further, the audio output program 81 according to the present invention may be stored in a memory card, CD, or the like that can be attached to and detached from the electronic dictionary 1.

また、複合語を音声出力させるために見出語の説明情報や用例中の単語が反転指定されることとして説明したが、例えば外部機器からダウンロードされて表示されたテキスト中の単語が反転指定されることとしても良い。   In addition, in order to output a compound word as a voice, it has been described that words in headword explanation information and examples are specified in reverse. For example, words in text downloaded and displayed from an external device are specified in reverse. It's also good.

また、ステップT15において訳/決定キー2bが操作されたと判定した場合(ステップT15;Yes)には、CPU20はステップT17〜T20の処理を行うことによって第1音声出力候補記憶領域95のメイン候補リストに音声出力候補を記憶させることとして説明したが、指定単語を含んで音声データベース83に記憶された全ての単語列を検索して第2音声出力候補記憶領域96に記憶させた後、各単語列についてテキスト中の単語列や、その変化形単語列と完全一致するか否かを判定し、完全一致する単語列を音声出力候補として第1音声出力候補記憶領域95に記憶させることとしても良い。   If it is determined in step T15 that the translation / decision key 2b has been operated (step T15; Yes), the CPU 20 performs the processes in steps T17 to T20 to perform the main candidate list in the first audio output candidate storage area 95. However, after searching all word strings stored in the voice database 83 including the designated word and storing them in the second voice output candidate storage area 96, each word string is stored. It is also possible to determine whether or not the word string in the text or its variation word string is completely matched, and store the completely matched word string in the first voice output candidate storage area 95 as a voice output candidate.

本発明に係る音声出力装置を適用した電子辞書を示す平面図である。It is a top view which shows the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 本発明に係る音声出力装置を適用した電子辞書の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 辞書データベースの構造を示す図である。It is a figure which shows the structure of a dictionary database. 辞書データベースの構造を示す図である。It is a figure which shows the structure of a dictionary database. 音声データベースの構造を示す図である。It is a figure which shows the structure of an audio | voice database. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 音声サーチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a voice search process. 音声サーチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a voice search process. 辞書検索処理において表示されるメッセージの一例を示す図である。It is a figure which shows an example of the message displayed in a dictionary search process. 辞書検索処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in a dictionary search process. 辞書検索処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in a dictionary search process. 音声サーチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a voice search process. 辞書検索処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in a dictionary search process.

符号の説明Explanation of symbols

1 電子辞書(音声出力装置)
20 CPU(複合語検出手段、指定単語先頭複合語検出手段、変化形複合語検出手段、
音声出力制御手段、音声出力速度制御手段、検索手段)
30 入力部(単語指定手段、複合語指定手段、複合語内単語指定手段、
見出語指定手段)
40 表示部(テキスト表示手段、音声出力候補一覧表示手段、説明情報表示手段)
50 音声出力部(音声出力手段、指定複合語音声出力手段)
81 音声出力プログラム
82 辞書データベース(辞書記憶手段)
83 音声データベース(複合語音声データ記憶手段、見出語音声データ記憶手段)
1 Electronic dictionary (voice output device)
20 CPU (compound word detection means, designated word head compound word detection means, variation compound word detection means,
(Voice output control means, voice output speed control means, search means)
30 input section (word designating means, compound word designating means, word designating means in compound words,
Headword designation means)
40 display section (text display means, voice output candidate list display means, explanation information display means)
50 Voice output unit (voice output means, designated compound word voice output means)
81 voice output program 82 dictionary database (dictionary storage means)
83 Speech database (Compound word speech data storage means, headword speech data storage means)

Claims (4)

表示手段と、
各単語及び各複合語音声データを対応付けて記憶する複合語音声データ記憶手段と、
複数の単語を含むテキストを前記表示手段に表示制御するテキスト表示制御手段と、
前記表示手段により表示された前記テキスト中の任意の単語を識別語として前記表示手段に識別表示制御する識別表示制御手段と、
ユーザ操作に応じて所定の方向を指示する方向指示手段と、
前記表示手段により任意の単語が識別表示されている際に前記方向指示手段により右又は左の方向が指示されると、前記識別表示されている単語を端として前記指示された方向に連続する複合語を前記音声データ記憶手段から検索する複合語検索手段と、
この複合語検索手段により複合語が検出された場合には当該複合語を、複合語が検出されなかった場合には前記指示された方向の単語を、それぞれ新たな識別語として前記表示手段に識別表示制御する識別表示変更制御手段と、
前記表示手段により表示された識別語に対応する音声データをユーザ操作に基づき前記音声データ記憶手段から読み出して音声出力する音声出力手段と、
を備えることを特徴とする音声出力装置。
Display means;
And compound word audio data storage means for storing in association with audio data in each word and each compound word,
Text display control means for controlling display of text including a plurality of words on the display means ;
An identification display control means for identifying the display control on the display means any word in the displayed text as identification word by the display means,
Direction indicating means for instructing a predetermined direction in response to a user operation;
When a right or left direction is instructed by the direction indicating unit while an arbitrary word is identified and displayed by the display unit, a composite that continues in the indicated direction with the identified and displayed word as an end. Compound word retrieval means for retrieving words from the voice data storage means;
When a compound word is detected by the compound word search unit, the compound word is identified to the display unit as a new identification word, respectively. Identification display change control means for display control;
Voice output means for reading out voice data corresponding to the identification word displayed by the display means from the voice data storage means based on a user operation and outputting the voice;
An audio output device comprising:
請求項1記載の音声出力装置において、
ユーザ操作に基づいて、前記音声出力手段による音声出力速度を制御する音声出力速度制御手段を備えることを特徴とする音声出力装置。
The audio output device according to claim 1,
An audio output device comprising audio output speed control means for controlling an audio output speed by the audio output means based on a user operation.
請求項1または2に記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示制御手段は、
前記検索手段により検索された説明情報を前記テキストとして前記表示手段に表示制御する説明情報表示制御手段を有することを特徴とする音声出力装置。
The audio output device according to claim 1 or 2 ,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display control means includes
An audio output device comprising: explanatory information display control means for controlling display of the explanation information searched by the search means as the text on the display means .
コンピュータに、
各単語及び各複合語音声データを対応付けて記憶する複合語音声データ記憶機能と、
複数の単語を含むテキストを表示部に表示制御するテキスト表示制御機能と、
前記表示部により表示された前記テキスト中の任意の単語を識別語として前記表示部に識別表示制御する識別表示制御機能と、
ユーザ操作に応じて所定の方向を指示する方向指示機能と、
前記表示部により任意の単語が識別表示されている際に前記方向指示機能により右又は左の方向が指示されると、前記識別表示されている単語を端として前記指示された方向に連続する複合語を前記音声データ記憶機能から検索する複合語検索機能と、
この複合語検索機能により複合語が検出された場合には当該複合語を、複合語が検出されなかった場合には前記指示された方向の単語を、それぞれ新たな識別語として前記表示部に識別表示制御する識別表示変更制御機能と、
前記表示部により識別表示された識別語に対応する音声データをユーザ操作に基づき前記音声データ記憶手段から読み出して音声出力する音声出力機能と、
を実現させることを特徴とする音声出力プログラム。
On the computer,
And compound word audio data storage function of storing in association with audio data in each word and each compound word,
A text display control function of the display control on the display unit a text containing a plurality of words,
An identification display control function for identifying and controlling an arbitrary word in the text displayed by the display unit as an identification word on the display unit;
A direction instruction function for instructing a predetermined direction in response to a user operation;
When a right or left direction is instructed by the direction indicating function when an arbitrary word is identified and displayed by the display unit, a composite that continues in the indicated direction with the identified and displayed word as an end A compound word search function for searching words from the voice data storage function;
When a compound word is detected by the compound word search function, the compound word is identified on the display unit as a new identifier, and the compound word in the designated direction is identified as a new identifier. An identification display change control function for display control;
A voice output function for reading voice data corresponding to the identification word identified and displayed by the display unit from the voice data storage unit based on a user operation and outputting the voice;
An audio output program characterized by realizing the above.
JP2007014754A 2007-01-11 2007-01-25 Audio output device and audio output program Active JP4305515B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007014754A JP4305515B2 (en) 2007-01-25 2007-01-25 Audio output device and audio output program
US12/006,484 US8165879B2 (en) 2007-01-11 2008-01-03 Voice output device and voice output program
KR1020080002380A KR100931464B1 (en) 2007-01-11 2008-01-09 Recording medium recording voice output device and voice output program
CN200810002630.7A CN101221574B (en) 2007-01-11 2008-01-10 Voice output device and voice output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007014754A JP4305515B2 (en) 2007-01-25 2007-01-25 Audio output device and audio output program

Publications (2)

Publication Number Publication Date
JP2008181369A JP2008181369A (en) 2008-08-07
JP4305515B2 true JP4305515B2 (en) 2009-07-29

Family

ID=39725223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007014754A Active JP4305515B2 (en) 2007-01-11 2007-01-25 Audio output device and audio output program

Country Status (1)

Country Link
JP (1) JP4305515B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5417774B2 (en) * 2008-09-03 2014-02-19 カシオ計算機株式会社 Electronic device and program with dictionary function

Also Published As

Publication number Publication date
JP2008181369A (en) 2008-08-07

Similar Documents

Publication Publication Date Title
EP2646932A1 (en) Text conversion and representation system
JP5119671B2 (en) Audio output device and audio output program
US10650089B1 (en) Sentence parsing correction system
JP2010198241A (en) Chinese input device and program
KR100931464B1 (en) Recording medium recording voice output device and voice output program
JP2007219218A (en) Electronic equipment for language learning and translation reproducing method
JP4305515B2 (en) Audio output device and audio output program
JP3762300B2 (en) Text input processing apparatus and method, and program
JP2008171208A (en) Voice output device and voice output program
CN112541071A (en) Electronic dictionary, learning word judgment method, and recording medium
JP5024335B2 (en) Information display control device and information display control program
JP4492499B2 (en) Information display control device and information display control program
JP5141135B2 (en) Character input device and character input method in information processing device
JP2004171174A (en) Device and program for reading text aloud, and recording medium
JP2008058678A (en) Voice output device and program
JP2012181654A (en) Russian word search device and program
JP2010002830A (en) Voice recognition device
JP6451153B2 (en) Information display control device and program
JPH0830605A (en) Kana converting device
JP3069532B2 (en) Kana-kanji conversion method and device, and computer-readable recording medium storing a program for causing a computer to execute the kana-kanji conversion method
JP2007207182A (en) Electronic dictionary
JP3700743B2 (en) Recording medium and character input device
JP4640050B2 (en) Information display control device and information display control program
JP2009098328A (en) Speech synthesis device and method
JP2000194389A (en) Information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090420

R150 Certificate of patent or registration of utility model

Ref document number: 4305515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4