JP2008171208A - Voice output device and voice output program - Google Patents

Voice output device and voice output program Download PDF

Info

Publication number
JP2008171208A
JP2008171208A JP2007003850A JP2007003850A JP2008171208A JP 2008171208 A JP2008171208 A JP 2008171208A JP 2007003850 A JP2007003850 A JP 2007003850A JP 2007003850 A JP2007003850 A JP 2007003850A JP 2008171208 A JP2008171208 A JP 2008171208A
Authority
JP
Japan
Prior art keywords
word
headword
voice data
voice
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007003850A
Other languages
Japanese (ja)
Inventor
Takatoshi Abe
貴俊 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007003850A priority Critical patent/JP2008171208A/en
Priority to US12/006,484 priority patent/US8165879B2/en
Priority to KR1020080002380A priority patent/KR100931464B1/en
Priority to CN200810002630.7A priority patent/CN101221574B/en
Publication of JP2008171208A publication Critical patent/JP2008171208A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To correctly perform voice output of each compound word by storing voice data corresponding to each compound word. <P>SOLUTION: An electronic dictionary 1 which is a voice output device is equipped with; a voice database 83 which matches voice data to each compound word and stores it; a display part 40 which displays text; an input part 30 which specifies any of words in the text displayed in the display part 40 as a specified word based on user operation; a CPU 20 which detects a compound word which is shown in the text with a specified word at the head by the display part 40 and whose voice data is stored by the voice database 83; and a voice output part 50 which carries out voice output of the voice data corresponding to the compound word detected by the CPU 20. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音声出力装置及び音声出力プログラムに関する。   The present invention relates to an audio output device and an audio output program.

従来、音声出力の可能な電子辞書などの音声出力装置では、音声を出力する方式として、単語等の発音記号情報に基づいて音声データを合成して出力する方式や、予め単語等の録音データを格納して音声出力する方式が用いられている(例えば、特許文献1,2参照)。   Conventionally, in a voice output device such as an electronic dictionary capable of voice output, as a method of outputting voice, a method of synthesizing and outputting voice data based on pronunciation symbol information such as a word, or recording data such as a word in advance A method of storing and outputting sound is used (see, for example, Patent Documents 1 and 2).

ところで、音声出力装置で音声出力される対象としては、複数の単語からなる複合語がある。
特開2006−268501号公報 特開2006−268496号公報
By the way, there is a compound word composed of a plurality of words as an object to be output by the audio output device.
JP 2006-268501 A Japanese Patent Laid-Open No. 2006-268496

しかしながら、音声データを合成する方式によって複合語を音声出力する場合には、単語間の繋がりが正確に再現されず、発音に違和感が生じてしまう。一方、予め単語等の録音データを格納する方式によって複合語を音声出力する場合には、各複合語について録音データを格納していないと、音声出力をすることはできない。   However, when a compound word is output as a voice by a method of synthesizing voice data, the connection between words is not accurately reproduced, and the pronunciation is uncomfortable. On the other hand, when a compound word is output as a voice by a method of storing recorded data such as words in advance, the sound cannot be output unless the recording data is stored for each compound word.

本発明の課題は、各複合語を正確に音声出力することのできる音声出力装置及び音声出力プログラムを提供することである。   The subject of this invention is providing the audio | voice output apparatus and audio | voice output program which can carry out the audio | voice output of each compound word correctly.

請求項1記載の発明は、音声出力装置であって、
各複合語に音声データを対応付けて記憶する音声データ記憶手段と、
テキストを表示するテキスト表示手段と、
前記テキスト表示手段に表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
前記指定単語を先頭として前記テキスト表示手段によりテキスト中に表示されており、かつ、前記音声データ記憶手段により音声データの記憶されている複合語を検出する複合語検出手段と、
前記複合語検出手段によって検出された複合語に対応する音声データを音声出力する音声出力手段と、
を備えることを特徴とする。
The invention according to claim 1 is an audio output device,
Voice data storage means for storing voice data in association with each compound word;
Text display means for displaying text;
A word designating unit for designating any word in the text displayed on the text display unit as a designated word based on a user operation;
Compound word detection means for detecting a compound word that is displayed in the text by the text display means with the designated word at the beginning and in which voice data is stored by the voice data storage means;
Voice output means for outputting voice data corresponding to the compound word detected by the compound word detecting means;
It is characterized by providing.

請求項2記載の発明は、請求項1記載の音声出力装置において、
前記複合語検出手段は、
前記テキスト表示手段によりテキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものを検出する変化形複合語検出手段を有することを特徴とする。
The invention according to claim 2 is the audio output device according to claim 1,
The compound word detecting means includes
The present invention is characterized in that it has change compound word detection means for detecting at least one constituent word converted into a change word as a compound word displayed in the text by the text display means.

請求項3記載の発明は、請求項1または2記載の音声出力装置において、
前記音声出力手段で音声出力可能な音声データを、テキストデータから生成する音声データ生成手段と、
前記複合語検出手段によって複合語が検出されない場合に、その旨を前記テキスト表示手段に表示させるとともに、前記指定単語の音声データを前記音声データ生成手段に生成させて前記音声出力手段に音声出力させる合成音声出力制御手段と、
を備えることを特徴とする。
The invention according to claim 3 is the audio output device according to claim 1 or 2,
Voice data generating means for generating voice data that can be output by the voice output means from text data;
When a compound word is not detected by the compound word detecting unit, the fact is displayed on the text display unit, and voice data of the designated word is generated by the voice data generating unit and output by the voice output unit. Synthesized voice output control means;
It is characterized by providing.

請求項4記載の発明は、請求項1〜3の何れか一項に記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報をテキストとして表示する説明情報表示手段を有することを特徴とする。
The invention according to claim 4 is the audio output device according to any one of claims 1 to 3,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
It has an explanation information display means for displaying the explanation information retrieved by the retrieval means as text.

請求項5記載の発明は、請求項4記載の音声出力装置において、
前記音声データ記憶手段は、
各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を有し、
前記見出語指定手段は、
ユーザ操作に基づいて前記指定見出語についての検索文字列の入力操作を受ける見出語入力手段と、
前記検索文字列に対応する各見出語を前記辞書情報から抽出して見出語一覧を表示する見出語一覧表示手段と、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語を前記指定見出語として選択指定する見出語選択手段と、を有し、
前記音声出力手段は、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語に対応する音声データを音声出力する見出語音声出力手段を有することを特徴とする。
The invention described in claim 5 is the audio output device according to claim 4,
The voice data storage means includes
It has a headword voice data storage means for storing voice data in association with each headword,
The headword designating means is:
A headword input means for receiving a search character string input operation for the designated headword based on a user operation;
A headword list display means for extracting a headword corresponding to the search character string from the dictionary information and displaying a headword list;
A headword selection means for selecting and designating any headword in the headword list as the designated headword based on a user operation,
The audio output means is
It is characterized by having a headword voice output means for outputting voice data corresponding to any headword in the headword list based on a user operation.

請求項6記載の発明は、音声出力プログラムであって、
コンピュータに、
各複合語に音声データを対応付けて記憶する音声データ記憶機能と、
テキストを表示するテキスト表示機能と、
前記テキスト表示機能によって表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
前記指定単語を先頭として前記テキスト表示機能によりテキスト中に表示されており、かつ、前記音声データ記憶機能により音声データの記憶されている複合語を検出する複合語検出機能と、
前記複合語検出機能によって検出された複合語に対応する音声データを音声出力する音声出力機能と、
を実現させることを特徴とする。
The invention according to claim 6 is an audio output program,
On the computer,
A voice data storage function for storing voice data in association with each compound word;
A text display function to display text,
A word designating function for designating any word in the text displayed by the text display function as a designated word based on a user operation;
A compound word detection function that detects a compound word that is displayed in the text by the text display function with the designated word at the beginning, and that has voice data stored by the voice data storage function;
An audio output function for outputting audio data corresponding to the compound word detected by the compound word detection function;
It is characterized by realizing.

本発明によれば、各複合語に対応する音声データが記憶されて音声出力されるので、各複合語を正確に音声出力することができる。
また、表示されたテキスト中の何れかの単語が指定単語として指定されると、指定単語を先頭として当該テキスト中に表示されており、かつ、音声データの記憶されている複合語が検出され、検出された複合語に対応する音声データが音声出力されるので、何れの複合語について音声データが記憶されているかを把握しないでも、テキスト中の単語を指定単語と指定することによって複合語を音声出力させることができる。また、複合語の全体を入力する等して音声出力の対象とする場合と比較して、操作を簡略化することができる。
According to the present invention, since voice data corresponding to each compound word is stored and output as a voice, each compound word can be output as a voice accurately.
Further, when any word in the displayed text is designated as a designated word, a compound word that is displayed in the text with the designated word as the head and in which voice data is stored is detected, Since voice data corresponding to the detected compound word is output as a voice, the compound word can be voiced by designating the word in the text as the designated word without knowing which compound word the voice data is stored for. Can be output. In addition, the operation can be simplified as compared with the case where the entire compound word is input, for example, as a target for voice output.

以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.

まず、電子辞書の構成を説明する。   First, the configuration of the electronic dictionary will be described.

[外観構成]
図1は、電子辞書1の平面図である。
この図に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、スピーカ12及びキー群2を備えている。
[Appearance configuration]
FIG. 1 is a plan view of the electronic dictionary 1.
As shown in this figure, the electronic dictionary 1 includes a main display 10, a sub display 11, a speaker 12, and a key group 2.

メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)等によって構成されている。なお、本実施の形態におけるサブディスプレイ11は、いわゆるタッチパネルとなっており、表面を押下することにより、押下位置に応じた入力操作が可能となっている。   The main display 10 and the sub display 11 are parts for displaying various data such as characters and codes according to the operation of the key group 2 by the user, and are configured by an LCD (Liquid Crystal Display), an ELD (Electronic Luminescent Display), or the like. ing. In addition, the sub display 11 in this Embodiment is what is called a touch panel, and the input operation according to the pressing position is possible by pressing down the surface.

スピーカ12は、ユーザによるキー群2の操作に応じた見出語や例文等の音声を出力する部分である。   The speaker 12 is a part that outputs sounds such as headwords and example sentences according to the operation of the key group 2 by the user.

キー群2は、ユーザが電子辞書1を操作するための各種キーを有している。具体的には、キー群2は、訳/決定キー2bと、文字キー2cと、辞書選択キー2dと、カーソルキー2eと、シフトキー2fと、戻るキー2gと、音声出力キー2hと、用例キー2iと、複合語キー2j等とを有している。   The key group 2 has various keys for the user to operate the electronic dictionary 1. Specifically, the key group 2 includes a translation / decision key 2b, a character key 2c, a dictionary selection key 2d, a cursor key 2e, a shift key 2f, a return key 2g, a voice output key 2h, and an example key. 2i, compound word key 2j, and the like.

訳/決定キー2bは、検索の実行や、見出語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。辞書選択キー2dは、後述の辞書データベース84,…(図2参照)の選択に使用されるキーである。   The translation / decision key 2b is a key used for executing a search, determining a headword, and the like. The character key 2c is a key used for inputting characters by the user, and includes “A” to “Z” keys in the present embodiment. The dictionary selection key 2d is a key used for selecting a dictionary database 84 (see FIG. 2) described later.

カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。シフトキー2fは、日本語の単語を検索対象に設定するとき等に使用されるキーである。戻るキー2gは、前回表示した画面に戻るとき等に使用されるキーである。   The cursor key 2e is a key used for the reverse display position in the screen, that is, the movement of the cursor position. In the present embodiment, the up / down / left / right directions can be designated. The shift key 2f is a key used when a Japanese word is set as a search target. The return key 2g is a key used when returning to the previously displayed screen.

音声出力キー2hは、選択された見出語や複合語などの音声を出力させる場合に押下されるキーである。用例キー2iは、選択された見出語などを含む例文を表示させる場合に押下されるキーである。複合語キー2jは、選択された見出語を含む成句・複合語を表示させる場合に押下されるキーである。   The voice output key 2h is a key that is pressed when outputting a voice such as a selected headword or compound word. The example key 2i is a key that is pressed when displaying an example sentence including the selected headword. The compound word key 2j is a key that is pressed when displaying a phrase / compound word including the selected headword.

[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。
[Internal configuration]
Next, the internal structure of the electronic dictionary 1 will be described. FIG. 2 is a block diagram showing an internal configuration of the electronic dictionary 1.

この図に示すように、電子辞書1は、CPU(Central Processing Unit)20、入力部30、表示部40、音声出力部50、フラッシュROM(Read Only Memory)80、RAM(Random Access Memory)90を備え、各部はバス100で相互にデータ通信可能に接続されて構成されている。   As shown in this figure, the electronic dictionary 1 includes a CPU (Central Processing Unit) 20, an input unit 30, a display unit 40, an audio output unit 50, a flash ROM (Read Only Memory) 80, and a RAM (Random Access Memory) 90. Each unit is configured to be connected to each other via a bus 100 so that data communication is possible.

表示部40は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。   The display unit 40 includes the main display 10 and the sub display 11 described above, and displays various types of information on the main display 10 and the sub display 11 based on a display signal input from the CPU 20.

入力部30は、上述のキー群2を備えており、押下されたキーに対応する信号をCPU20に出力するようになっている。   The input unit 30 includes the key group 2 described above, and outputs a signal corresponding to the pressed key to the CPU 20.

音声出力部50は、上述のスピーカ12を備えており、CPU20から入力される音声出力信号に基づいて音声データをスピーカ12に再生させるようになっている。   The audio output unit 50 includes the speaker 12 described above, and causes the speaker 12 to reproduce audio data based on an audio output signal input from the CPU 20.

CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じてフラッシュROM80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果をRAM90に保存するとともに、当該処理結果を表示部40や音声出力部50に適宜出力させる。   The CPU 20 executes processing based on a predetermined program in accordance with an input instruction, performs an instruction to each function unit, data transfer, and the like, and comprehensively controls the electronic dictionary 1. Specifically, the CPU 20 reads various programs stored in the flash ROM 80 according to an operation signal or the like input from the input unit 30, and executes processing according to the program. Then, the CPU 20 stores the processing result in the RAM 90 and causes the display unit 40 and the audio output unit 50 to output the processing result as appropriate.

フラッシュROM80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM80は、本発明に係る音声出力プログラム81と、辞書データベース群82と、音声データベース83等とを記憶している。   The flash ROM 80 is a memory that stores programs and data for realizing various functions of the electronic dictionary 1. In the present embodiment, the flash ROM 80 stores a voice output program 81 according to the present invention, a dictionary database group 82, a voice database 83, and the like.

音声出力プログラム81は、後述の辞書検索処理(図6〜図9参照)をCPU20に実行させるためのプログラムである。   The voice output program 81 is a program for causing the CPU 20 to execute a later-described dictionary search process (see FIGS. 6 to 9).

辞書データベース群82は、複数の辞書データベース84,…を有しており、本実施の形態においては、「ジー○アス英和辞典」の辞書データベース84aや、「ロングマン現代英英辞典」の辞書データベース84b等を有している。   The dictionary database group 82 has a plurality of dictionary databases 84,... In this embodiment, the dictionary database 84a of the “G * US English-Japanese Dictionary” and the dictionary database 84b of the “Longman Contemporary English-English Dictionary” are used. Etc.

これら辞書データベース84,…には、例えば図3に1例を示すように、複数の見出語に対して、この見出語の発音記号及び意味内容からなる説明情報や、見出語の例文(用例)を識別するための用例番号、見出語を含む熟語を識別するための熟語番号,成句・複合語を識別するための複合語番号などが対応付けされて格納されている。また、各辞書データベース84には、例えば図4(a)〜(b)に1例を示すように、上述の用例番号に例文と、その対訳が対応付けられたテーブルや、上述の複合語番号に成句・複合語と、当該成句・複合語の説明情報とが対応付けられたテーブル、上述の熟語番号に熟語と、当該熟語の説明情報とが対応付けられたテーブル等が格納されている。なお、本実施の形態においては、各辞書データベース84における説明情報はテキストデータとなっている。   In these dictionary databases 84,..., For example, as shown in FIG. 3, for example, for a plurality of headwords, explanation information including pronunciation symbols and meaning contents of the headwords, and example sentences of headwords An example number for identifying (example), a idiom number for identifying a idiom including a headword, a compound word number for identifying a phrase / compound word, and the like are stored in association with each other. Each dictionary database 84 includes a table in which example numbers and their translations are associated with the above example numbers, as shown in FIG. 4A to FIG. 4B, for example, and the above compound word numbers. A table in which the phrase / compound word and the explanation information of the phrase / compound word are associated with each other, a table in which the idiom number is associated with the phrase information, and the explanation information of the phrase is stored. In the present embodiment, the description information in each dictionary database 84 is text data.

また、音声データベース83には、例えば図5に1例を示すように、見出語や成句・複合語などに対して、ネイティブの発音による音声データ、いわゆる「トゥルーボイス」が対応付けされて格納されている。   In the voice database 83, for example, as shown in an example in FIG. 5, voice data based on native pronunciation, so-called “true voice”, is stored in association with headwords, phrases, compound words, and the like. Has been.

RAM90は、CPU20が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリ領域を備えている。このRAM90は、本実施の形態においては、選択辞書記憶領域91、入力文字記憶領域92、選択見出語記憶領域93、単語列記憶領域94及び音声出力候補記憶領域95を備えている。   The RAM 90 includes a memory area that temporarily holds various programs executed by the CPU 20 and data related to the execution of these programs. In this embodiment, the RAM 90 includes a selected dictionary storage area 91, an input character storage area 92, a selected entry word storage area 93, a word string storage area 94, and a speech output candidate storage area 95.

ここで、選択辞書記憶領域91には、見出語の検索対象としてユーザにより選択された辞書データベース84の識別情報が格納されるようになっており、入力文字記憶領域92には、ユーザにより入力された入力文字が格納されるようになっている。また、選択見出語記憶領域93には、辞書引きする対象の見出語としてユーザによって選択された選択見出語が記憶されるようになっている。なお、本実施の形態における選択見出語は、本実施の形態においては、入力文字や指定文字に前方一致するようアルファベット順或いは五十音順に辞書データベースから読み出された見出語の一覧から選択されるようになっている。   Here, the selected dictionary storage area 91 stores identification information of the dictionary database 84 selected by the user as a search target of the headword, and the input character storage area 92 is input by the user. Input characters are stored. Further, the selected headword storage area 93 stores the selected headword selected by the user as the headword to be dictionaryd. In the present embodiment, the selected headword in the present embodiment is based on a list of headwords read from the dictionary database in alphabetical order or alphabetical order so as to match the input character or designated character in front. It is to be selected.

また、単語列記憶領域94には、後述の音声サーチ処理(図8〜図9参照)においてカーソル位置を先頭とする所定の単語列が記憶されるようになっており、音声出力候補記憶領域95には、後述の音声サーチ処理(図8〜図9参照)において音声出力対象の候補とされる各単語列がリスト化されて記憶されるようになっている。   The word string storage area 94 stores a predetermined word string starting from the cursor position in a later-described voice search process (see FIGS. 8 to 9). Each of the word strings that are candidates for speech output in a speech search process (see FIGS. 8 to 9) described later is stored in a list.

[動作]
続いて、電子辞書1の動作を説明する。
図6〜図9は、CPU20が音声出力プログラム81を読み出して実行する辞書検索処理の流れを示すフローチャートである。
[Operation]
Next, the operation of the electronic dictionary 1 will be described.
6 to 9 are flowcharts showing the flow of dictionary search processing in which the CPU 20 reads out and executes the voice output program 81.

まず、図6に示すように、ユーザにより辞書選択キー2dが押下されて辞書データベース群82から何れかの辞書データベース84が選択された後(ステップS1)、見出語検索の開始が指示されて(ステップS2)、検索文字列が入力されると(ステップS3)、CPU20は、入力された検索文字列に対応する見出語の候補を選択された辞書データベース84の中から抽出してメインディスプレイ10に一覧表示させるとともに、先頭の見出語を反転表示の対象として指定し、その説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS4)。なお、本実施の形態では、ステップS1の処理において、見出語及び説明情報の少なくとも一方が英語で記載された辞書データベース84が選択されるものとして説明する。   First, as shown in FIG. 6, after the dictionary selection key 2d is pressed by the user and any dictionary database 84 is selected from the dictionary database group 82 (step S1), an instruction to start a headword search is issued. (Step S2) When a search character string is input (Step S3), the CPU 20 extracts a headword candidate corresponding to the input search character string from the selected dictionary database 84, and performs main display. 10 is displayed as a list, the head word is designated as an object to be highlighted, its explanation information is retrieved from the dictionary database 84, and is previewed on the main display 10 in a region different from the head word list (step) S4). In the present embodiment, it is assumed that the dictionary database 84 in which at least one of the headword and the explanation information is written in English is selected in the process of step S1.

次に、CPU20は、ユーザによってカーソルキー2eの上下キーが操作されるか否かを判定し(ステップS5)、操作されたと判定した場合(ステップS5;Yes)には、反転指定の見出語を見出語一覧中でカーソル方向に変更し、変更先の見出語の説明情報を辞書データベース84から検索して見出語一覧とは別領域でメインディスプレイ10にプレビュー表示させた後(ステップS6)、上述のステップS5の処理に移行する。   Next, the CPU 20 determines whether or not the up / down key of the cursor key 2e is operated by the user (step S5), and when it is determined that the user has operated (step S5; Yes), the inversion designated entry word Is changed in the direction of the cursor in the headword list, the description information of the headword to be changed is retrieved from the dictionary database 84 and previewed on the main display 10 in a different area from the headword list (step S6), the process proceeds to step S5 described above.

一方、ステップS5において上下キーが操作されないと判定した場合(ステップS5;No)には、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS7)、操作されたと判定した場合(ステップS7;Yes)には、反転指定の見出語に対応する音声データを音声データベース83で検索し(ステップS8)、音声データがあるか否かを判定する(ステップS9)。そして、このステップS9において音声データがあると判定した場合(ステップS9;Yes)には、CPU20は、当該音声データを音声出力部50に音声出力させた後(ステップS10)、上述のステップS5の処理に移行する。また、ステップS9において音声データがないと判定した場合(ステップS9;No)には、CPU20は、図10(a)に示すように、音声データがない旨をメインディスプレイ10に表示させた後(ステップS11)、上述のステップS5の処理に移行する。   On the other hand, if it is determined in step S5 that the up / down key is not operated (step S5; No), the CPU 20 determines whether or not the audio output key 2h is operated by the user (step S7) and is operated. If it is determined (step S7; Yes), the speech database 83 is searched for speech data corresponding to the headword designated for inversion (step S8), and it is determined whether there is speech data (step S9). And when it determines with there being audio | voice data in this step S9 (step S9; Yes), after outputting the said audio | voice data to the audio | voice output part 50 (step S10), CPU20 of the above-mentioned step S5 Transition to processing. If it is determined in step S9 that there is no audio data (step S9; No), the CPU 20 displays on the main display 10 that there is no audio data as shown in FIG. Step S11), the process proceeds to the above-described step S5.

また、上述のステップS7において音声出力キー2hが操作されないと判定した場合(ステップS7;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定し(ステップS12)、操作されないと判定した場合(ステップS12;No)には、他の処理へ移行する。   If it is determined in step S7 that the voice output key 2h is not operated (step S7; No), the CPU 20 determines whether or not the translation / decision key 2b is operated by the user (step S12). ), When it is determined that it is not operated (step S12; No), the process proceeds to another process.

一方、ステップS12において訳/決定キー2bが操作されたと判定した場合(ステップS12;Yes)には、CPU20は、反転指定の見出語の説明情報をメインディスプレイ10に全画面表示させる(ステップS13)。このとき、表示されている見出語を含む複合語が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す複合語マークM1(図13参照)をメインディスプレイ10の右上部に表示させる。また、見出語の用例が辞書データベース84に記憶されている場合には、CPU20は、その旨を示す用例マークM2(図13参照)をメインディスプレイ10の表示領域のうち、用例の記憶されている意味内容の部分にそれぞれ表示させる。   On the other hand, if it is determined in step S12 that the translation / decision key 2b has been operated (step S12; Yes), the CPU 20 causes the main display 10 to display the explanation information of the headword designated for reversal (step S13). ). At this time, if a compound word including the displayed headword is stored in the dictionary database 84, the CPU 20 displays a compound word mark M1 (see FIG. 13) indicating that fact on the upper right portion of the main display 10. To display. In addition, when an example of a headword is stored in the dictionary database 84, the CPU 20 stores an example mark M2 (see FIG. 13) indicating that fact in the display area of the main display 10. Each meaning content is displayed.

次に、図7に示すように、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS21)、音声出力キー2hが操作されたと判定した場合(ステップS21;Yes)には、音声サーチ処理を行う(ステップS22)。   Next, as shown in FIG. 7, the CPU 20 determines whether or not the audio output key 2h is operated (step S21), and when it is determined that the audio output key 2h is operated (step S21; Yes). Performs voice search processing (step S22).

具体的には、図8に示すように、まずCPU20は、音声サーチ処理の実行中であることを示す音声サーチマークM3(図11等参照)を表示部40のメインディスプレイ10に表示させるとともに、音声出力の速度設定画面(図1参照)をサブディスプレイ11に表示させる(ステップT11)。なお、この速度設定画面が表示された状態では、ユーザがサブディスプレイ11の所定領域を押下することにより、音声の出力速度が任意の速度に変更される。   Specifically, as shown in FIG. 8, first, the CPU 20 displays a voice search mark M3 (see FIG. 11 and the like) indicating that the voice search process is being performed on the main display 10 of the display unit 40, and An audio output speed setting screen (see FIG. 1) is displayed on the sub-display 11 (step T11). When the speed setting screen is displayed, when the user presses a predetermined area of the sub-display 11, the audio output speed is changed to an arbitrary speed.

次に、CPU20は、メインディスプレイ10に表示されている説明情報または用例における先頭の単語を反転指定した後(ステップT12)、ユーザによってカーソルキー2eが操作されるか否かを判定し(ステップT13)、操作されたと判定した場合(ステップT13;Yes)には、反転指定の単語をカーソル方向に変更した後(ステップT14)、上述のステップT13の処理に移行する。   Next, the CPU 20 designates the first word in the explanation information or the example displayed on the main display 10 in reverse (step T12), and then determines whether or not the cursor key 2e is operated by the user (step T13). ), When it is determined that it has been operated (step T13; Yes), after the inversion designated word is changed in the cursor direction (step T14), the process proceeds to step T13 described above.

一方、ステップT13においてカーソルキー2eが操作されないと判定した場合(ステップT13;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定する(ステップT15)。   On the other hand, when it is determined in step T13 that the cursor key 2e is not operated (step T13; No), the CPU 20 determines whether or not the translation / decision key 2b is operated by the user (step T15).

このステップT15において訳/決定キー2bが操作されたと判定した場合(ステップT15;Yes)には、CPU20は、反転指定されているカーソル位置の単語から文中の末尾の単語までの一連の単語列を抽出して単語列記憶領域94に記憶させ(ステップT16)、当該単語列や、この単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に対応する音声データを音声データベース83で検索し、検索された場合には、その音声データを音声出力候補記憶領域95の候補リストに加える(ステップT17)。   If it is determined in step T15 that the translation / decision key 2b has been operated (step T15; Yes), the CPU 20 obtains a series of word strings from the word at the cursor position designated for inversion to the last word in the sentence. The extracted voice data is stored in the word string storage area 94 (step T16), and the voice data corresponding to the word string and the modified word string in which at least one constituent word in the word string is converted to the modified word is voiced. The database 83 is searched, and if searched, the voice data is added to the candidate list in the voice output candidate storage area 95 (step T17).

なお、変化形単語としては、例えば、構成単語をハイフンなどで結合した単語の他、原形動詞の構成単語に対する過去形、過去分詞形、格変化形の単語や、原形の形容詞の構成単語に対する比較級形、最上級形の単語などがある。また、構成単語の変化形単語を取得する方法としては、各単語について変化形単語を対応付けて記憶したテーブルを参照するなど、従来より公知の手法を用いることができる。   In addition, for example, as a change word, in addition to a word formed by combining constituent words with hyphens, etc., a comparison is made with respect to a constituent word of the original verb, a past tense, a past participle, a case change, and a basic adjective constituent word. There are class and superlative words. Moreover, as a method of acquiring the variation word of the constituent words, a conventionally known method can be used such as referring to a table storing the variation word for each word in association with each other.

次に、CPU20は、単語列記憶領域94に記憶されている単語列における末尾の単語を削除し、残りの単語列や、残りの単語列中の少なくとも1つの構成単語が変化形単語に変換された変化形単語列に対応する音声データを音声データベース83で検索し、検索された場合には、その音声データを音声出力候補記憶領域95の候補リストに加える(ステップT18)。   Next, the CPU 20 deletes the last word in the word string stored in the word string storage area 94 and converts the remaining word string or at least one constituent word in the remaining word string into a change word. The voice data corresponding to the changed word string is searched in the voice database 83, and if searched, the voice data is added to the candidate list in the voice output candidate storage area 95 (step T18).

次に、CPU20は、単語列記憶領域94における単語列がカーソル位置の単語のみ、つまり反転指定されている単語のみであるか否かを判定し(ステップT19)、カーソル位置の単語のみではないと判定した場合(ステップT19;No)には、上述のステップT18の処理に移行する。   Next, the CPU 20 determines whether or not the word string in the word string storage area 94 is only the word at the cursor position, that is, only the word that has been specified to be reversed (step T19). When it determines (step T19; No), it transfers to the process of above-mentioned step T18.

一方、ステップT19においてカーソル位置の単語のみであると判定した場合(ステップT19;Yes)には、CPU20は、図9に示すように、音声出力候補記憶領域95に音声データの候補が記憶されているか否かを判定し(ステップT31)、記憶されていると判定した場合(ステップT31;Yes)には、候補リストの単語列をメインディスプレイ10に一覧表示させ(ステップT32)、ユーザによりカーソルキー2eで何れかの単語列が指定され、訳/決定キー2bで選択されると(ステップT33)、選択された単語列の音声データを音声出力部50に音声出力させる(ステップT34)。   On the other hand, when it is determined in step T19 that only the word at the cursor position is present (step T19; Yes), the CPU 20 stores voice data candidates in the voice output candidate storage area 95 as shown in FIG. If it is determined whether or not it is stored (step T31; Yes), the word strings of the candidate list are displayed in a list on the main display 10 (step T32), and the user presses the cursor key. When any word string is designated by 2e and selected by the translation / decision key 2b (step T33), the voice output unit 50 causes the voice output unit 50 to output the voice data of the selected word string (step T34).

次に、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT35)、操作されないと判定した場合(ステップT35;No)には、上述のステップT33の処理に移行し、操作されたと判定した場合(ステップT35;Yes)には、図8に示すように、上述のステップT13の処理に移行する。   Next, the CPU 20 determines whether or not the return key 2g is operated by the user (step T35), and when it is determined that the user does not operate (step T35; No), the process proceeds to the above-described step T33. If it is determined that it has been operated (step T35; Yes), the process proceeds to the above-described step T13 as shown in FIG.

また、図9,図10(b)に示すように、上述のステップT31において音声データの候補がないと判定した場合(ステップT31;No)には、CPU20は、その旨と、反転指定されている単語について合成音声を音声出力するか否か質問する旨とをメインディスプレイ10に表示させた後(ステップT36)、音声出力が選択されるか否かを判定し(ステップT37)、選択されないと判定した場合(ステップT37;No)には、図8に示すように、上述のステップT13の処理に移行する。   As shown in FIGS. 9 and 10B, when it is determined in step T31 that there is no audio data candidate (step T31; No), the CPU 20 is designated as reversed. After displaying on the main display 10 whether or not to ask whether or not to output synthesized speech for a certain word (step T36), it is determined whether or not speech output is selected (step T37). When it determines (step T37; No), as shown in FIG. 8, it transfers to the process of above-mentioned step T13.

また、図9に示すように、ステップT37において音声出力が選択されたと判定した場合(ステップT37;Yes)には、CPU20は、反転指定されているカーソル位置の単語の発音記号に基づいて当該単語の合成音声データを生成し、合成音声データを音声出力部50に音声出力させた後(ステップT38)、図8に示すように、上述のステップT13の処理に移行する。なお、発音記号に基づいて合成音声データを音声出力する手法としては、各音素に対応する音声データをフラッシュROM80等に予め格納した状態で、発音記号のテキストデータを音素に分解し、分解された各音素に対応する音声データを合成して連続再生する等、従来より公知の手法を用いることができる。但し、発音記号のテキストデータに基づいて合成音声を出力するのではなく、単語自体のテキストデータに基づいて合成音声を出力するようにしても良い。   Also, as shown in FIG. 9, when it is determined in step T37 that the audio output has been selected (step T37; Yes), the CPU 20 determines that the word based on the phonetic symbol of the word at the cursor position that has been designated as reversed. After the synthesized voice data is generated and the synthesized voice data is output to the voice output unit 50 (step T38), the process proceeds to the above-described step T13 as shown in FIG. As a method for outputting synthesized speech data based on phonetic symbols, the speech data corresponding to each phoneme is stored in the flash ROM 80 or the like in advance, and the phonetic symbol text data is decomposed into phonemes. Conventionally known methods such as synthesizing voice data corresponding to each phoneme and continuously reproducing the data can be used. However, instead of outputting the synthesized speech based on the text data of the phonetic symbols, the synthesized speech may be output based on the text data of the word itself.

また、上述のステップT15において訳/決定キー2bが操作されないと判定した場合(ステップT15;No)には、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップT21)、操作されないと判定した場合(ステップT21;No)には、他の処理へ移行し、操作されたと判定したと判定した場合(ステップT21;Yes)には、音声サーチ処理を終了した後、図7に示すように、上述のステップS21の処理に移行する。   If it is determined in step T15 that the translation / decision key 2b is not operated (step T15; No), the CPU 20 determines whether or not the return key 2g is operated by the user (step T21). If it is determined that it has not been operated (step T21; No), the process proceeds to another process. If it is determined that it has been operated (step T21; Yes), the voice search process is terminated, As shown in FIG. 7, the process proceeds to step S21 described above.

また、このステップS21において音声出力キー2hが操作されないと判定した場合(ステップS21;No)には、CPU20は、ユーザによって用例キー2iが操作されるか否かを判定し(ステップS31)、操作されたと判定した場合(ステップS31;Yes)には、上述のステップS13によってメインディスプレイ10に表示された用例マークM2,…のうち、先頭の用例マークM2を反転させて指定表示し、当該用例マークに対応する意味内容での用例を、見出語の説明情報とは別領域でメインディスプレイ10にプレビュー表示させる(ステップS32)。   If it is determined in step S21 that the audio output key 2h is not operated (step S21; No), the CPU 20 determines whether or not the example key 2i is operated by the user (step S31). If it is determined that it has been performed (step S31; Yes), the first example mark M2 of the example marks M2,... Displayed on the main display 10 at the above-described step S13 is inverted and designated and displayed. An example with the meaning content corresponding to is displayed as a preview on the main display 10 in a different area from the explanation information of the headword (step S32).

次に、ユーザによりカーソルキー2eの上下キーで何れかの用例マークM2が指定され、訳/決定キー2bで選択されると(ステップS33)、CPU20は、選択された用例マークに対応する意味内容での用例をメインディスプレイ10に全画面表示させる(ステップS34)。   Next, when any example mark M2 is designated by the user with the up / down key of the cursor key 2e and selected with the translation / decision key 2b (step S33), the CPU 20 makes the meaning content corresponding to the selected example mark. The example in is displayed on the main display 10 in full screen (step S34).

次に、CPU20は、音声出力キー2hが操作されるか否かを判定し(ステップS35)、操作されないと判定した場合(ステップS35;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS35;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS36)、上述のステップS35の処理に移行する。   Next, the CPU 20 determines whether or not the voice output key 2h is operated (step S35). When it is determined that the voice output key 2h is not operated (step S35; No), the CPU 20 proceeds to another process and is operated. If it is determined (step S35; Yes), after performing the voice search process similar to step S22 described above (step S36), the process proceeds to step S35 described above.

また、上述のステップS31において用例キー2iが操作されないと判定した場合(ステップS31;No)には、CPU20は、ユーザによって複合語キー2jが操作されるか否かを判定し(ステップS41)、操作されないと判定した場合(ステップS41;No)には、他の処理へ移行する。   If it is determined in step S31 that the example key 2i is not operated (step S31; No), the CPU 20 determines whether the compound word key 2j is operated by the user (step S41). If it is determined not to be operated (step S41; No), the process proceeds to another process.

また、ステップS41において複合語キー2jが操作されたと判定した場合(ステップS41;Yes)には、CPU20は、反転指定の単語を含む複合語をメインディスプレイ10に一覧表示させ(ステップS42)、ユーザによりカーソルキー2eの上下キーで何れかの複合語が指定され、訳/決定キー2bで選択されると(ステップS43)、選択された複合語の説明情報をメインディスプレイ10に全画面表示させる(ステップS44)。   If it is determined in step S41 that the compound word key 2j has been operated (step S41; Yes), the CPU 20 displays a list of compound words including the reverse designated word on the main display 10 (step S42), and the user When one of the compound words is designated by the up / down key of the cursor key 2e and selected by the translation / decision key 2b (step S43), the explanation information of the selected compound word is displayed on the main display 10 in full screen ( Step S44).

次に、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS45)、操作されないと判定した場合(ステップS45;No)には、他の処理へ移行し、操作されたと判定した場合(ステップS45;Yes)には、上述のステップS22と同様の音声サーチ処理を行った後(ステップS46)、上述のステップS45の処理に移行する。   Next, the CPU 20 determines whether or not the voice output key 2h is operated by the user (step S45). When it is determined that the user does not operate (step S45; No), the CPU 20 proceeds to another process and operates. If it is determined that it has been performed (step S45; Yes), after performing the voice search process similar to step S22 described above (step S46), the process proceeds to step S45 described above.

<動作例>
続いて、図面を参照しつつ、上記の辞書検索処理を具体的に説明する。なお、後述の図11等においては、図中の左側に電子辞書1の全体図を簡略化して示すとともに、図中の右側に操作手順を示している。
<Operation example>
Next, the above dictionary search process will be specifically described with reference to the drawings. In addition, in FIG. 11 etc. which will be described later, an overall view of the electronic dictionary 1 is simplified on the left side in the figure, and an operation procedure is shown on the right side in the figure.

(動作例1)
例えば、図11(a)に示すように、ユーザによって「ジ○ニアス英和辞典」の辞書データベース84aが選択され(ステップS1)、検索文字列として「batteringram」が入力されると(ステップS3)、当該検索文字列に対応する見出語の候補「batter」,「battery」,…がメインディスプレイ10の中段に一覧表示されるとともに、先頭の見出語「[batter]〜ing ram」が反転指定されて、その説明情報がメインディスプレイ10の下段にプレビュー表示される(ステップS4)。
(Operation example 1)
For example, as shown in FIG. 11 (a), when the user selects the dictionary database 84a of “Gianius English-Japanese Dictionary” (step S1) and inputs “batteringram” as a search character string (step S3), Candidates “batter”, “battery”,... Corresponding to the search character string are listed in the middle of the main display 10, and the head words “[batter] to ing ram” are specified in reverse. Then, the explanation information is previewed on the lower part of the main display 10 (step S4).

次に、ユーザによって音声出力キー2hが操作されると(ステップS7;Yes)、反転指定の見出語「[batter]〜ing ram」が音声出力される(ステップS10)。   Next, when the voice output key 2h is operated by the user (step S7; Yes), the inverted word “[batter] to ing ram” is output as a voice (step S10).

次に、図11(b)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「[batter]〜ing ram」の説明情報が全画面表示され(ステップS13)、更にユーザによって音声出力キー2hが操作されると(ステップS21;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。   Next, as shown in FIG. 11B, when the translation / decision key 2b is operated by the user (step S12; Yes), the explanatory information of the headword “[batter] to ing ram” designated for inversion is obtained. When the full screen is displayed (step S13) and the voice output key 2h is further operated by the user (step S21; Yes), the voice search mark M3 is displayed on the main display 10 and the voice output speed setting screen is displayed on the sub screen. It is displayed on the display 11 (step T11).

次に、メインディスプレイ10に表示されている説明情報の先頭の単語「batter」が反転指定された後(ステップT12)、ユーザによってカーソルキー2eの下キーが操作されると(ステップT13;Yes)、当該カーソル方向において単語列「〜ing ram」における単語「〜ing」が反転指定される(ステップT14)。   Next, after the first word “batter” of the description information displayed on the main display 10 is specified to be reversed (step T12), when the user operates the lower key of the cursor key 2e (step T13; Yes). In the cursor direction, the word “˜ing” in the word string “˜ing ram” is reversely designated (step T14).

次に、図11(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、反転指定されている単語「〜ing」から末尾の単語「ram」までの一連の単語列「battering ram」が単語列記憶領域94に記憶され(ステップT16)、当該単語列「battering ram」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT17)。   Next, as shown in FIG. 11C, when the translation / decision key 2b is operated by the user (step T15; Yes), from the inverted word “˜ing” to the last word “ram” Is stored in the word string storage area 94 (step T16), and the voice data corresponding to the word string “battering ram” is added to the candidate list in the voice output candidate storage area 95 (step S16). T17).

次に、末尾の単語「ram」が削除された単語列「battering」や、この単語列の変化形単語「batter」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「battering ram」,「battering」,「batter」が一覧表示される(ステップT32)。   Next, after the speech data corresponding to the word string “battering” from which the last word “ram” has been deleted and the variation word “batter” of this word string are added to the candidate list in the speech output candidate storage area 95 (Step T18), the word strings “battering ram”, “battering”, “batter” in the candidate list stored in the voice output candidate storage area 95 are displayed in a list (step T32).

そして、図11(d)に示すように、ユーザによりカーソルキー2eの下キーが操作され、訳/決定キー2bが操作されると(ステップT33)、選択された単語列「battering」の音声データが音声出力される(ステップT34)。   Then, as shown in FIG. 11D, when the user operates the down key of the cursor key 2e and operates the translation / decision key 2b (step T33), the voice data of the selected word string “battering” Is output as a sound (step T34).

(動作例2)
例えば、図12(a)に示すように、ユーザによって「ロ○グマン現代英英辞典」の辞書データベース84bが選択され(ステップS1)、検索文字列として「baked beans」が入力された後(ステップS3)、見出語の候補「baked beans」について訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「baked beans」の説明情報が全画面表示される(ステップS13)。
(Operation example 2)
For example, as shown in FIG. 12 (a), after the user selects the dictionary database 84b of “Logman Modern English-English Dictionary” (Step S1) and inputs “baked beans” as a search character string (Step S1). S3) When the translation / decision key 2b is operated for the candidate word “baked beans” (step S12; Yes), the explanation information of the inverted word “baked beans” is displayed on the full screen (S3). Step S13).

次に、ユーザによって音声出力キー2hが操作されると(ステップS21;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。   Next, when the voice output key 2h is operated by the user (step S21; Yes), the voice search mark M3 is displayed on the main display 10 and the speed setting screen for voice output is displayed on the sub display 11 ( Step T11).

次に、メインディスプレイ10に表示されている説明情報の先頭の単語「baked」が反転指定された後(ステップT12)、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、図12(b)に示すように、反転指定されている単語「baked」から末尾の単語「beans」までの一連の単語列「baked beans」が単語列記憶領域94に記憶され(ステップT16)、当該単語列「baked beans」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT17)。   Next, after the first word “baked” of the description information displayed on the main display 10 is specified to be reversed (step T12), when the translation / decision key 2b is operated by the user (step T15; Yes), As shown in FIG. 12B, a series of word strings “baked beans” from the inverted word “baked” to the last word “beans” are stored in the word string storage area 94 (step T16). The audio data corresponding to the word string “baked beans” is added to the candidate list in the audio output candidate storage area 95 (step T17).

次に、末尾の単語「beans」が削除された単語列「baked」の変化形単語「bake」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「baked beans」,「bake」が一覧表示される(ステップT32)。   Next, after the speech data corresponding to the variation word “bake” of the word string “baked” from which the last word “beans” has been deleted is added to the candidate list in the speech output candidate storage area 95 (step T18), A list of word strings “baked beans” and “bake” in the candidate list stored in the audio output candidate storage area 95 is displayed (step T32).

そして、図12(c)に示すように、ユーザにより訳/決定キー2bが操作されると(ステップT33)、選択された単語列「baked beans」の音声データが音声出力される(ステップT34)。   Then, as shown in FIG. 12C, when the translation / decision key 2b is operated by the user (step T33), the audio data of the selected word string “baked beans” is output as audio (step T34). .

(動作例3)
例えば、図13(a)に示すように、ユーザによって「ジ○ニアス英和辞典」の辞書データベース84aが選択され(ステップS1)、検索文字列として「bread」が入力された後(ステップS3)、見出語の候補「bread」について訳/決定キー2bが操作されると(ステップS12;Yes)、反転指定の見出語「baked beans」の説明情報が全画面表示される(ステップS13)。
(Operation example 3)
For example, as shown in FIG. 13 (a), after the user selects the dictionary database 84a of “Gianius English-Japanese Dictionary” (step S1) and inputs “bread” as a search character string (step S3), When the translation / decision key 2b is operated for the headword candidate “bread” (step S12; Yes), the explanatory information of the headword “baked beans” specified for inversion is displayed in full screen (step S13).

次に、図13(b)に示すように、ユーザによって用例キー2iが操作され(ステップS31;Yes)、意味内容「食パン」での用例について訳/決定キー2bが操作されると(ステップS33)、当該意味内容「食パン」での見出語「bread」の用例が全画面表示される(ステップS34)。   Next, as shown in FIG. 13B, the user operates the example key 2i (step S31; Yes), and operates the translation / decision key 2b for the example with the meaning content “bread” (step S33). ), An example of the headword “bread” in the meaning content “bread” is displayed on the full screen (step S34).

次に、ユーザによって音声出力キー2hが操作されると(ステップS35;Yes)、音声サーチマークM3がメインディスプレイ10に表示されるとともに、音声出力の速度設定画面がサブディスプレイ11に表示される(ステップT11)。   Next, when the voice output key 2h is operated by the user (step S35; Yes), the voice search mark M3 is displayed on the main display 10 and the speed setting screen for voice output is displayed on the sub display 11 ( Step T11).

次に、メインディスプレイ10に表示されている説明情報の先頭の単語「bread」が反転指定された後(ステップT12)、ユーザによってカーソルキー2eの下キーや右キーが複数回操作されると(ステップT13;Yes)、当該カーソル方向において用例「I have a glass of milk, hot cereal, and bread and butter for breakfast.」における単語「bread」が反転指定される(ステップT14)。   Next, after the first word “bread” of the description information displayed on the main display 10 is designated in reverse (step T12), when the user operates the cursor key 2e down key or right key multiple times (step T12). Step T13; Yes) In the cursor direction, the word “bread” in the example “I have a glass of milk, hot cereal, and bread and butter for breakfast.” Is designated in reverse (step T14).

次に、図13(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップT15;Yes)、反転指定されている単語「bread」から末尾の単語「breakfast」までの一連の単語列「bread and butter for breakfast」が単語列記憶領域94に記憶される(ステップT16)。このとき、当該単語列「bread and butter for breakfast」に対応する音声データは検出されない(ステップT17)。   Next, as shown in FIG. 13C, when the translation / decision key 2b is operated by the user (step T15; Yes), the word “bread” from the reverse designation to the last word “breakfast” is displayed. A series of word strings “bread and butter for breakfast” is stored in the word string storage area 94 (step T16). At this time, audio data corresponding to the word string “bread and butter for breakfast” is not detected (step T17).

次に、末尾の単語「breakfast」が削除された単語列「bread and butter for」が単語列記憶領域94に記憶される。このとき、当該単語列「bread and butter for breakfast」に対応する音声データは検出されない(ステップT18)。   Next, the word string “bread and butter for” from which the last word “breakfast” has been deleted is stored in the word string storage area 94. At this time, audio data corresponding to the word string “bread and butter for breakfast” is not detected (step T18).

次に、末尾の単語「for」が削除された単語列「bread and butter」が単語列記憶領域94に記憶され、当該単語列「bread and butter」や変化形単語列「bread-and-butter」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられる(ステップT18)。   Next, the word string “bread and butter” from which the last word “for” has been deleted is stored in the word string storage area 94, and the word string “bread and butter” and the variation word string “bread-and-butter” are stored. Is added to the candidate list in the voice output candidate storage area 95 (step T18).

次に、末尾の単語「butter」が削除された単語列「bread and」が単語列記憶領域94に記憶される。このとき、当該単語列「bread and」に対応する音声データは検出されない(ステップT18)。   Next, the word string “bread and” from which the last word “butter” has been deleted is stored in the word string storage area 94. At this time, voice data corresponding to the word string “bread and” is not detected (step T18).

次に、末尾の単語「and」が削除された単語列「bread」に対応する音声データが音声出力候補記憶領域95の候補リストに加えられた後(ステップT18)、音声出力候補記憶領域95に記憶された候補リストの単語列「bread-and-butter」,「bread and butter」,「batter」が一覧表示される(ステップT32)。   Next, after the speech data corresponding to the word string “bread” from which the last word “and” has been deleted is added to the candidate list in the speech output candidate storage area 95 (step T18), it is stored in the speech output candidate storage area 95. The word strings “bread-and-butter”, “bread and butter”, and “batter” in the stored candidate list are displayed in a list (step T32).

そして、図13(d)に示すように、ユーザによりカーソルキー2eの下キーが操作され、訳/決定キー2bが操作されると(ステップT33)、選択された単語列「bread and butter」の音声データが音声出力される(ステップT34)。   Then, as shown in FIG. 13D, when the user operates the down key of the cursor key 2e and operates the translation / decision key 2b (step T33), the selected word string “bread and butter” Audio data is output as audio (step T34).

以上の電子辞書1によれば、図9のステップT34や、図11〜図13に示したように、各複合語に対応する音声データが記憶されて音声出力されるので、各複合語を正確に音声出力することができる。また、表示されたテキスト中の何れかの単語が反転指定されると、その単語を先頭として当該テキスト中に表示されており、かつ、音声データベース83に音声データの記憶されている複合語が検出され、検出された複合語に対応する音声データが音声出力されるので、何れの複合語について音声データが記憶されているかを把握しないでも、テキスト中の単語を反転指定することによって複合語を音声出力させることができる。また、複合語の全体を入力する等して音声出力の対象とする場合と比較して、操作を簡略化することができる。   According to the electronic dictionary 1 described above, since the speech data corresponding to each compound word is stored and output as speech as shown in step T34 of FIG. 9 and FIGS. Audio output. Also, when any word in the displayed text is reversely designated, a compound word that is displayed in the text with the word as the head and whose speech data is stored in the speech database 83 is detected. Since the voice data corresponding to the detected compound word is output as voice, the compound word can be voiced by inversion of the word in the text without knowing which compound word the voice data is stored in. Can be output. In addition, the operation can be simplified as compared with the case where the entire compound word is input, for example, as a target for voice output.

また、図8のステップT18や、図11〜図13に示したように、テキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものが検出されるので、音声データと対応付けて記憶されている複合語に対してテキスト中での複合語が変化形である場合であっても、当該複合語を音声出力することができる。   Further, as shown in step T18 of FIG. 8 and FIGS. 11 to 13, since a compound word displayed in the text is detected as a compound word converted into a change word. Even if the compound word in the text is a variation of the compound word stored in association with the voice data, the compound word can be output as a voice.

また、図9のステップT38や、図10(b)に示したように、複合語が検出されない場合には、その旨が表示されるとともに、反転指定単語についてのテキストデータから音声データが生成されて音声出力されるので、複合語の音声データが記憶されていない場合であっても、反転指定の単語を音声出力させることができる。また、複合語が検出されない場合にその旨が表示されるので、記憶されている音声データが音声出力されているのか、或いはテキストデータから生成されている音声データが音声出力されているのかを判別することができる。   Further, as shown in step T38 of FIG. 9 and FIG. 10B, when a compound word is not detected, a message to that effect is displayed and voice data is generated from the text data of the reverse designated word. Therefore, even if the compound word sound data is not stored, the inversion designated word can be output as a sound. In addition, when a compound word is not detected, a message to that effect is displayed, so it is determined whether the stored voice data is output as voice or the voice data generated from text data is output as voice. can do.

また、図6のステップS3〜S4,S13や、図11(a)等に示したように、ユーザ操作に基づいて辞書データベース84における何れかの見出語が指定されると、当該見出語に対応する説明情報が辞書データベース84から検索され、検索された説明情報がテキストとして表示されるので、説明情報中の何れかの単語を反転指定することにより、当該説明情報中の複合語を音声出力させることができる。   Further, as shown in steps S3 to S4 and S13 of FIG. 6, FIG. 11A, etc., when any headword in the dictionary database 84 is designated based on a user operation, the headword Is retrieved from the dictionary database 84, and the retrieved explanation information is displayed as text. By designating one of the words in the explanation information in reverse, the compound word in the explanation information is voiced. Can be output.

また、図6のステップS3〜S4,S10や、図11(a)等に示したように、ユーザ操作に基づいて見出語についての検索文字列の入力操作を受けると、当該検索文字列に対応する各見出語が辞書情報から抽出されて見出語一覧が表示され、見出語一覧における何れかの見出語に対応する音声データが音声出力されるので、任意の見出語を音声出力させることができる。また、見出語一覧に複合語を表示させることにより、当該複合語を音声出力させることができる。   In addition, as shown in steps S3 to S4 and S10 in FIG. 6 and FIG. 11A, when a search character string input operation for a headword is received based on a user operation, the search character string is displayed. Each corresponding headword is extracted from the dictionary information, a headword list is displayed, and voice data corresponding to any headword in the headword list is output as voice. Audio output is possible. Further, by displaying a compound word in the headword list, the compound word can be output as a voice.

なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

例えば、本発明に係る音声出力装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、携帯電話、パソコンなどの電子機器全般に適用可能である。また、本発明に係る音声出力プログラム81は、電子辞書1に対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。   For example, the voice output device according to the present invention has been described as the electronic dictionary 1, but those to which the present invention is applicable are not limited to such products, and can be applied to electronic devices such as mobile phones and personal computers. . Further, the audio output program 81 according to the present invention may be stored in a memory card, CD, or the like that can be attached to and detached from the electronic dictionary 1.

本発明に係る音声出力装置を適用した電子辞書を示す平面図である。It is a top view which shows the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 本発明に係る音声出力装置を適用した電子辞書の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 辞書データベースの構造を示す図である。It is a figure which shows the structure of a dictionary database. 辞書データベースの構造を示す図である。It is a figure which shows the structure of a dictionary database. 音声データベースの構造を示す図である。It is a figure which shows the structure of an audio | voice database. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 音声サーチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a voice search process. 音声サーチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a voice search process. 辞書検索処理において表示されるメッセージの一例を示す図である。It is a figure which shows an example of the message displayed in a dictionary search process. 音声サーチ処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in an audio | voice search process. 音声サーチ処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in an audio | voice search process. 音声サーチ処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in an audio | voice search process.

符号の説明Explanation of symbols

1 電子辞書(音声出力装置)
20 CPU(複合語検出手段、変化形複合語検出手段、音声データ生成手段、
合成音声出力制御手段、検索手段)
30 入力部(単語指定手段、見出語指定手段、見出語入力手段、見出語選択手段)
40 表示部(テキスト表示手段、説明情報表示手段、見出語一覧表示手段)
50 音声出力部(音声出力手段、見出語音声出力手段)
81 音声出力プログラム
82 辞書データベース(辞書記憶手段)
83 音声データベース(音声データ記憶手段、見出語音声データ記憶手段)
1 Electronic dictionary (voice output device)
20 CPU (compound word detection means, variation compound word detection means, voice data generation means,
Synthetic voice output control means, search means)
30 input unit (word specifying means, headword specifying means, headword input means, headword selecting means)
40 display section (text display means, explanation information display means, headword list display means)
50 Voice output unit (voice output means, headword voice output means)
81 voice output program 82 dictionary database (dictionary storage means)
83 Voice database (voice data storage means, headword voice data storage means)

Claims (6)

各複合語に音声データを対応付けて記憶する音声データ記憶手段と、
テキストを表示するテキスト表示手段と、
前記テキスト表示手段に表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
前記指定単語を先頭として前記テキスト表示手段によりテキスト中に表示されており、かつ、前記音声データ記憶手段により音声データの記憶されている複合語を検出する複合語検出手段と、
前記複合語検出手段によって検出された複合語に対応する音声データを音声出力する音声出力手段と、
を備えることを特徴とする音声出力装置。
Voice data storage means for storing voice data in association with each compound word;
Text display means for displaying text;
A word designating unit for designating any word in the text displayed on the text display unit as a designated word based on a user operation;
Compound word detection means for detecting a compound word that is displayed in the text by the text display means with the designated word at the beginning and in which voice data is stored by the voice data storage means;
Voice output means for outputting voice data corresponding to the compound word detected by the compound word detecting means;
An audio output device comprising:
請求項1記載の音声出力装置において、
前記複合語検出手段は、
前記テキスト表示手段によりテキスト中に表示されている複合語として、少なくとも1つの構成単語が変化形単語に変換されたものを検出する変化形複合語検出手段を有することを特徴とする音声出力装置。
The audio output device according to claim 1,
The compound word detecting means includes
An audio output device comprising: a change compound word detection means for detecting at least one constituent word converted into a change word as a compound word displayed in the text by the text display means.
請求項1または2記載の音声出力装置において、
前記音声出力手段で音声出力可能な音声データを、テキストデータから生成する音声データ生成手段と、
前記複合語検出手段によって複合語が検出されない場合に、その旨を前記テキスト表示手段に表示させるとともに、前記指定単語の音声データを前記音声データ生成手段に生成させて前記音声出力手段に音声出力させる合成音声出力制御手段と、
を備えることを特徴とする音声出力装置。
The audio output device according to claim 1 or 2,
Voice data generating means for generating voice data that can be output by the voice output means from text data;
When a compound word is not detected by the compound word detecting unit, the fact is displayed on the text display unit, and voice data of the designated word is generated by the voice data generating unit and output by the voice output unit. Synthesized voice output control means;
An audio output device comprising:
請求項1〜3の何れか一項に記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報をテキストとして表示する説明情報表示手段を有することを特徴とする音声出力装置。
In the audio output device according to any one of claims 1 to 3,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
An audio output device comprising: explanation information display means for displaying the explanation information retrieved by the retrieval means as text.
請求項4記載の音声出力装置において、
前記音声データ記憶手段は、
各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を有し、
前記見出語指定手段は、
ユーザ操作に基づいて前記指定見出語についての検索文字列の入力操作を受ける見出語入力手段と、
前記検索文字列に対応する各見出語を前記辞書情報から抽出して見出語一覧を表示する見出語一覧表示手段と、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語を前記指定見出語として選択指定する見出語選択手段と、を有し、
前記音声出力手段は、
ユーザ操作に基づいて前記見出語一覧における何れかの見出語に対応する音声データを音声出力する見出語音声出力手段を有することを特徴とする音声出力装置。
The audio output device according to claim 4, wherein
The voice data storage means includes
It has a headword voice data storage means for storing voice data in association with each headword,
The headword designating means is:
A headword input means for receiving a search character string input operation for the designated headword based on a user operation;
A headword list display means for extracting a headword corresponding to the search character string from the dictionary information and displaying a headword list;
A headword selection means for selecting and designating any headword in the headword list as the designated headword based on a user operation,
The audio output means is
An audio output device comprising: a headword voice output means for outputting voice data corresponding to any one of the headwords in the headword list based on a user operation.
コンピュータに、
各複合語に音声データを対応付けて記憶する音声データ記憶機能と、
テキストを表示するテキスト表示機能と、
前記テキスト表示機能によって表示されたテキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
前記指定単語を先頭として前記テキスト表示機能によりテキスト中に表示されており、かつ、前記音声データ記憶機能により音声データの記憶されている複合語を検出する複合語検出機能と、
前記複合語検出機能によって検出された複合語に対応する音声データを音声出力する音声出力機能と、
を実現させることを特徴とする音声出力プログラム。
On the computer,
A voice data storage function for storing voice data in association with each compound word;
A text display function to display text,
A word designating function for designating any word in the text displayed by the text display function as a designated word based on a user operation;
A compound word detection function that detects a compound word that is displayed in the text by the text display function with the designated word at the beginning, and that has voice data stored by the voice data storage function;
An audio output function for outputting audio data corresponding to the compound word detected by the compound word detection function;
An audio output program characterized by realizing the above.
JP2007003850A 2007-01-11 2007-01-11 Voice output device and voice output program Pending JP2008171208A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007003850A JP2008171208A (en) 2007-01-11 2007-01-11 Voice output device and voice output program
US12/006,484 US8165879B2 (en) 2007-01-11 2008-01-03 Voice output device and voice output program
KR1020080002380A KR100931464B1 (en) 2007-01-11 2008-01-09 Recording medium recording voice output device and voice output program
CN200810002630.7A CN101221574B (en) 2007-01-11 2008-01-10 Voice output device and voice output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003850A JP2008171208A (en) 2007-01-11 2007-01-11 Voice output device and voice output program

Publications (1)

Publication Number Publication Date
JP2008171208A true JP2008171208A (en) 2008-07-24

Family

ID=39631414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003850A Pending JP2008171208A (en) 2007-01-11 2007-01-11 Voice output device and voice output program

Country Status (2)

Country Link
JP (1) JP2008171208A (en)
CN (1) CN101221574B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106168945B (en) * 2015-05-13 2021-09-28 卡西欧计算机株式会社 Audio output device and audio output method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4267101B2 (en) * 1997-11-17 2009-05-27 インターナショナル・ビジネス・マシーンズ・コーポレーション Voice identification device, pronunciation correction device, and methods thereof
US7496498B2 (en) * 2003-03-24 2009-02-24 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system

Also Published As

Publication number Publication date
CN101221574A (en) 2008-07-16
CN101221574B (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5257330B2 (en) Statement recording device, statement recording method, program, and recording medium
JP2007206317A (en) Authoring method and apparatus, and program
US20160055763A1 (en) Electronic apparatus, pronunciation learning support method, and program storage medium
JP2010198241A (en) Chinese input device and program
JP5119671B2 (en) Audio output device and audio output program
KR100931464B1 (en) Recording medium recording voice output device and voice output program
JP2007219218A (en) Electronic equipment for language learning and translation reproducing method
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP2008171208A (en) Voice output device and voice output program
JP4305515B2 (en) Audio output device and audio output program
JP6746886B2 (en) Learning support device and program for the learning support device
JP4135316B2 (en) Machine translation device
JP5673215B2 (en) Russian language search device and program
CN112541071A (en) Electronic dictionary, learning word judgment method, and recording medium
JP3762300B2 (en) Text input processing apparatus and method, and program
JP2004171174A (en) Device and program for reading text aloud, and recording medium
JP2009175941A (en) Electronic dictionary device
JP4924148B2 (en) Pronunciation learning support device and pronunciation learning support program
JP2008058678A (en) Voice output device and program
JP5057764B2 (en) Speech synthesis apparatus and speech synthesis program
JP2005018442A (en) Display processing apparatus, method and program, and recording medium
JP2009048374A (en) Character input device, and character input method for information processing apparatus
JP4581778B2 (en) Information display control device and program
JP3838507B2 (en) Sentence reading apparatus, program for reading out, and recording medium
JP3069532B2 (en) Kana-kanji conversion method and device, and computer-readable recording medium storing a program for causing a computer to execute the kana-kanji conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407