JP5119671B2 - Audio output device and audio output program - Google Patents

Audio output device and audio output program Download PDF

Info

Publication number
JP5119671B2
JP5119671B2 JP2007021344A JP2007021344A JP5119671B2 JP 5119671 B2 JP5119671 B2 JP 5119671B2 JP 2007021344 A JP2007021344 A JP 2007021344A JP 2007021344 A JP2007021344 A JP 2007021344A JP 5119671 B2 JP5119671 B2 JP 5119671B2
Authority
JP
Japan
Prior art keywords
name
voice data
person
person name
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007021344A
Other languages
Japanese (ja)
Other versions
JP2008186376A (en
Inventor
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007021344A priority Critical patent/JP5119671B2/en
Publication of JP2008186376A publication Critical patent/JP2008186376A/en
Application granted granted Critical
Publication of JP5119671B2 publication Critical patent/JP5119671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声出力装置及び音声出力プログラムに関する。   The present invention relates to an audio output device and an audio output program.

従来、語学学習に用いられる電子辞書などの装置においては、音声出力が可能となっており、単語等の発音記号情報に基づいて音声データを合成して出力したり、予め記憶された単語等の録音データを音声出力したりしている(例えば、特許文献1,2参照)。   Conventionally, in devices such as electronic dictionaries used for language learning, voice output is possible, and voice data is synthesized based on phonetic symbol information such as words and output, or words stored in advance are stored. The recorded data is output as voice (for example, see Patent Documents 1 and 2).

ところで、電子辞書による音声出力の対象として、「Oda Nobunaga」や「Ronald Reagan」等、複数の単語からなる人名がある。
特開2006−268501号公報 特開2006−268496号公報
By the way, there are names of a plurality of words such as “Oda Nobunaga” and “Ronald Reagan” as targets of voice output by the electronic dictionary.
JP 2006-268501 A Japanese Patent Laid-Open No. 2006-268496

しかしながら、上記のような電子辞書において人名を音声出力する場合には、当該人名の発音記号情報に基づいて音声データを合成して出力しているため、発音が不正確となってしまう。   However, when a person's name is output by voice in the electronic dictionary as described above, since the voice data is synthesized and output based on the phonetic symbol information of the person's name, the pronunciation becomes inaccurate.

本発明の課題は、人名を正確に音声出力することのできる音声出力装置及び音声出力プログラムを提供することである。   The subject of this invention is providing the audio | voice output apparatus and audio | voice output program which can sound-output a person name correctly.

請求項1記載の発明は
複数の単語からなる人名それぞれに音声データを対応付けて記憶する人名音声データ記憶手段と、
複数の単語を含むテキストを表示するテキスト表示手段と、
前記テキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
この指定単語として指定されたテキスト中の単語に対応する人名を、前記人名音声データ記憶手段から検出する人名検出手段と、
前記人名検出手段によって検出された人名に対応する音声データを音声出力する音声出力手段と、
を備える音声出力装置において、
前記人名音声データ記憶手段は、
同一人物についての表記の異なる人名それぞれに、発音の異なる音声データを対応付けて記憶する表記別人名音声データ記憶手段を有し、
当該音声出力装置は、
前記人名音声データ記憶手段により音声データの記憶されている人名のうち、前記人名検出手段によって検出された人名とは異なる表記によって同一人物を表す変化形人名を検出する変化形人名追加検出手段と、
前記音声出力手段により音声出力される音声出力候補として、前記人名検出手段及び前記変化形人名追加検出手段によって検出された各人名を一覧表示する第1音声出力候補一覧表示手段と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力手段に音声出力させる第1音声出力制御手段と、
を備えることを特徴とする。
Invention of claim 1,
Personal name voice data storage means for storing voice data in association with each person name consisting of a plurality of words;
A text display means for displaying text including a plurality of words;
What Re of the words in the text, the word designating means for designating as a designated word based on the user operation,
A person name detecting means for detecting a person name corresponding to the word in the text designated as the designated word from the person name voice data storage means;
Voice output means for outputting voice data corresponding to the person name detected by the person name detection means;
In an audio output device comprising:
The personal name voice data storage means includes
Each person name with different notation for the same person has voice data storage means by notation for storing voice data with different pronunciation in association with each other,
The audio output device is
Among the names stored in the voice data by the personal name voice data storage means, a change form person name addition detection means for detecting a change form person name representing the same person by a notation different from the person name detected by the person name detection means,
First voice output candidate list display means for displaying a list of each person name detected by the person name detection means and the change form person name addition detection means as voice output candidates to be output by the voice output means;
First audio output control means for causing the audio output means to output audio data corresponding to any of the audio output candidates based on a user operation;
It is characterized by providing.

請求項2記載の発明は、請求項1記載の音声出力装置において、The invention according to claim 2 is the audio output device according to claim 1,
前記人名検出手段は、前記単語指定手段により指定されたテキスト中の単語に対応する人名として、当該指定単語を含む前記テキスト中の単語列のうち、前記人名音声データ記憶手段により音声データの記憶されている人名を検出することを特徴とする。The personal name detection means stores voice data as the personal name corresponding to the word in the text designated by the word designation means, by the personal voice data storage means in the word string in the text including the designated word. It is characterized by detecting a person's name.

請求項記載の発明は、請求項1又は2記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報を前記テキストとして表示する説明情報表示手段を有することを特徴とする。
The invention described in claim 3 is the audio output device according to claim 1 or 2 ,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
It has a description information display means for displaying the description information searched by the search means as the text.

請求項記載の発明は、請求項記載の音声出力装置において、
前記辞書記憶手段における各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を備え、
前記人名検出手段は、
前記指定単語を含む前記テキスト中の単語列のうち、前記見出語音声データ記憶手段により音声データの記憶されている人名の見出語を検出する見出語人名検出手段を有することを特徴とする。
The invention described in claim 4 is the audio output device according to claim 3 ,
A headword voice data storage means for storing voice data in association with each headword in the dictionary storage means;
The person name detecting means is
It has a headword name detection means for detecting a headword of a person name whose voice data is stored by the headword voice data storage means among word strings in the text including the designated word. To do.

請求項記載の発明は、請求項記載の音声出力装置において、
前記音声出力手段により音声出力される音声出力候補として、前記人名検出手段によって検出された各人名を一覧表示する第2音声出力候補一覧表示手段と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力手段に音声出力させる第2音声出力制御手段と、
を備え、
前記第2音声出力候補一覧表示手段は、
一覧表示される各人名に対して、当該人名を記憶する前記辞書記憶手段または前記人名音声データ記憶手段の識別情報を付記する記憶元情報表示手段を有することを特徴とする。
The invention described in claim 5 is the audio output device according to claim 4 ,
Second voice output candidate list display means for displaying a list of names detected by the person name detection means as voice output candidates for voice output by the voice output means;
Second audio output control means for causing the audio output means to output audio data corresponding to any of the audio output candidates based on a user operation;
With
The second audio output candidate list display means includes:
For each person name displayed in a list, the dictionary storage means for storing the person name or the storage source information display means for adding the identification information of the person name voice data storage means is provided.

請求項記載の発明は、
コンピュータに、
複数の単語からなる人名それぞれに音声データを対応付けて記憶する人名音声データ記憶機能と、
複数の単語を含むテキストを表示するテキスト表示機能と、
前記テキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
この指定単語として指定されたテキスト中の単語に対応する人名を、前記人名音声データ記憶機能による記憶情報から検出する人名検出機能と、
前記人名検出機能によって検出された人名に対応する音声データを音声出力する音声出力機能と、を実現させる音声出力プログラムにおいて、
前記人名音声データ記憶機能は、
同一人物についての表記の異なる人名それぞれに、発音の異なる音声データを対応付けて記憶する表記別人名音声データ記憶機能を有し、
当該音声出力プログラムは、前記コンピュータに、
前記人名音声データ記憶機能により音声データの記憶されている人名のうち、前記人名検出機能によって検出された人名とは異なる表記によって同一人物を表す変化形人名を検出する変化形人名追加検出機能と、
前記音声出力機能により音声出力される音声出力候補として、前記人名検出機能及び前記変化形人名追加検出機能によって検出された各人名を一覧表示する第1音声出力候補一覧表示機能と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力機能により音声出力させる第1音声出力制御機能と、
を実現させることを特徴とする。
The invention described in claim 6
On the computer,
A personal name voice data storage function for storing voice data in association with each person name consisting of a plurality of words;
A text display function that displays text containing multiple words,
What Re of the words in the text, the word specifying function for specifying the specified word based on the user operation,
A person name detecting function for detecting a person name corresponding to a word in the text designated as the designated word from stored information by the person name voice data storing function ;
In an audio output program for realizing an audio output function for outputting audio data corresponding to a person name detected by the person name detection function ,
The personal name voice data storage function is
Each person name with different notation for the same person has a notation-specific person name voice data storage function that stores voice data with different pronunciations in association with each other.
The audio output program is stored in the computer.
Among the names of voice data stored by the name voice data storage function, a change type person name addition detection function for detecting a change type person name representing the same person by a notation different from the person name detected by the person name detection function;
A first voice output candidate list display function for displaying a list of each person name detected by the person name detection function and the change form person name addition detection function as voice output candidates to be output by the voice output function;
A first sound output control function for outputting sound data corresponding to any of the sound output candidates based on a user operation by the sound output function;
It is characterized by realizing.

本発明によれば、各人名に対応する音声データが記憶されて音声出力されるので、人名を正確に音声出力することができる。
また、同一人物についての表記の異なる人名それぞれに、発音の異なる音声データを対応付けて記憶し、テキスト中のユーザ指定単語に対応する音声データの記憶されている人名を検出し、さらに異なる表記によって同一人物を表す変化形人名も検出して、テキストの人名と同一人物の異なる表記の人名の音声データも出力することができる。
According to the present invention, since voice data corresponding to each person name is stored and outputted as a voice, the person name can be outputted accurately as a voice.
In addition, voice data with different pronunciation is stored in association with each person name with different notation for the same person , the person name stored with the voice data corresponding to the user-specified word in the text is detected, and further with different notation It is also possible to detect a variation personal name representing the same person, and output voice data of a different name of the same person as the text personal name.

以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.

まず、電子辞書の構成を説明する。
[外観構成]
図1は、電子辞書1の平面図である。
この図に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、スピーカ12及びキー群2を備えている。
First, the configuration of the electronic dictionary will be described.
[Appearance configuration]
FIG. 1 is a plan view of the electronic dictionary 1.
As shown in this figure, the electronic dictionary 1 includes a main display 10, a sub display 11, a speaker 12, and a key group 2.

メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じた文字や符号等、各種データを表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)等によって構成されている。なお、本実施の形態におけるサブディスプレイ11は、いわゆるタッチパネルとなっており、表面を押下することにより、押下位置に応じた入力操作が可能となっている。   The main display 10 and the sub display 11 are parts for displaying various data such as characters and codes according to the operation of the key group 2 by the user, and are configured by an LCD (Liquid Crystal Display), an ELD (Electronic Luminescent Display), or the like. ing. In addition, the sub display 11 in this Embodiment is what is called a touch panel, and the input operation according to the pressing position is possible by pressing down the surface.

スピーカ12は、ユーザによるキー群2の操作に応じた見出語や例文等の音声を出力する部分である。   The speaker 12 is a part that outputs sounds such as headwords and example sentences according to the operation of the key group 2 by the user.

キー群2は、ユーザが電子辞書1を操作するための各種キーを有している。具体的には、キー群2は、訳/決定キー2bと、文字キー2cと、辞書選択キー2dと、カーソルキー2eと、シフトキー2fと、戻るキー2gと、音声出力キー2hと、用例キー2iと、複合語キー2j等とを有している。   The key group 2 has various keys for the user to operate the electronic dictionary 1. Specifically, the key group 2 includes a translation / decision key 2b, a character key 2c, a dictionary selection key 2d, a cursor key 2e, a shift key 2f, a return key 2g, a voice output key 2h, and an example key. 2i, compound word key 2j, and the like.

訳/決定キー2bは、検索の実行や、見出語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施の形態においては“A”〜“Z”キーを備えている。辞書選択キー2dは、後述の辞書データベース84,…(図2参照)の選択に使用されるキーである。   The translation / decision key 2b is a key used for executing a search, determining a headword, and the like. The character key 2c is a key used for inputting characters by the user, and includes “A” to “Z” keys in the present embodiment. The dictionary selection key 2d is a key used for selecting a dictionary database 84 (see FIG. 2) described later.

カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施の形態においては上下左右の方向を指定可能となっている。シフトキー2fは、日本語の単語を検索対象に設定するとき等に使用されるキーである。戻るキー2gは、前回表示した画面に戻るとき等に使用されるキーである。   The cursor key 2e is a key used for the reverse display position in the screen, that is, the movement of the cursor position. In the present embodiment, the up / down / left / right directions can be designated. The shift key 2f is a key used when a Japanese word is set as a search target. The return key 2g is a key used when returning to the previously displayed screen.

音声出力キー2hは、選択された見出語や複合語などの音声を出力させる場合に押下されるキーである。用例キー2iは、選択された見出語などを含む例文を表示させる場合に押下されるキーである。複合語キー2jは、選択された見出語を含む成句・複合語を表示させる場合に押下されるキーである。   The voice output key 2h is a key that is pressed when outputting a voice such as a selected headword or compound word. The example key 2i is a key that is pressed when displaying an example sentence including the selected headword. The compound word key 2j is a key that is pressed when displaying a phrase / compound word including the selected headword.

[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。
[Internal configuration]
Next, the internal structure of the electronic dictionary 1 will be described. FIG. 2 is a block diagram showing an internal configuration of the electronic dictionary 1.

この図に示すように、電子辞書1は、表示部40、入力部30、音声出力部50、CPU(Central Processing Unit)20、フラッシュROM(Read Only Memory)80、RAM(Random Access Memory)90を備え、各部はバス100で相互にデータ通信可能に接続されて構成されている。   As shown in this figure, the electronic dictionary 1 includes a display unit 40, an input unit 30, an audio output unit 50, a CPU (Central Processing Unit) 20, a flash ROM (Read Only Memory) 80, and a RAM (Random Access Memory) 90. Each unit is configured to be connected to each other via a bus 100 so that data communication is possible.

表示部40は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいて各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。   The display unit 40 includes the main display 10 and the sub display 11 described above, and displays various types of information on the main display 10 and the sub display 11 based on a display signal input from the CPU 20.

入力部30は、上述のキー群2を備えており、押下されたキーに対応する信号をCPU20に出力するようになっている。   The input unit 30 includes the key group 2 described above, and outputs a signal corresponding to the pressed key to the CPU 20.

音声出力部50は、上述のスピーカ12を備えており、CPU20から入力される音声出力信号に基づいて音声データをスピーカ12に再生させるようになっている。   The audio output unit 50 includes the speaker 12 described above, and causes the speaker 12 to reproduce audio data based on an audio output signal input from the CPU 20.

CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部30から入力される操作信号等に応じてフラッシュROM80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果をRAM90に保存するとともに、当該処理結果を表示部40や音声出力部50に適宜出力させる。   The CPU 20 executes processing based on a predetermined program in accordance with an input instruction, performs an instruction to each function unit, data transfer, and the like, and comprehensively controls the electronic dictionary 1. Specifically, the CPU 20 reads various programs stored in the flash ROM 80 according to an operation signal or the like input from the input unit 30, and executes processing according to the program. Then, the CPU 20 stores the processing result in the RAM 90 and causes the display unit 40 and the audio output unit 50 to output the processing result as appropriate.

フラッシュROM80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するメモリである。本実施の形態においては、フラッシュROM80は、本発明に係る音声出力プログラム81と、辞書データベース群82と、音声データベース83等とを記憶している。   The flash ROM 80 is a memory that stores programs and data for realizing various functions of the electronic dictionary 1. In the present embodiment, the flash ROM 80 stores a voice output program 81 according to the present invention, a dictionary database group 82, a voice database 83, and the like.

音声出力プログラム81は、後述の辞書検索処理(図7〜図8参照)をCPU20に実行させるためのプログラムである。   The voice output program 81 is a program for causing the CPU 20 to execute a later-described dictionary search process (see FIGS. 7 to 8).

辞書データベース群82は、複数の辞書データベース84,…を有しており、本実施の形態においては、英和辞典の辞書データベース84aや、百科事典の辞書データベース84b、人名辞書の辞書データベース84c等を有している。なお、後述の図6等では、英和辞典の辞書データベース84aの辞書名を「Exfd」、人名辞書の辞書データベース84cの辞書名を「Biog」として図示している。   The dictionary database group 82 has a plurality of dictionary databases 84,... In this embodiment, the dictionary database 84a for English-Japanese dictionaries, the dictionary database 84b for encyclopedias, the dictionary database 84c for personal name dictionaries, etc. is doing. In FIG. 6 and the like to be described later, the dictionary name of the English-Japanese dictionary dictionary database 84a is illustrated as “Exfd”, and the dictionary name of the personal name dictionary database 84c is illustrated as “Biog”.

このうち、英和辞典の辞書データベース84a等には、例えば図3に1例を示すように、複数の見出語に対して、この見出語の発音記号及び意味内容からなる説明情報や、見出語の例文(用例)を識別するための用例番号、見出語を含む熟語を識別するための熟語番号,成句・複合語を識別するための複合語番号などが対応付けされて格納されている。また、辞書データベース84a等には、例えば図4(a)〜(b)に1例を示すように、上述の用例番号に例文と、その対訳が対応付けられたテーブルや、上述の複合語番号に成句・複合語と、当該成句・複合語の説明情報とが対応付けられたテーブル、上述の熟語番号に熟語と、当該熟語の説明情報とが対応付けられたテーブル等が格納されている。なお、本実施の形態における辞書データベース84aには、見出語として人名が含まれている。   Among them, in the dictionary database 84a of the English-Japanese dictionary, for example, as shown in FIG. 3, for example, for a plurality of headwords, explanation information including the phonetic symbols and meaning contents of the headwords, An example number for identifying an example sentence (example) of an outgoing word, an idiom number for identifying a idiom including a headword, a compound word number for identifying a phrase / compound word, and the like are stored in association with each other. Yes. Further, in the dictionary database 84a and the like, for example, as shown in FIG. 4A to FIG. 4B, for example, a table in which an example sentence and its translation are associated with the above example number, and the above compound word number are included. A table in which the phrase / compound word and the explanation information of the phrase / compound word are associated with each other, a table in which the idiom number is associated with the phrase information, and the explanation information of the phrase is stored. In addition, the dictionary database 84a in the present embodiment includes a person name as a headword.

また、百科事典の辞書データベース84bには、複数の見出語に対して、この見出語の発音記号及び意味内容からなる説明情報などが対応付けされて格納されている。なお、本実施の形態における辞書データベース84bには、見出語として人名が含まれている。   In addition, the dictionary database 84b of the encyclopedia stores a plurality of headwords in association with the phonetic symbols of the headwords and explanation information including semantic contents. In addition, the dictionary database 84b in the present embodiment includes a person name as a headword.

また、人名辞書の辞書データベース84cには、例えば図5に1例を示すように、複数の人名見出語それぞれに対して、その人物を説明する説明情報と、人名見出語の言語に対応するネイティブの発音による音声データ、いわゆる「トゥルーボイス」などが対応付けされて格納されている。また、本実施の形態における辞書データベース84cには、同一の人物を表す人名見出語として、表記の異なる変化形の人名見出語が複数格納されており、これら人名見出語それぞれには、発音の異なる音声データが対応付けて格納されている。ここで、表記の異なる変化形の人名見出語としては、例えば、或る言語で表記された人名見出語に対して、当該言語と異なる言語で表記された人名見出語があり、また、ファーストネーム及びファミリーネームで表示されている人名見出語に対して、ファーストネーム、ミドルネーム及びファミリーネームで表記された人名見出語や、ファーストネーム及びファミリーネームが逆順に表記された人名見出語などがある。   In addition, in the dictionary database 84c of the personal name dictionary, for example, as shown in an example in FIG. 5, for each of a plurality of personal name entries, explanation information for explaining the person and the language of the personal name entries are supported. Voice data based on native pronunciation, so-called “true voice” is stored in association with each other. In addition, the dictionary database 84c in the present embodiment stores a plurality of personal name headwords with different notations as personal name headwords representing the same person. Audio data with different pronunciations are stored in association with each other. Here, examples of the personal name headwords with different notations include, for example, a personal name headword written in a language different from that language in addition to a personal name headword written in a certain language. In contrast to the personal name vocabulary displayed in the first name and family name, the personal name vocabulary written in the first name, middle name and family name, and the personal name in which the first name and family name are written in reverse order. There is a speech etc.

なお、本実施の形態においては、各辞書データベース84における説明情報はテキストデータとなっている。   In the present embodiment, the description information in each dictionary database 84 is text data.

また、音声データベース83には、例えば図6に1例を示すように、人名辞書の辞書データベース84c以外の辞書データベース84における見出語や成句・複合語などに対して、当該見出語等の格納されている辞書データベース84の名称と、「トゥルーボイス」の音声データとが対応付けされて格納されている。なお、本実施の形態における音声データベース83には、見出語として人名が含まれている。   In the voice database 83, for example, as shown in FIG. 6, for example, a headword or a compound phrase in the dictionary database 84 other than the dictionary database 84c of the personal name dictionary is stored with the headword. The name of the stored dictionary database 84 and the sound data of “true voice” are stored in association with each other. Note that the speech database 83 in the present embodiment includes a person name as a headword.

RAM90は、CPU20が実行する各種プログラムや、これらプログラムの実行に係るデータ等を一時的に保持するメモリ領域を備えている。このRAM90は、本実施の形態においては、選択辞書記憶領域91、入力文字記憶領域92、選択見出語記憶領域93及び音声出力候補記憶領域95を備えている。   The RAM 90 includes a memory area that temporarily holds various programs executed by the CPU 20 and data related to the execution of these programs. In the present embodiment, the RAM 90 includes a selection dictionary storage area 91, an input character storage area 92, a selected word storage area 93, and a speech output candidate storage area 95.

ここで、選択辞書記憶領域91には、見出語の検索対象としてユーザにより選択された辞書データベース84の識別情報が格納されるようになっており、入力文字記憶領域92には、ユーザにより入力された入力文字が格納されるようになっている。また、選択見出語記憶領域93には、辞書引きする対象の見出語としてユーザによって選択された選択見出語が記憶されるようになっている。なお、本実施の形態における選択見出語は、本実施の形態においては、入力文字や指定文字に前方一致するようアルファベット順或いは五十音順に辞書データベースから読み出された見出語の一覧から選択されるようになっている。   Here, the selected dictionary storage area 91 stores identification information of the dictionary database 84 selected by the user as a search target of the headword, and the input character storage area 92 is input by the user. Input characters are stored. Further, the selected headword storage area 93 stores the selected headword selected by the user as the headword to be dictionaryd. In the present embodiment, the selected headword in the present embodiment is based on a list of headwords read from the dictionary database in alphabetical order or alphabetical order so as to match the input character or designated character in front. It is to be selected.

また、音声出力候補記憶領域95には、後述の辞書検索処理(図7〜図8参照)において音声出力対象の候補とされる人名見出語等がリスト化されて候補リストとして記憶されるようになっている。   Further, in the speech output candidate storage area 95, the personal name headwords or the like that are candidates for speech output in a dictionary search process (see FIGS. 7 to 8) described later are listed and stored as a candidate list. It has become.

[動作]
続いて、電子辞書1の動作を説明する。
図7〜図8は、CPU20が音声出力プログラム81を読み出して実行する辞書検索処理の流れを示すフローチャートである。
[Operation]
Next, the operation of the electronic dictionary 1 will be described.
7 to 8 are flowcharts showing the flow of dictionary search processing in which the CPU 20 reads out and executes the voice output program 81.

まず、図7に示すように、ユーザにより辞書選択キー2dが押下されて辞書データベース群82から何れかの辞書データベース84が選択され、見出語検索の開始が指示された後、検索文字列が入力されると(ステップS1)、CPU20は、入力された検索文字列に対応する見出語の候補を、選択された辞書データベース84の中で検索し(ステップS2)、検出された見出語の説明情報を辞書データベース84から検索してメインディスプレイ10に表示させる(ステップS3)。   First, as shown in FIG. 7, after the dictionary selection key 2d is pressed by the user, any dictionary database 84 is selected from the dictionary database group 82, and the start of the headword search is instructed. When input (step S1), the CPU 20 searches the selected dictionary database 84 for a candidate word corresponding to the input search character string (step S2), and detects the detected word. Is retrieved from the dictionary database 84 and displayed on the main display 10 (step S3).

次に、CPU20は、ユーザによって音声出力キー2hが操作されるか否かを判定し(ステップS4)、操作されないと判定した場合(ステップS4;No)には、他の処理へ移行する。   Next, the CPU 20 determines whether or not the audio output key 2h is operated by the user (step S4). When it is determined that the user does not operate (step S4; No), the CPU 20 proceeds to another process.

また、ステップS4において音声出力キー2hが操作されたと判定した場合(ステップS4;Yes)には、CPU20は、メインディスプレイ10に表示されている説明情報における先頭の単語を反転指定するとともに(ステップS5)、音声出力の速度設定画面(図1参照)をサブディスプレイ11に表示させる。なお、この速度設定画面が表示された状態では、ユーザがサブディスプレイ11の所定領域を押下することにより、音声の出力速度が任意の速度に変更される。   If it is determined in step S4 that the voice output key 2h has been operated (step S4; Yes), the CPU 20 designates the first word in the explanation information displayed on the main display 10 in reverse (step S5). ), An audio output speed setting screen (see FIG. 1) is displayed on the sub-display 11. When the speed setting screen is displayed, when the user presses a predetermined area of the sub-display 11, the audio output speed is changed to an arbitrary speed.

次に、CPU20は、ユーザによってカーソルキー2eが操作されるか否かを判定し(ステップS6)、操作されたと判定した場合(ステップS6;Yes)には、反転指定の単語(以下、指定単語とする)をカーソル方向に変更した後(ステップS7)、上述のステップS6の処理に移行する。なお、本実施の形態においては、ステップS5,S7の処理によって、説明情報中における複数の単語のうち、人名に含まれる単語、例えばファーストネームやミドルネーム、ファミリーネームの単語が指定単語として反転指定されることとして説明する。   Next, the CPU 20 determines whether or not the cursor key 2e is operated by the user (step S6). If it is determined that the user has operated the cursor key 2e (step S6; Yes), the reverse designation word (hereinafter, designated word) is determined. Is changed to the cursor direction (step S7), and then the process proceeds to step S6 described above. In the present embodiment, by the processing in steps S5 and S7, among the plurality of words in the description information, a word included in the personal name, for example, a first name, a middle name, or a family name word is designated as a designated word. It will be described as being.

一方、ステップS6においてカーソルキー2eが操作されないと判定した場合(ステップS6;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定し(ステップS8)、操作されないと判定した場合(ステップS8;No)には、他の処理へ移行する。   On the other hand, when it is determined in step S6 that the cursor key 2e is not operated (step S6; No), the CPU 20 determines whether or not the translation / decision key 2b is operated by the user (step S8). If it is determined not to be performed (step S8; No), the process proceeds to another process.

また、ステップS8において訳/決定キー2bが操作されたと判定した場合(ステップS8;Yes)には、CPU20は、指定単語を含む説明情報中の単語列に完全一致する人名見出語を音声データベース83で検索し(ステップS9)、検出された人名見出語と、音声データベース83内で当該人名見出語に対応付けられた辞書データベース84の辞書名とを対応付けて音声出力候補記憶領域95の候補リストに加える(ステップS10)。これにより、指定単語を含む説明情報中の単語列のうち、音声データベース83により音声データの記憶されている人名見出語が検出されて、候補リストに加えられる。   If it is determined in step S8 that the translation / decision key 2b has been operated (step S8; Yes), the CPU 20 searches the speech database for the personal name headword that completely matches the word string in the explanatory information including the designated word. 83 is searched (step S9), and the detected personal name headword is associated with the dictionary name of the dictionary database 84 associated with the personal name headword in the voice database 83 in correspondence with the voice output candidate storage area 95. To the candidate list (step S10). Thus, the personal name headword in which the voice data is stored is detected by the voice database 83 from the word string in the description information including the designated word and added to the candidate list.

ここで、指定単語を含む単語列とは、指定単語を先頭に含んでも良いし、2番目以降に含んでも良い。なお、このような単語列に完全一致する人名見出語を検出する手法としては、例えば、まずメインディスプレイ10に表示されている説明情報において指定単語から少なくとも1つ後方の単語までの単語列に部分一致する人名見出語と、指定単語から少なくとも1つ前方の単語までの単語列に部分一致する人名見出語とを音声データベース83で検索して、検出された人名見出語をリスト化してRAM90に記憶させた後、指定単語を含んでメインディスプレイ10に表示されている単語列と完全一致する人名見出語を当該リストから検出する手法を用いることができる。但し、指定単語を含んで音声データベース83に記憶された全ての単語列を検索してRAM90に記憶させた後、各単語列についてテキスト中の単語列と完全一致するか否かを判定し、完全一致する単語列を検出することとしても良い。   Here, the word string including the designated word may include the designated word at the top or the second and subsequent words. In addition, as a method of detecting a personal name headword that completely matches such a word string, for example, in the explanation information displayed on the main display 10, first, a word string from a specified word to at least one word behind is specified. A search is made in the speech database 83 for a partially matching personal name headword and a personal name headword partially matching the word string from the specified word to at least one forward word, and the detected personal name headwords are listed. Then, after storing the data in the RAM 90, it is possible to use a technique for detecting from the list the personal name headword that includes the designated word and completely matches the word string displayed on the main display 10. However, after retrieving all the word strings stored in the voice database 83 including the designated word and storing them in the RAM 90, it is determined whether or not each word string completely matches the word string in the text. A matching word string may be detected.

次に、CPU20は、指定単語を含む説明情報中の単語列に完全一致する人名見出語を人名辞書の辞書データベース84cで検索し(ステップS11)、検出された人名見出語と、辞書データベース84cの辞書名とを対応付けて音声出力候補記憶領域95の候補リストに加える(ステップS12)。これにより、指定単語を含む説明情報中の単語列のうち、人名辞書の辞書データベース84cにより音声データの記憶されている人名見出語が検出されて、候補リストに加えられる。   Next, the CPU 20 searches the personal name dictionary dictionary database 84c for a personal name headword that completely matches the word string in the description information including the designated word (step S11), and detects the detected personal name headword and the dictionary database. The dictionary name 84c is associated with and added to the candidate list in the speech output candidate storage area 95 (step S12). As a result, the personal name headword in which the speech data is stored is detected by the dictionary database 84c of the personal name dictionary from the word string in the description information including the designated word and added to the candidate list.

次に、CPU20は、候補リスト中の人名見出語とは異なる表記によって同一人物を表す変化形の人名見出語を人名辞書の辞書データベース84cで検索し、検出された人名見出語を音声出力候補記憶領域95の候補リストに加える(ステップS13)。なお、変化形の人名見出語を取得する方法としては、各人名について変化形人名を対応付けて記憶したテーブルを参照する等の手法を用いることができる。   Next, the CPU 20 searches the personal name dictionary dictionary database 84c for a variant personal name headword that represents the same person with a notation different from the personal name headword in the candidate list, and the detected personal name headword is voiced. It adds to the candidate list of the output candidate storage area 95 (step S13). In addition, as a method of acquiring the variant personal name headword, a method of referring to a table in which the variant personal name is associated with each personal name and stored can be used.

次に、CPU20は、メインディスプレイ10における指定単語の近傍に新たなウィンドウW1(図9参照)を表示させるとともに、このウィンドウW1内に候補リストの人名見出語と、辞書データベース84の辞書名とを一覧表示させ、先頭の人名見出語を指定して識別表示させる(ステップS14)。なお、識別表示の態様としては、下線や傍点を付けた表示や、太字や斜字体での表示、反転表示などがあり、本実施の形態においては、下線を付けた表示となっている。   Next, the CPU 20 displays a new window W1 (see FIG. 9) in the vicinity of the designated word on the main display 10, and in this window W1, the personal name headword in the candidate list and the dictionary name in the dictionary database 84 are displayed. Are displayed in a list, and the head person name headword is designated and identified (step S14). In addition, as an aspect of the identification display, there are a display with an underline or a side point, a display with bold or italic font, a reverse display, and the like. In this embodiment, the display is underlined.

次に、CPU20は、図8に示すように、ユーザによってカーソルキー2eが操作されるか否かを判定し(ステップS21)、操作されたと判定した場合(ステップS21;Yes)には、識別表示で指定された人名見出語(以下、指定人名見出語とする)及び辞書名をカーソル方向に変更した後(ステップS22)、上述のステップS21の処理に移行する。   Next, as shown in FIG. 8, the CPU 20 determines whether or not the cursor key 2e is operated by the user (step S21). If it is determined that the user has operated the cursor key 2e (step S21; Yes), the identification display is performed. After changing the personal name headword (hereinafter referred to as the designated personal name headword) and the dictionary name specified in (1) to the cursor direction (step S22), the process proceeds to step S21 described above.

また、このステップS21でカーソルキー2eが操作されないと判定した場合(ステップS21;No)には、CPU20は、ユーザによって訳/決定キー2bが操作されるか否かを判定し(ステップS23)、操作されたと判定した場合(ステップS23;Yes)には、指定人名見出語の検出先が人名辞書の辞書データベース84cであるか否かを判定する(ステップS24)。   If it is determined in step S21 that the cursor key 2e is not operated (step S21; No), the CPU 20 determines whether the translation / decision key 2b is operated by the user (step S23). If it is determined that it has been operated (step S23; Yes), it is determined whether or not the detection destination of the designated person name entry is the dictionary database 84c of the person name dictionary (step S24).

このステップS24において検出先が辞書データベース84cではないと判定した場合、つまり検出先が音声データベース83であると判定した場合(ステップS24;No)には、CPU20は、指定人名見出語と対応付けて音声データベース83に格納されている音声データを音声出力部50に音声出力させた後(ステップS25)、上述のステップS21の処理に移行する。   When it is determined in step S24 that the detection destination is not the dictionary database 84c, that is, when it is determined that the detection destination is the voice database 83 (step S24; No), the CPU 20 associates with the designated person headword. After the audio data stored in the audio database 83 is output to the audio output unit 50 (step S25), the process proceeds to step S21 described above.

また、ステップS24において検出先が辞書データベース84cであると判定した場合(ステップS24;Yes)には、CPU20は、指定人名見出語が説明情報中の人名単語列とは異なる表記であるか否かを判定し(ステップS26)、異なる表記であると判定した場合(ステップS26;Yes)には、当該異表記の指定人名見出語に対応付けて人名辞書の辞書データベース84cに格納されている音声データを音声出力部50に音声出力させた後(ステップS27)、上述のステップS21の処理に移行する。   When it is determined in step S24 that the detection destination is the dictionary database 84c (step S24; Yes), the CPU 20 determines whether or not the designated person name entry is different from the person word string in the description information. (Step S26), if it is determined that the notation is different (step S26; Yes), it is stored in the dictionary database 84c of the personal name dictionary in association with the specified personal name headword of the different notation. After the audio data is output to the audio output unit 50 (step S27), the process proceeds to step S21 described above.

また、ステップS26において、指定人名見出語が説明情報中の人名単語列と異なる表記ではないと判定した場合(ステップS26;No)には、CPU20は、当該指定人名見出語に対応付けて人名辞書の辞書データベース84cに格納されている音声データを音声出力部50に音声出力させた後(ステップS28)、上述のステップS21の処理に移行する。   When it is determined in step S26 that the designated person name headword is not different from the name word string in the description information (step S26; No), the CPU 20 associates the designated person name word with the designated person name headword. After the voice data stored in the dictionary database 84c of the personal name dictionary is output to the voice output unit 50 (step S28), the process proceeds to the above-described step S21.

また、上述のステップS23において訳/決定キー2bが操作されないと判定した場合(ステップS23;No)には、CPU20は、ユーザによって戻るキー2gが操作されるか否かを判定し(ステップS30)、操作されたと判定した場合(ステップS30;Yes)には、上述のステップS6の処理に移行し、操作されないと判定した場合(ステップS30;No)には、他の処理へ移行する。   If it is determined in step S23 that the translation / decision key 2b is not operated (step S23; No), the CPU 20 determines whether or not the return key 2g is operated by the user (step S30). If it is determined that it has been operated (step S30; Yes), the process proceeds to step S6 described above. If it is determined that it has not been operated (step S30; No), the process proceeds to another process.

<動作例>
続いて、図9を参照しつつ、上記の辞書検索処理を具体的に説明する。なお、この図9においては、図中の左側にメインディスプレイ10の表示画面等を示すとともに、図中の右側に操作手順を示している。
<Operation example>
Next, the above dictionary search process will be specifically described with reference to FIG. In FIG. 9, a display screen of the main display 10 is shown on the left side in the figure, and an operation procedure is shown on the right side in the figure.

まず図9(a)に示すように、ユーザによって百科事典の辞書データベース84bが選択された後、検索文字列として「Reaganomics」が入力されると(ステップS1)、見出語「Reaganomics」の説明情報が全画面表示される(ステップS3)。   First, as shown in FIG. 9A, after the encyclopedia dictionary database 84b is selected by the user and “Reaganomics” is input as a search character string (step S1), the explanation of the headword “Reaganomics” is explained. Information is displayed on the full screen (step S3).

次に、ユーザによって音声出力キー2hが操作され(ステップS4;Yes)、カーソルキー2eの右キーが複数回操作されると(ステップS6;Yes)、当該カーソル方向において説明情報「…, President Ronald Reagan, who…」における単語「Ronald」が反転指定される(ステップS7)。   Next, when the voice output key 2h is operated by the user (step S4; Yes) and the right key of the cursor key 2e is operated a plurality of times (step S6; Yes), the explanation information “..., President Ronald is displayed in the cursor direction. The word “Ronald” in “Reagan, who...” Is reversely designated (step S7).

次に、図9(b)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS8;Yes)、指定単語「Ronald」を含む説明情報中の単語列に完全一致する人名見出語が音声データベース83から検索され(ステップS9)、検出された人名見出語「Ronald」,「Ronald Reagan」と、これら人名見出語の格納された辞書データベース84aの名称「Exfd」とが音声出力候補記憶領域95の候補リストに加えられる(ステップS10)。また、指定単語「Ronald」を含む説明情報中の単語列に完全一致する人名見出語が人名辞書の辞書データベース84cから検索され(ステップS11)、検出された人名見出語「Ronald Reagan」と、辞書データベース84cの名称「Biog」とが音声出力候補記憶領域95の候補リストに加えられる(ステップS12)。更に、候補リスト中の人名見出語「Ronald」,「Ronald Reagan」とは異なる表記による変化形の人名見出語が辞書データベース84cから検索され、検出された人名見出語「Ronald Wilson Reagan」が音声出力候補記憶領域95の候補リストに加えられる(ステップS13)。そして、メインディスプレイ10における指定単語の近傍に新たなウィンドウW1が表示され、このウィンドウW1内に候補リストの人名見出語が一覧表示され、先頭の人名見出語「Ronald Reagan」及び辞書名「Biog」が指定されて識別表示される(ステップS14)。   Next, as shown in FIG. 9B, when the translation / decision key 2b is operated by the user (step S8; Yes), the person name that completely matches the word string in the explanatory information including the designated word “Ronald”. The headword is searched from the speech database 83 (step S9), and the detected personal name headwords “Ronald” and “Ronald Reagan” and the name “Exfd” of the dictionary database 84a in which these personal name headwords are stored. Is added to the candidate list in the voice output candidate storage area 95 (step S10). Also, a personal name headword that completely matches the word string in the description information including the designated word “Ronald” is searched from the dictionary database 84c of the personal name dictionary (step S11), and the detected personal name headword “Ronald Reagan” is detected. The name “Biog” in the dictionary database 84c is added to the candidate list in the voice output candidate storage area 95 (step S12). Furthermore, a personal name headword having a different form from the personal name headwords “Ronald” and “Ronald Reagan” in the candidate list is searched from the dictionary database 84c, and the personal name headword “Ronald Wilson Reagan” detected. Is added to the candidate list in the voice output candidate storage area 95 (step S13). Then, a new window W1 is displayed in the vicinity of the designated word on the main display 10, and the personal name headwords in the candidate list are displayed in a list in this window W1, and the first personal name headword “Ronald Reagan” and the dictionary name “ "Biog" is specified and identified (step S14).

次に、図9(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS23;Yes)、指定人名見出語「Ronald Reagan」に対応付けて辞書データベース84cに格納されている音声データが音声出力される(ステップS28)。   Next, as shown in FIG. 9C, when the translation / decision key 2b is operated by the user (step S23; Yes), it is stored in the dictionary database 84c in association with the designated name entry word “Ronald Reagan”. The voice data that has been recorded is output as a voice (step S28).

次に、図9(d)に示すように、ユーザによってカーソルキー2eの下キーが操作されると(ステップS21;Yes)、指定人名見出語及び辞書名がカーソル方向(下方向)に変更される(ステップS22)。   Next, as shown in FIG. 9D, when the user operates the down key of the cursor key 2e (step S21; Yes), the designated person name word and dictionary name are changed in the cursor direction (downward). (Step S22).

次に、図9(e)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS23;Yes)、指定人名見出語「Ronald Wilson Reagan」に対応付けて辞書データベース84cに格納されている音声データが音声出力される(ステップS28)。   Next, as shown in FIG. 9E, when the translation / decision key 2b is operated by the user (step S23; Yes), the dictionary database 84c is associated with the designated name entry word “Ronald Wilson Reagan”. The stored audio data is output as audio (step S28).

次に、図9(f)に示すように、ユーザによってカーソルキー2eの下キーが2回操作されると(ステップS21;Yes)、指定人名見出語及び辞書名がカーソル方向(下方向)に変更される(ステップS22)。   Next, as shown in FIG. 9 (f), when the down key of the cursor key 2e is operated twice by the user (step S21; Yes), the designated person name and dictionary name are in the cursor direction (downward). (Step S22).

次に、図9(g)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS23;Yes)、指定人名見出語「Ronald Reagan」に対応付けて音声データベース83に格納されている音声データが音声出力される(ステップS25)。   Next, as shown in FIG. 9 (g), when the translation / decision key 2b is operated by the user (step S23; Yes), it is stored in the voice database 83 in association with the designated person name “Ronald Reagan”. The sound data that has been processed is output as a sound (step S25).

以上の電子辞書1によれば、図8のステップS25,S27〜S28や、図9に示したように、各人名に対応する音声データが記憶されて音声出力されるので、人名を正確に音声出力することができる。また、表示されたテキスト中の何れかの単語が指定単語として指定されると、指定単語を含むテキスト中の単語列のうち、音声データの記憶されている人名が検出され、検出された人名に対応する音声データが音声出力されるので、何れの人名について音声データが記憶されているかを把握しないでも、テキスト中の単語を指定単語とすることによって人名を音声出力させることができる。従って、従来と比較して簡単な操作で人名を音声出力させることができる。   According to the electronic dictionary 1 described above, as shown in steps S25 and S27 to S28 in FIG. 8 and as shown in FIG. Can be output. Also, when any word in the displayed text is designated as a designated word, a personal name stored in the voice data is detected from the word string in the text including the designated word, and the detected personal name is Since the corresponding voice data is output as a voice, the name of the person can be output as a voice by using the word in the text as the designated word without knowing which person's name the voice data is stored for. Accordingly, it is possible to output a person's name by a simple operation compared to the conventional case.

また、図8のステップS27〜S28や、図5、図9に示したように、表記の異なる人名それぞれに、発音の異なる音声データが対応付けられて記憶されるので、表記に応じた音声データを音声出力させることができる。従って、多様な発音で人名を音声出力させ、発音を比較することができる。   Also, as shown in steps S27 to S28 of FIG. 8 and FIGS. 5 and 9, voice data with different pronunciation is stored in association with each person name with different notation, so that voice data corresponding to the notation is stored. Can be output as audio. Therefore, it is possible to output the names of people with various pronunciations and compare the pronunciations.

また、図7のステップS13〜S14や、図8のステップS21〜S28、図9に示したように、人名辞書の辞書データベース84cに音声データの記憶されている人名のうち、テキスト中に表示されている人名とは異なる表記によって同一人物を表す変化形人名が検出され、検出された各人名が音声出力候補として一覧表示され、ユーザ操作に基づいて何れかの音声出力候補に対応する音声データが音声出力されるので、所望の表記に対応する発音で人名を音声出力させることができる。   Further, as shown in steps S13 to S14 of FIG. 7, steps S21 to S28 of FIG. 8, and FIG. 9, the personal name dictionary 84c of the personal name dictionary displays the name in the text. A variant human name representing the same person is detected with a notation different from the name of the person who is present, each detected person name is displayed as a list of voice output candidates, and voice data corresponding to any of the voice output candidates is displayed based on a user operation. Since the voice is output, it is possible to output the name of the person with the pronunciation corresponding to the desired notation.

また、図7のステップS1〜S3や、図9に示したように、ユーザ操作に基づいて辞書データベース84における何れかの見出語が指定されると、当該見出語に対応する説明情報が辞書データベース84から検索され、検索された説明情報がテキストとして表示されるので、説明情報中の何れかの単語を指定することにより、当該説明情報中の人名を音声出力させることができる。   Also, as shown in steps S1 to S3 of FIG. 7 and FIG. 9, when any headword in the dictionary database 84 is designated based on a user operation, the explanation information corresponding to the headword is obtained. Since the searched explanation information is searched from the dictionary database 84 and displayed as text, the name of the person in the explanation information can be output by voice by designating any word in the explanation information.

また、図7のステップS9〜S10や、図9に示したように、人名辞書の辞書データベース84cに格納された音声データに加え、他の辞書データベース84における各見出語に音声データが対応付けて記憶され、指定単語を含むテキスト中の単語列のうち、音声データの記憶されている人名の見出語が検出されて音声出力されるので、より多様な発音で人名を音声出力させ、発音を比較することができる。   In addition to the voice data stored in the dictionary database 84c of the personal name dictionary as shown in steps S9 to S10 of FIG. 7 and FIG. 9, the voice data is associated with each headword in the other dictionary database 84. Stored in the text containing the specified word, the headword of the person name stored in the voice data is detected and output as a voice. Can be compared.

また、図7のステップS14や、図9に示したように、音声出力される音声出力候補として、検出された各人名が一覧表示されるとともに、各人名に対して当該人名の検出された辞書データベース84a〜cの辞書名が付記されるので、所望の発音を選択して人名を音声出力させることができる。   Further, as shown in step S14 of FIG. 7 and FIG. 9, each detected person name is displayed as a list of voice output candidates to be output by voice, and a dictionary in which the person name is detected for each person name is displayed. Since the dictionary names of the databases 84a to 84c are added, it is possible to select a desired pronunciation and output the name of the person by voice.

<変形例>
続いて、上記の実施形態における電子辞書の変形例について説明する。なお、上記実施形態と同様の構成要素には同一の符号を付し、その説明を省略する。
<Modification>
Next, a modification of the electronic dictionary in the above embodiment will be described. In addition, the same code | symbol is attached | subjected to the component similar to the said embodiment, and the description is abbreviate | omitted.

上述の図2に示すように、本実施形態における電子辞書1Aは、フラッシュROM80Aを備えており、このフラッシュROM80Aは、本発明に係る音声出力プログラム81Aを記憶している。   As shown in FIG. 2 described above, the electronic dictionary 1A in the present embodiment includes a flash ROM 80A, and the flash ROM 80A stores an audio output program 81A according to the present invention.

この音声出力プログラム81Aは、後述の辞書検索処理(図10,図8参照)をCPU20に実行させるためのプログラムである。   The voice output program 81A is a program for causing the CPU 20 to execute a later-described dictionary search process (see FIGS. 10 and 8).

続いて、電子辞書1Aの動作を説明する。
図10,図8は、CPU20が音声出力プログラム81Aを読み出して実行する辞書検索処理の流れを示すフローチャートである。なお、電子辞書1Aの動作は、上述の電子辞書1の動作と比較してステップS9〜S14の処理(図7参照)が異なっているため、以下、図10を参照しつつ、ステップS8において訳/決定キー2bが操作された後(ステップS8;Yes)の処理について説明する。
Next, the operation of the electronic dictionary 1A will be described.
10 and 8 are flowcharts showing the flow of dictionary search processing in which the CPU 20 reads and executes the voice output program 81A. Note that the operation of the electronic dictionary 1A differs from the operation of the electronic dictionary 1 described above in the processing of steps S9 to S14 (see FIG. 7). Therefore, in the following, referring to FIG. / The process after the enter key 2b is operated (step S8; Yes) will be described.

まず、ステップS8で訳/決定キー2bが操作されると(ステップS8;Yes)、CPU20は、指定単語を含む説明情報中の単語列に完全一致する人名見出語のうち、人名辞書の辞書データベース84内の人名見出語のみを音声データベース83で検索し(ステップT11)、検出された人名見出語を音声出力候補記憶領域95の候補リストに加えた後(ステップT12)、候補リスト中の人名見出語とは異なる表記による変化形の人名見出語を人名辞書の辞書データベース84cで検索し、検出された人名見出語を音声出力候補記憶領域95の候補リストに加える(ステップT13)。そして、ウィンドウW1内に候補リストの人名見出語を一覧表示させて、先頭の人名見出語を識別表示させた後(ステップT14)、上記ステップS21の処理に移行する。   First, when the translation / decision key 2b is operated in step S8 (step S8; Yes), the CPU 20 is a personal name dictionary dictionary among the personal name headwords that completely match the word string in the explanatory information including the designated word. Only the personal name headword in the database 84 is searched in the speech database 83 (step T11), and the detected personal name headword is added to the candidate list in the speech output candidate storage area 95 (step T12). In the personal name dictionary dictionary database 84c, the personal name dictionary is searched for a variant personal name headword having a notation different from that of the personal name headword, and the detected personal name headword is added to the candidate list in the speech output candidate storage area 95 (step T13). ). Then, the personal name headwords in the candidate list are displayed in a list in the window W1 and the head personal name headwords are identified and displayed (step T14), and then the process proceeds to step S21.

この場合には、例えば図11(a)に示すように、まずユーザによって百科事典の辞書データベース84bが選択されて、検索文字列として「The battle of Okehazama」が入力され(ステップS1)、音声出力キー2hが操作された後(ステップS4;Yes)、カーソルキー2eの右キーが複数回操作されると(ステップS6;Yes)、当該カーソル方向(右方向)において説明情報「…, Oda Nobunaga defeated …」における単語「Oda」が反転指定される(ステップS7)。   In this case, for example, as shown in FIG. 11A, the encyclopedia dictionary database 84b is first selected by the user, and “The battle of Okehazama” is input as a search character string (step S1). After the key 2h is operated (step S4; Yes), when the right key of the cursor key 2e is operated a plurality of times (step S6; Yes), the explanatory information “..., Oda Nobunaga defeated in the cursor direction (right direction). The word “Oda” in “...” Is reversely designated (step S7).

次に、図11(b)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS8;Yes)、指定単語「Oda」を含む説明情報中の単語列に完全一致する人名見出語のうち、人名辞書の辞書データベース84b内の人名見出語のみが音声データベース83から検索されて(ステップT11)、検出された人名見出語「Oda Nobunaga」,「Oda」が音声出力候補記憶領域95の候補リストに加えられた後(ステップT12)、候補リスト中の人名見出語とは異なる表記による変化形の人名見出語が人名辞書の辞書データベース84cから検索され、検出された人名見出語「織田信長」が音声出力候補記憶領域95の候補リストに加えられ(ステップT13)、ウィンドウW1内に候補リストの人名見出語が一覧表示させ、先頭の人名見出語が識別表示される(ステップT14)。   Next, as shown in FIG. 11B, when the translation / decision key 2b is operated by the user (step S8; Yes), the name of the person who completely matches the word string in the explanatory information including the designated word “Oda”. Of the headwords, only the personal name headwords in the dictionary database 84b of the personal name dictionary are searched from the speech database 83 (step T11), and the detected personal name headwords “Oda Nobunaga” and “Oda” are output as speech. After being added to the candidate list in the candidate storage area 95 (step T12), a variant personal name vocabulary with a notation different from the personal name vocabulary in the candidate list is searched from the personal name dictionary dictionary database 84c and detected. The personal name headword “Nobunaga Oda” is added to the candidate list in the speech output candidate storage area 95 (step T13), and the personal name headword in the candidate list is displayed in a list in the window W1, and the first person name is displayed. Dego is displayed identified (step T14).

次に、図11(c)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS23;Yes)、指定人名見出語「Oda Nobunaga」に対応付けて音声データベース83に格納されている音声データが音声出力される(ステップS28)。なお、この音声出力における発音は、米国人の発音となっている。   Next, as shown in FIG. 11 (c), when the translation / decision key 2b is operated by the user (step S23; Yes), it is stored in the speech database 83 in association with the designated person name “Oda Nobunaga”. The voice data that has been recorded is output as a voice (step S28). Note that the pronunciation in this audio output is American.

次に、図11(d)に示すように、ユーザによってカーソルキー2eの下キーが操作されると(ステップS21;Yes)、指定人名見出語及び辞書名がカーソル方向(下方向)に変更される(ステップS22)。   Next, as shown in FIG. 11D, when the down key of the cursor key 2e is operated by the user (step S21; Yes), the designated person name word and dictionary name are changed in the cursor direction (downward). (Step S22).

次に、図11(e)に示すように、ユーザによって訳/決定キー2bが操作されると(ステップS23;Yes)、指定人名見出語「織田信長」に対応付けて音声データベース83に格納されている音声データが音声出力される(ステップS28)。なお、この音声出力における発音は、日本人の発音となっている。   Next, as shown in FIG. 11 (e), when the translation / decision key 2 b is operated by the user (step S 23; Yes), it is stored in the speech database 83 in association with the designated name headword “Nobunaga Oda”. The voice data that has been recorded is output as a voice (step S28). Note that the pronunciation in this audio output is Japanese pronunciation.

以上の電子辞書1Aによっても、上記実施形態における電子辞書1と同様の効果を得ることができる。   Also with the electronic dictionary 1A described above, the same effect as the electronic dictionary 1 in the above embodiment can be obtained.

なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The embodiments to which the present invention can be applied are not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

例えば、本発明に係る音声出力装置を電子辞書1,1Aとして説明したが、本発明が適用可能なものは、このような製品に限定されず、携帯電話、パソコンなどの電子機器全般に適用可能である。また、本発明に係る音声出力プログラム81,81Aは、電子辞書1,1Aに対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。   For example, although the audio output device according to the present invention has been described as the electronic dictionary 1, 1 </ b> A, those to which the present invention can be applied are not limited to such products, and can be applied to all electronic devices such as mobile phones and personal computers. It is. Further, the audio output programs 81 and 81A according to the present invention may be stored in a memory card, a CD, or the like that can be attached to and detached from the electronic dictionary 1 or 1A.

また、人名を音声出力させるために見出語の説明情報中の単語が反転指定されることとして説明したが、例えば見出語の用例中の単語が反転指定されることとしても良いし、外部機器からダウンロードされて表示されたテキスト中の単語が反転指定されることとしても良いし、図12に示すように、人名辞書の辞書データベース84cにおける見出語の説明情報が表示された状態で音声出力キー2hが操作されることとしても良い。   In addition, it has been described that the word in the explanation information of the headword is reversely specified in order to output the person's name by voice. However, for example, the word in the headword example may be reversely specified. The words in the text downloaded and displayed from the device may be reversely specified. As shown in FIG. 12, the speech is displayed with the explanation information of the headword in the dictionary database 84c of the personal name dictionary being displayed. The output key 2h may be operated.

本発明に係る音声出力装置を適用した電子辞書を示す平面図である。It is a top view which shows the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 本発明に係る音声出力装置を適用した電子辞書の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the electronic dictionary to which the audio | voice output apparatus which concerns on this invention is applied. 英和辞典等の辞書データベースの構造を示す図である。It is a figure which shows the structure of dictionary databases, such as an English-Japanese dictionary. 英和辞典等の辞書データベースの構造を示す図である。It is a figure which shows the structure of dictionary databases, such as an English-Japanese dictionary. 人名辞書の辞書データベースの構造を示す図である。It is a figure which shows the structure of the dictionary database of a personal name dictionary. 音声データベースの構造を示す図である。It is a figure which shows the structure of an audio | voice database. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 辞書検索処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in a dictionary search process. 辞書検索処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a dictionary search process. 辞書検索処理における表示内容などを示す概念図である。It is a conceptual diagram which shows the display content etc. in a dictionary search process. 人名辞書の辞書データベースから説明情報が検索された状態を示す図である。It is a figure which shows the state by which explanatory information was searched from the dictionary database of a personal name dictionary.

符号の説明Explanation of symbols

1 電子辞書(音声出力装置)
20 CPU(人名検出手段、変化形人名追加検出手段、第1音声出力制御手段、
検索手段、見出語人名検出手段、第2音声出力制御手段)
30 入力部(単語指定手段、見出語指定手段)
40 表示部(テキスト表示手段、第1音声出力候補一覧表示手段、説明情報表示手段、
第2音声出力候補一覧表示手段、記憶元情報表示手段)
50 音声出力部(音声出力手段)
81 音声出力プログラム
83 音声データベース(見出語音声データ記憶手段)
84 辞書データベース(辞書記憶手段)
84c 人名辞書の辞書データベース(人名音声データ記憶手段、
表記別人名音声データ記憶手段)
1 Electronic dictionary (voice output device)
20 CPU (person name detection means, change type person name addition detection means, first voice output control means,
Search means, headword name detection means, second voice output control means)
30 Input section (word designation means, headword designation means)
40 display section (text display means, first voice output candidate list display means, explanation information display means,
Second audio output candidate list display means, storage source information display means)
50 Audio output unit (Audio output means)
81 voice output program 83 voice database (sentence voice data storage means)
84 Dictionary database (Dictionary storage means)
84c Personal name dictionary dictionary database (personal voice data storage means,
Personal voice data storage means by notation)

Claims (6)

複数の単語からなる人名それぞれに音声データを対応付けて記憶する人名音声データ記憶手段と、
複数の単語を含むテキストを表示するテキスト表示手段と、
前記テキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定手段と、
この指定単語として指定されたテキスト中の単語に対応する人名を、前記人名音声データ記憶手段から検出する人名検出手段と、
前記人名検出手段によって検出された人名に対応する音声データを音声出力する音声出力手段と、
を備える音声出力装置において、
前記人名音声データ記憶手段は、
同一人物についての表記の異なる人名それぞれに、発音の異なる音声データを対応付けて記憶する表記別人名音声データ記憶手段を有し、
当該音声出力装置は、
前記人名音声データ記憶手段により音声データの記憶されている人名のうち、前記人名検出手段によって検出された人名とは異なる表記によって同一人物を表す変化形人名を検出する変化形人名追加検出手段と、
前記音声出力手段により音声出力される音声出力候補として、前記人名検出手段及び前記変化形人名追加検出手段によって検出された各人名を一覧表示する第1音声出力候補一覧表示手段と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力手段に音声出力させる第1音声出力制御手段と、
を備えることを特徴とする音声出力装置。
Personal name voice data storage means for storing voice data in association with each person name consisting of a plurality of words;
A text display means for displaying text including a plurality of words;
What Re of the words in the text, the word designating means for designating as a designated word based on the user operation,
A person name detecting means for detecting a person name corresponding to the word in the text designated as the designated word from the person name voice data storage means;
Voice output means for outputting voice data corresponding to the person name detected by the person name detection means;
In an audio output device comprising:
The personal name voice data storage means includes
Each person name with different notation for the same person has voice data storage means by notation for storing voice data with different pronunciation in association with each other,
The audio output device is
Among the names stored in the voice data by the personal name voice data storage means, a change form person name addition detection means for detecting a change form person name representing the same person by a notation different from the person name detected by the person name detection means,
First voice output candidate list display means for displaying a list of each person name detected by the person name detection means and the change form person name addition detection means as voice output candidates to be output by the voice output means;
First audio output control means for causing the audio output means to output audio data corresponding to any of the audio output candidates based on a user operation;
An audio output device comprising:
前記人名検出手段は、前記単語指定手段により指定されたテキスト中の単語に対応する人名として、当該指定単語を含む前記テキスト中の単語列のうち、前記人名音声データ記憶手段により音声データの記憶されている人名を検出することを特徴とする請求項1に記載の音声出力装置。The personal name detection means stores voice data as the personal name corresponding to the word in the text designated by the word designation means, by the personal voice data storage means in the word string in the text including the designated word. The voice output device according to claim 1, wherein a name of a person who is present is detected. 請求項1又は2記載の音声出力装置において、
各見出語に、説明情報を対応付けてなる辞書情報を記憶する辞書記憶手段と、
ユーザ操作に基づいて前記辞書情報における何れかの見出語を指定見出語として指定する見出語指定手段と、
前記指定見出語に対応する説明情報を前記辞書情報から検索する検索手段と、
を備え、
前記テキスト表示手段は、
前記検索手段により検索された説明情報を前記テキストとして表示する説明情報表示手段を有することを特徴とする音声出力装置。
The audio output device according to claim 1 or 2 ,
Dictionary storage means for storing dictionary information in which explanation information is associated with each headword;
A headword designating means for designating any headword in the dictionary information as a designated headword based on a user operation;
Search means for searching the dictionary information for explanation information corresponding to the designated headword;
With
The text display means includes
An audio output device comprising: explanation information display means for displaying the explanation information retrieved by the retrieval means as the text.
請求項記載の音声出力装置において、
前記辞書記憶手段における各見出語に音声データを対応付けて記憶する見出語音声データ記憶手段を備え、
前記人名検出手段は、
前記指定単語を含む前記テキスト中の単語列のうち、前記見出語音声データ記憶手段により音声データの記憶されている人名の見出語を検出する見出語人名検出手段を有することを特徴とする音声出力装置。
The audio output device according to claim 3 , wherein
A headword voice data storage means for storing voice data in association with each headword in the dictionary storage means;
The person name detecting means is
It has a headword name detection means for detecting a headword of a person name whose voice data is stored by the headword voice data storage means among word strings in the text including the designated word. Audio output device.
請求項記載の音声出力装置において、
前記音声出力手段により音声出力される音声出力候補として、前記人名検出手段によって検出された各人名を一覧表示する第2音声出力候補一覧表示手段と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力手段に音声出力させる第2音声出力制御手段と、
を備え、
前記第2音声出力候補一覧表示手段は、
一覧表示される各人名に対して、当該人名を記憶する前記辞書記憶手段または前記人名音声データ記憶手段の識別情報を付記する記憶元情報表示手段を有することを特徴とする音声出力装置。
The audio output device according to claim 4 , wherein
Second voice output candidate list display means for displaying a list of names detected by the person name detection means as voice output candidates for voice output by the voice output means;
Second audio output control means for causing the audio output means to output audio data corresponding to any of the audio output candidates based on a user operation;
With
The second audio output candidate list display means includes:
An audio output apparatus comprising: a storage source information display unit for adding identification information of the dictionary storage unit or the personal name voice data storage unit for storing the personal name for each personal name displayed in a list.
コンピュータに、
複数の単語からなる人名それぞれに音声データを対応付けて記憶する人名音声データ記憶機能と、
複数の単語を含むテキストを表示するテキスト表示機能と、
前記テキスト中の何れかの単語を、ユーザ操作に基づき指定単語として指定する単語指定機能と、
この指定単語として指定されたテキスト中の単語に対応する人名を、前記人名音声データ記憶機能による記憶情報から検出する人名検出機能と、
前記人名検出機能によって検出された人名に対応する音声データを音声出力する音声出力機能と、を実現させる音声出力プログラムにおいて、
前記人名音声データ記憶機能は、
同一人物についての表記の異なる人名それぞれに、発音の異なる音声データを対応付けて記憶する表記別人名音声データ記憶機能を有し、
当該音声出力プログラムは、前記コンピュータに、
前記人名音声データ記憶機能により音声データの記憶されている人名のうち、前記人名検出機能によって検出された人名とは異なる表記によって同一人物を表す変化形人名を検出する変化形人名追加検出機能と、
前記音声出力機能により音声出力される音声出力候補として、前記人名検出機能及び前記変化形人名追加検出機能によって検出された各人名を一覧表示する第1音声出力候補一覧表示機能と、
ユーザ操作に基づいて何れかの前記音声出力候補に対応する音声データを前記音声出力機能により音声出力させる第1音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
On the computer,
A personal name voice data storage function for storing voice data in association with each person name consisting of a plurality of words;
A text display function that displays text containing multiple words,
What Re of the words in the text, the word specifying function for specifying the specified word based on the user operation,
A person name detecting function for detecting a person name corresponding to a word in the text designated as the designated word from stored information by the person name voice data storing function ;
In an audio output program for realizing an audio output function for outputting audio data corresponding to a person name detected by the person name detection function ,
The personal name voice data storage function is
Each person name with different notation for the same person has a notation-specific person name voice data storage function that stores voice data with different pronunciations in association with each other.
The audio output program is stored in the computer.
Among the names of voice data stored by the name voice data storage function, a change type person name addition detection function for detecting a change type person name representing the same person by a notation different from the person name detected by the person name detection function;
A first voice output candidate list display function for displaying a list of each person name detected by the person name detection function and the change form person name addition detection function as voice output candidates to be output by the voice output function;
A first sound output control function for outputting sound data corresponding to any of the sound output candidates based on a user operation by the sound output function;
An audio output program characterized by realizing the above.
JP2007021344A 2007-01-31 2007-01-31 Audio output device and audio output program Active JP5119671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007021344A JP5119671B2 (en) 2007-01-31 2007-01-31 Audio output device and audio output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007021344A JP5119671B2 (en) 2007-01-31 2007-01-31 Audio output device and audio output program

Publications (2)

Publication Number Publication Date
JP2008186376A JP2008186376A (en) 2008-08-14
JP5119671B2 true JP5119671B2 (en) 2013-01-16

Family

ID=39729349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007021344A Active JP5119671B2 (en) 2007-01-31 2007-01-31 Audio output device and audio output program

Country Status (1)

Country Link
JP (1) JP5119671B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5056676B2 (en) * 2008-08-29 2012-10-24 日本電気株式会社 Information processing apparatus, window display method, and program
JP5417774B2 (en) * 2008-09-03 2014-02-19 カシオ計算機株式会社 Electronic device and program with dictionary function
JP5348225B2 (en) * 2011-11-10 2013-11-20 日本電気株式会社 Information processing apparatus, window display method, and program
CN105095180A (en) * 2014-05-14 2015-11-25 中兴通讯股份有限公司 Chinese name broadcasting method and device
CN110728861A (en) * 2019-11-18 2020-01-24 曾秀英 Primary school Chinese material collection system and method
US20220012420A1 (en) * 2020-07-08 2022-01-13 NameCoach, Inc. Process, system, and method for collecting, predicting, and instructing the pronunciaiton of words

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09325789A (en) * 1996-05-31 1997-12-16 Ricoh Co Ltd Voice synthesizer and information retrieving system provided with synthesizer
JP2003085182A (en) * 2001-09-11 2003-03-20 Seiko Instruments Inc Electronic dictionary
JP2004206556A (en) * 2002-12-26 2004-07-22 Casio Comput Co Ltd Information display controller and program
JP2006215667A (en) * 2005-02-01 2006-08-17 Casio Comput Co Ltd Electronic equipment and control program thereof
JP4581779B2 (en) * 2005-03-24 2010-11-17 カシオ計算機株式会社 Information display control device and program

Also Published As

Publication number Publication date
JP2008186376A (en) 2008-08-14

Similar Documents

Publication Publication Date Title
JP5119671B2 (en) Audio output device and audio output program
JP4738847B2 (en) Data retrieval apparatus and method
JP2010198241A (en) Chinese input device and program
JP5012083B2 (en) Learning support device and learning support program
KR100931464B1 (en) Recording medium recording voice output device and voice output program
US20070260451A1 (en) Information display control apparatus and recording medium recording information display control program
JP5024347B2 (en) Electronic device and program with dictionary function
JP4840051B2 (en) Speech learning support apparatus and speech learning support program
JP2008217052A (en) Information display device and information display program
JP4305515B2 (en) Audio output device and audio output program
CN112541071A (en) Electronic dictionary, learning word judgment method, and recording medium
JP5024335B2 (en) Information display control device and information display control program
JP4492499B2 (en) Information display control device and information display control program
JP5397199B2 (en) Electronic device and information display program
JP5417774B2 (en) Electronic device and program with dictionary function
JP2004171174A (en) Device and program for reading text aloud, and recording medium
JP2015165419A (en) information display control device, information display control method, and program
JP2008058678A (en) Voice output device and program
JP2014059422A (en) Chinese display control device, chinese display control program, and chinese display control method
JP2012181654A (en) Russian word search device and program
JP2008171208A (en) Voice output device and voice output program
JP6451153B2 (en) Information display control device and program
JP2010002830A (en) Voice recognition device
JP2009048374A (en) Character input device, and character input method for information processing apparatus
JP4640050B2 (en) Information display control device and information display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120402

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5119671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150