JP2003216607A - Electronic translating apparatus - Google Patents

Electronic translating apparatus

Info

Publication number
JP2003216607A
JP2003216607A JP2002015853A JP2002015853A JP2003216607A JP 2003216607 A JP2003216607 A JP 2003216607A JP 2002015853 A JP2002015853 A JP 2002015853A JP 2002015853 A JP2002015853 A JP 2002015853A JP 2003216607 A JP2003216607 A JP 2003216607A
Authority
JP
Japan
Prior art keywords
word
voice
importance
sentence
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002015853A
Other languages
Japanese (ja)
Inventor
Gakuji Kuraishi
岳治 倉石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002015853A priority Critical patent/JP2003216607A/en
Publication of JP2003216607A publication Critical patent/JP2003216607A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To make a conversation smoother relating to an electronic translating apparatus by giving each word its degree of importance, and sequentially performing the processes of voice recognition, translation and display for input voice at each degree of importance and in order of decreasing degrees of importance. <P>SOLUTION: The electronic translating apparatus includes a voice input part; a voice recognition table in which word and pronunciation data and importance level information are stored in association; a grammar table for the language of the input voice; a voice data storage part for storing the input voice; a retrieving part for retrieving pronunciation data that can coincide with the stored voice data and for selecting word candidates which correspond to the pronunciation data retrieved; a recognizing part for determining words by referring to the grammar table as to the selected word candidates; a display part for displaying the words determined; and a control part which performs the process of selecting word candidates and determining and displaying words at each degree of importance and in the order of decreasing degrees of importance so as to display sentences in steps based on the language of the input voice. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、音声認識機能を
有する電子翻訳装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic translation device having a voice recognition function.

【0002】[0002]

【従来の技術】従来から音声認識機能と、翻訳機能を有
する電子機器が開発されている。たとえば、マイクロフ
ォンから入力された音声をデジタルデータに変換して一
旦記録し、さらにデジタルデータを単語ごとに音声認識
した後、翻訳辞書を検索して、目的の訳語を全部抽出す
る携帯型音声認識電子辞書が、特開平4−10166号
公報に記載されている。
2. Description of the Related Art Conventionally, electronic devices having a voice recognition function and a translation function have been developed. For example, a portable voice recognition electronic device that converts voice input from a microphone into digital data, records the data once, recognizes the digital data for each word, and then searches a translation dictionary to extract all target translation words. The dictionary is described in JP-A-4-10166.

【0003】また、特開平7−105220号公報に
は、利用者が選択した会話文の翻訳文を、会話相手に対
して表示すると共に、その翻訳文に対する返事の選択候
補を表示し、会話相手が選択した返事を利用者が理解で
きる表現で表示するようにして、筆談形式の会話を実現
する会話翻訳装置が記載されている。
Further, in Japanese Unexamined Patent Publication No. 7-105220, the translated sentence of the conversation sentence selected by the user is displayed to the conversation partner, and the answer selection candidates for the translation sentence are displayed to indicate the conversation partner. There is described a conversation translation device for displaying a reply selected by the user in an expression that a user can understand and realizing a conversation in a writing style.

【0004】また、特開平9−251462号公報に
は、予め記憶された会話用例文の一部の単語を入れ替え
てその翻訳文を表示させる場合に、その入れ替え候補の
単語(要素)をカテゴリ(分類基準)ごとに分類して予
め記憶しておき、ユーザが選択したカテゴリに属する単
語(要素)を表示させる機械翻訳装置が記載されてい
る。
Further, in Japanese Unexamined Patent Publication No. 9-251462, when a part of words of a conversational example sentence stored in advance is replaced and the translated sentence is displayed, the replacement candidate words (elements) are classified into categories (elements). There is described a machine translation device that classifies each category and stores it in advance and displays words (elements) belonging to a category selected by a user.

【0005】また、特開平10−320397号公報に
は、マイクから入力された音声の特徴を抽出して認識
し、予め格納されている表を用いて音声認識した結果に
対応する訳文を検索して、その認識結果と対訳文を表示
したりまたは対訳文を合成音声出力する携帯型音声翻訳
端末が記載されている。
Further, in Japanese Unexamined Patent Publication No. 10-320397, features of voice input from a microphone are extracted and recognized, and a translated sentence corresponding to the result of voice recognition is searched using a table stored in advance. Then, a portable voice translation terminal that displays the recognition result and the bilingual sentence or outputs the bilingual sentence by synthesized voice is described.

【0006】[0006]

【発明が解決しようとする課題】しかし、特開平4−1
0166号公報に記載のものでは、音声認識機能を有す
るため、文字を入力するキー入力方式の電子辞書に比べ
て早く目的の単語の外国語訳を得ることができるが、単
に訳語を抽出するだけなので一般的な双方向の会話時に
おいて適切な訳語を抽出できるとは限らず、入力された
音声が長い場合には、訳語を得るまでに時間がかかりす
ぎる場合があり、迅速な対応ができない。
However, Japanese Laid-Open Patent Publication No. 4-1 is used.
Since the one described in Japanese Patent No. 0166 has a voice recognition function, it is possible to obtain a foreign word translation of a target word earlier than an electronic dictionary of a key input system for inputting characters, but it is only necessary to extract a translated word. Therefore, it is not always possible to extract an appropriate translated word during a general two-way conversation, and if the input voice is long, it may take too long to obtain the translated word, and quick response cannot be performed.

【0007】また、特開平7−105220号公報に記
載の装置では、会話の相手側にも、この装置を見せて、
返事を選択させる必要があり、スムーズな会話ができ
ず、返事の選択肢が予め用意されているものに限られる
という問題がある。
In the device disclosed in Japanese Patent Laid-Open No. 7-105220, the device can be shown to the other party in conversation.
There is a problem that it is necessary to select a reply, smooth conversation cannot be performed, and reply options are limited to those prepared in advance.

【0008】また、特開平9−251462号公報に記
載のものでは、会話用例文のバリエーションを増加さ
せ、希望する翻訳文を早く表示させることはできるが、
音声処理機能を有していないため、異なる言語を話す者
どうしの双方向の会話をスムーズに行うための装置とし
ては利用できない。
[0008] Further, in the method disclosed in Japanese Patent Laid-Open No. 9-251462, although it is possible to increase the variation of conversational example sentences and display the desired translated sentence quickly,
Since it does not have a voice processing function, it cannot be used as a device for smoothly performing a two-way conversation between speakers who speak different languages.

【0009】また、特開平10−320397号公報に
記載のものでは、入力された音声の認識結果に対応した
対訳文や例文を、表示または合成音声出力させることは
できるが、相手の会話を理解するにはすべてが訳された
結果を見てからでないとできず、また、訳文を得るため
の検索にいくらかの操作が必要であり、双方向の会話を
スムーズにするために十分な機能を有しているとは言え
ない。
Further, according to the technique disclosed in Japanese Patent Laid-Open No. 10-320397, it is possible to display or output a synthesized voice of a bilingual sentence or an example sentence corresponding to the recognition result of the inputted voice, but understand the conversation of the other party. To do this, you must look at all the translated results, and some search is required to get the translated text, and it has enough features to facilitate two-way conversations. I can't say I'm doing it.

【0010】そこで、この発明は、以上のような事情を
考慮してなされたものであり、音声認識機能を有し、登
録された単語を重要度別に分類することにより、双方向
の会話をスムーズにすることを補助する電子翻訳辞書を
提供するものである。
Therefore, the present invention has been made in consideration of the above circumstances, and has a voice recognition function and classifies the registered words according to the importance, so that the two-way conversation can be smoothly performed. It is intended to provide an electronic translation dictionary that assists the user.

【0011】[0011]

【課題を解決するための手段】この発明は、音声入力部
と、少なくとも単語、発音データおよび重要度情報とが
対応づけて記憶された音声認識テーブルと、入力された
音声の言語についての文法テーブルと、入力された音声
をデジタル化して記憶した音声データ記憶部と、音声デ
ータ記憶部に記憶された音声データに一致可能な前記発
音データを検索し、検索された発音データに対応する単
語候補を選択する検索部と、選択された単語候補につい
て前記文法テーブルを参照して単語を決定する認識部
と、決定された単語を表示する表示部と、前記単語候補
の選択処理、単語の決定処理および単語の表示処理を、
前記重要度情報のグループごとに、かつ重要度情報の高
い順に順次行わせ、入力された音声について入力された
音声の言語による文を重要度ごとに段階的に表示部に表
示させる制御部とを備えたことを特徴とする電子翻訳装
置を提供するものである。
According to the present invention, a voice input section, a voice recognition table in which at least words, pronunciation data and importance information are stored in association with each other, and a grammar table for a language of input voices. And a voice data storage unit that digitizes and stores the input voice and the pronunciation data that can match the voice data stored in the voice data storage unit, and searches for word candidates corresponding to the retrieved pronunciation data. A search unit to be selected, a recognition unit for determining a word by referring to the grammar table for the selected word candidate, a display unit for displaying the determined word, a selection process for the word candidate, a word determination process, and Word display processing,
A control unit that causes the groups of the importance information to be sequentially performed in descending order of importance information, and that causes the sentence in the language of the input voice to be displayed on the display unit step by step according to the importance. The present invention provides an electronic translation device characterized by being provided.

【0012】これによれば、対話場面における相手の話
した文章を重要な単語から順に徐々に表示させることが
できるので、会話をスムーズにさせることができる。ま
た、相手の話した文章の全文を表示する前に、相手の話
した内容を類推又は理解することができる。
According to this, since the sentences spoken by the other party in the dialogue scene can be gradually displayed in order from the important words, the conversation can be made smooth. In addition, the content spoken by the other party can be analogized or understood before the full text of the sentence spoken by the other party is displayed.

【0013】また、翻訳辞書と、前記認識部が決定した
単語を、所定の他の言語に翻訳する翻訳部とをさらに備
え、前記制御部が、前記重要度情報のグループごとに、
かつ重要度情報の高い順に、前記認識部が決定した単語
に対して前記翻訳部に翻訳処理を行わせることを特徴と
する電子翻訳装置を提供するものである。
Further, the system further comprises a translation dictionary and a translation unit for translating the word determined by the recognition unit into a predetermined other language, and the control unit, for each group of the importance information,
Further, the present invention provides an electronic translation device, characterized in that the translation unit performs a translation process on a word determined by the recognition unit in descending order of importance information.

【0014】さらに、前記音声認識テーブルが、書き換
え可能なメモリに記憶され、前記音声認識テーブルの単
語の検索または認識に使用された使用頻度情報を単語ご
とに前記メモリに記憶して、前記制御部が前記使用頻度
情報に基づいて、前記重要度情報を変更するようにして
もよい。
Further, the voice recognition table is stored in a rewritable memory, and usage frequency information used for searching or recognizing words in the voice recognition table is stored in the memory for each word, and the control unit May change the importance information based on the usage frequency information.

【0015】この発明の電子翻訳装置において、音声入
力部にはマイクロフォン、表示部にはLCDまたはEL
表示素子などの小型の表示装置を用いることができる。
また、音声のみならず、文字、記号データを入力するた
めのキー、辞書選択や音声認識の起動のためのキーを備
えてもよい。
In the electronic translation apparatus of the present invention, the voice input section is a microphone, and the display section is an LCD or EL.
A small display device such as a display element can be used.
Further, a key for inputting not only voice but also characters and symbol data, and a key for selecting a dictionary and activating voice recognition may be provided.

【0016】音声認識テーブル、文法テーブル及び翻訳
辞書は、読み出し専用のメモリ、たとえば、ROMなど
の半導体素子、CD−ROMなどの記録媒体を用いるこ
とができるが、RAM、ハードディスク等の書き換え可
能なメモリに記憶してもよい。音声データ記憶部は、R
AM、ハードディスク等の書き換え可能なメモリに記憶
することができる。また、検索部、認識部および制御部
の各機能は、CPU、ROM、RAM、I/Oコントロ
ーラ、タイマー等からなるマイクロコンピュータが、R
OM等に記憶されたプログラムに基づいて動作すること
により実現できる。
For the voice recognition table, the grammar table and the translation dictionary, a read-only memory, for example, a semiconductor element such as a ROM or a recording medium such as a CD-ROM can be used, but a rewritable memory such as a RAM or a hard disk. May be stored in. The voice data storage is R
It can be stored in a rewritable memory such as an AM or a hard disk. Further, each function of the search unit, the recognition unit and the control unit is controlled by a microcomputer including a CPU, a ROM, a RAM, an I / O controller, a timer,
It can be realized by operating based on a program stored in the OM or the like.

【0017】音声認識テーブルに記憶されている発音デ
ータは、各単語を発生したときのアナログ音声をデジタ
ル化して予め記憶したサンプルデータであり、デジタル
化された音声波形データである。この発音データと、実
際に入力されたアナログ音声をデジタル化したデータと
の類似度を判断することにより認識可能な単語候補が選
択される。
The pronunciation data stored in the voice recognition table is sample data in which analog voices when each word is generated are digitized and stored in advance, and are digitized voice waveform data. Recognizable word candidates are selected by determining the similarity between the pronunciation data and the data obtained by digitizing the actually input analog voice.

【0018】重要度情報とは、認識、翻訳等の処理を優
先してするべき程度が高いかまたは低いかを示す情報で
あり、音声認識テーブルに記憶された単語ごとに予め付
与される。たとえば、重要度情報として整数を用い、1
が最も重要度が高いものとし、数字が大きくなるにつれ
て順に重要度が低くなるようにしてもよい。
The importance level information is information indicating whether the priority level of processing such as recognition and translation is high or low, and is given in advance for each word stored in the voice recognition table. For example, using an integer as importance information, 1
May have the highest importance, and the importance may decrease in order as the number increases.

【0019】[0019]

【発明の実施の形態】<電子翻訳装置の構成>図1に、こ
の発明の電子翻訳装置の一実施例の概略構成図を示す。
ここでは、日本語と英語間の翻訳をするものであり、英
語の音声を認識して文字データに変換する音声認識機能
を有するものとする。ただし、翻訳する言語は、この2
つの言語に限られるものではなく、ドイツ語、フランス
語、中国語など現在存在するあらゆる言語であってもよ
い。
BEST MODE FOR CARRYING OUT THE INVENTION <Structure of Electronic Translation Device> FIG. 1 is a schematic structural view of an embodiment of an electronic translation device of the present invention.
Here, it is intended to translate between Japanese and English and has a voice recognition function for recognizing English voice and converting it into character data. However, the language to be translated is 2
The present invention is not limited to one language, but may be any existing language such as German, French, or Chinese.

【0020】図1において、符号11aはキャビネッ
ト、11bは表示部、11sはマイクロフォンであり、
従来の電子辞書と同様に各種機能や文字を設定入力する
ためのキーが多数設けられている。たとえば、符号11
dは英語を日本語に変換する英和辞書を選択するキー、
符号11eは日本語を英語に変換する和英辞書を選択す
るキー、11fは音声認識を実行させるキーである。
In FIG. 1, reference numeral 11a is a cabinet, 11b is a display portion, 11s is a microphone,
As with the conventional electronic dictionary, a large number of keys for setting and inputting various functions and characters are provided. For example, the code 11
d is a key to select an English-Japanese dictionary that converts English into Japanese,
Reference numeral 11e is a key for selecting a Japanese-English dictionary for converting Japanese into English, and 11f is a key for executing voice recognition.

【0021】図2に、この発明の電子翻訳装置の一実施
例の概略構成ブロック図を示す。図2に示すように、こ
の装置は、主として、表示部12a、キー入力部12
c、音声入力部12d及び制御部12bとから構成さ
れ、制御部12bは、表示部12aを制御する表示制御
部12e、2つの入力部12c,12dを制御する入力
制御部12g及びこの装置全体をコントロールするCP
U12f、プログラムやデータを記憶するROM12
h、RAM12iから構成される。
FIG. 2 shows a schematic block diagram of an embodiment of the electronic translation apparatus of the present invention. As shown in FIG. 2, this device mainly includes a display unit 12 a and a key input unit 12.
c, a voice input unit 12d, and a control unit 12b. The control unit 12b includes a display control unit 12e that controls the display unit 12a, an input control unit 12g that controls the two input units 12c and 12d, and the entire apparatus. CP to control
U12f, ROM12 for storing programs and data
h and RAM 12i.

【0022】表示部12aは、LCDの他、EL素子な
どを用いることができる。入力キー部12cは、図1に
示したキーの他、キーボードやテンキーなどを用いるこ
とができる。音声入力部12dは、図1のマイクロフォ
ン11sに相当する。
For the display section 12a, an EL element or the like can be used in addition to the LCD. As the input key unit 12c, a keyboard, a numeric keypad, or the like can be used in addition to the keys shown in FIG. The voice input unit 12d corresponds to the microphone 11s in FIG.

【0023】ROM12hは、CPUにこの装置の各機
能を実行させるためのプログラムや翻訳および音声認識
等の機能を実行させるのに必要な情報(図5に示すよう
な、音声認識テーブル15b、辞書15a、対応語リス
ト15c、文法テーブル15d、答え対応テーブル15
e)が読出し可能に記憶されている。辞書15aには、
日本語及び英語の単語の意味、変化形、発音記号、例
文、解説など、いわゆる通常の辞書に含まれている情報
が格納されている。
The ROM 12h is a program for causing the CPU to execute each function of the apparatus and information necessary for executing functions such as translation and voice recognition (a voice recognition table 15b, a dictionary 15a as shown in FIG. 5). , Correspondence word list 15c, grammar table 15d, answer correspondence table 15
e) is stored so that it can be read. The dictionary 15a contains
The information stored in a so-called ordinary dictionary such as meanings of Japanese and English words, variations, phonetic symbols, example sentences, explanations, etc. is stored.

【0024】図3に、音声認識テーブルの内容の一実施
例を示す。ここでは、品詞ごとに分類された単語データ
13a、発音データ13b、重要度13cが1つの単語
ごとに一組として格納されている。この重要度13cと
品詞情報は音声認識された単語の候補を選択するときに
用いられる。
FIG. 3 shows an embodiment of the contents of the voice recognition table. Here, the word data 13a, the pronunciation data 13b, and the degree of importance 13c, which are classified for each part of speech, are stored as a set for each word. The importance 13c and the part-of-speech information are used when selecting a candidate of a word recognized by voice recognition.

【0025】図4に、文法テーブル15dの一実施例を
示す。この文法テーブルには、日本語および英語の語
順、イディオム、変化形などからなるいわゆる文法ルー
ルが格納されている。
FIG. 4 shows an embodiment of the grammar table 15d. This grammar table stores so-called grammatical rules consisting of Japanese and English word orders, idioms, variants.

【0026】次に、会話の場面において、この発明の電
子翻訳辞書の利用方法および、英語から日本語への翻訳
処理等の概要について説明する。日本語を母国語とする
ユーザ(日本人)が、この発明の電子翻訳装置を持って
おり、英語を話す外国人と会話する場合を考える。
Next, an outline of a method of using the electronic translation dictionary of the present invention and a process of translating from English into Japanese in a conversation scene will be described. Consider a case where a user whose first language is Japanese (Japanese) has the electronic translation device of the present invention and has a conversation with a foreigner who speaks English.

【0027】まず、ユーザは、音声認識キー11fを押
して、マイクロフォン11sを外国人に近づけ、その外
国人に英語の文を発声してもらう。たとえば、外国人が
“what time is it now”と発声したとすると、この音
声がマイクロフォンに入力される。入力された音声は音
声認識により各英単語として認識され、予め設定されて
いる所定の重要度の順にその単語が表示されていく。
First, the user presses the voice recognition key 11f to bring the microphone 11s closer to a foreigner and ask the foreigner to speak an English sentence. For example, if a foreigner says "what time is it now", this voice is input to the microphone. The input voice is recognized as each English word by voice recognition, and the word is displayed in the order of predetermined importance set in advance.

【0028】たとえば、図6(a)に示されているよう
に、表示部12aにまず最も重要度の高い単語である
「what」、「time」、「now」が表示され、同時に、翻
訳処理も実行され各英単語の下に日本語訳も表示され
る。次に、重要度の順に、残った単語について、同様に
音声認識、翻訳処理等が実行される。そして、文章全体
が認識されると、「is」、「it」も含む入力された英文
についての完成された英文と、日本語訳「今、何時です
か?」とが、図6(b)に示すように表示される。
For example, as shown in FIG. 6 (a), the most important words "what", "time", and "now" are first displayed on the display section 12a, and at the same time, the translation process is performed. Is also executed and a Japanese translation is displayed below each English word. Next, in the order of importance, the remaining words are similarly subjected to voice recognition, translation processing and the like. Then, when the entire sentence is recognized, the completed English sentence including the input English sentence including "is" and "it" and the Japanese translation "What time is it now?" Are displayed in Fig. 6 (b). It is displayed as shown in.

【0029】すなわち、この発明では、入力された音声
全体の音声認識と翻訳処理が行われた後にその結果を一
度に表示するのではなく、予め設定された重要度の高い
順に単語を順次処理をしていき、翻訳途中でも一部の単
語表示を行うことを特徴とする。さらに、全単語の翻訳
終了後に、入力された音声全体を、入力言語と翻訳言語
の両方を用いて文章として表示する。
In other words, according to the present invention, the results are not displayed at once after the speech recognition and translation processing of the entire input speech are performed, but the words are sequentially processed in the order of high preset importance. The feature is that some words are displayed even during translation. Further, after the translation of all the words is completed, the entire input voice is displayed as a sentence using both the input language and the translated language.

【0030】<第1実施例>次に、この発明の電子翻訳装
置の概略動作を説明する。図7に、この発明の電子翻訳
装置の一実施例の動作のフローチャートを示す。まず、
ユーザが、図1に示した音声認識キー11fを押すと
(ステップ21a)、図2のCPUは、このキー入力が
あったことを入力制御部12gを介して検出する。
<First Embodiment> Next, the general operation of the electronic translation apparatus of the present invention will be described. FIG. 7 shows a flowchart of the operation of an embodiment of the electronic translation apparatus of the present invention. First,
When the user presses the voice recognition key 11f shown in FIG. 1 (step 21a), the CPU of FIG. 2 detects that there is this key input, via the input control unit 12g.

【0031】次に、会話の相手方あるいはユーザが、マ
イク12dに向って音声を発すると、マイクに入力され
た音声は、アナログ電気信号に変換され、アナログ−デ
ジタル変換(A/D変換)されて、デジタル信号データ
としてRAM12iなどの記憶装置に記憶される(ステ
ップ21b)。このときは、まだ文字又は単語としては
認識されていない。
Next, when the other party of the conversation or the user makes a voice toward the microphone 12d, the voice input to the microphone is converted into an analog electric signal and subjected to analog-digital conversion (A / D conversion). , Are stored in the storage device such as the RAM 12i as digital signal data (step 21b). At this time, it has not been recognized as a character or a word.

【0032】次に、このデジタル信号データと、音声認
識テーブルに予め格納されている発音データ13bとを
比較しながら、認識候補となる単語を検索抽出する(ス
テップ21c)。ここで、単に、音声認識テーブル15
bを順次検索していくのではなく、辞書の各単語に付与
された高い重要度のものから順に検索して、比較を試み
る。すなわち、まず予め付与された重要度が最も高い重
要度1の単語を比較照合し、デジタル信号データと一致
可能な発音データを抽出し、この発音データに対応して
記憶されている単語を認識結果の候補として、RAMに
一時記憶する(ステップ21d)。
Next, while comparing this digital signal data with the pronunciation data 13b stored in advance in the voice recognition table, words that are recognition candidates are searched and extracted (step 21c). Here, simply, the voice recognition table 15
Instead of sequentially searching b, the search is performed in order from the most important word assigned to each word in the dictionary, and the comparison is attempted. That is, first, a word of importance 1 having the highest importance assigned in advance is compared and collated, and pronunciation data that can be matched with digital signal data is extracted, and words stored in correspondence with this pronunciation data are recognized as recognition results. It is temporarily stored in the RAM as a candidate for (step 21d).

【0033】このとき、候補は1つの場合もあれば、2
つ以上抽出される場合もある。たとえば、「she」、「s
ee」、「sea」という3つの単語がすべて重要度1に設
定されているとすれば、「シー」という音声入力に対し
て、この3つの単語すべてが候補として抽出される可能
性がある。ただし、「she」が重要度1であり、「se
e」、「sea」が重要度2に設定されていたとすると、
「she」のみが認識候補として抽出される。但し、その
後のステップ21iの文法テーブルを参照し、文章を調
整する処理において、それぞれの単語の品詞、意味の違
いが認識され、その語の発音された文中の位置より適す
る文法、意味のものが選択される。この時先に表示した
重要度1の単語が適さないものであれば、即座に重要度
2へ候補の中から選択され、変更される。
At this time, the number of candidates may be one or two.
More than one may be extracted. For example, "she", "s
If all three words “ee” and “sea” are set to the importance level 1, all three words may be extracted as candidates for the voice input “sea”. However, "she" has a priority of 1 and "se"
If "e" and "sea" are set to importance level 2,
Only "she" is extracted as a recognition candidate. However, in the process of adjusting the sentence by referring to the grammar table in the subsequent step 21i, the difference in the part of speech and meaning of each word is recognized, and the grammar and the meaning that are more suitable than the position in the pronounced sentence of the word are found. To be selected. At this time, if the previously displayed word of importance level 1 is not suitable, it is immediately selected from the candidates and changed to importance level 2.

【0034】さらに、ステップ21eにおいて、CPU
は、文法テーブル15dを用いて、語順等を考慮しなが
ら、抽出された単語候補の中から文法に適合する単語を
決定する。これにより、入力された音声データを、重要
度を考慮した単語単位に分割して、文法に適合した単語
が抽出されたことになる。
Further, in step 21e, the CPU
Uses the grammar table 15d to determine words that match the grammar from the extracted word candidates while considering the word order and the like. As a result, the input voice data is divided into words in consideration of importance, and words that match the grammar are extracted.

【0035】次に、ステップ21fにおいて、決定され
た単語を文法に対応させて並べかえ、RAMに一時保管
する。たとえば、入力された「what time is it now」
のうち、「what」、「time」、「now」が重要度1の単
語として設定されていたとすると、この3つの単語がま
ず抽出され、語順などの文法テーブルが参照されて、
「what」、「time」、「now」の順序で、RAMに格納
される。
Next, in step 21f, the determined words are rearranged according to the grammar and temporarily stored in the RAM. For example, the entered "what time is it now"
If "what", "time", and "now" are set as the words of importance level 1, these three words are extracted first, and the grammar table such as word order is referred to.
The data is stored in the RAM in the order of "what", "time", and "now".

【0036】次に、このように並べられた単語をその順
に表示部12aに表示する(ステップ21g)。たとえ
ば、上記した例では、3つの英単語「what」、「tim
e」、「now」が表示される。ここでは、図6(a)のう
ち、上部の英単語のみが表示されることになるが、日本
人であるユーザは、正確に聞き取れなくてもこの英単語
を見ることにより、相手がどんな単語を話したのかを迅
速に予想あるいは理解することができる。
Next, the words thus arranged are displayed in that order on the display unit 12a (step 21g). For example, in the above example, the three English words "what" and "tim
e ”and“ now ”are displayed. Here, in FIG. 6 (a), only the upper English word is displayed, but a user who is a Japanese person can see what the other word is by seeing this English word even if he / she cannot hear it correctly. You can quickly predict or understand what you said.

【0037】また、発声したすべての単語が表示された
わけではないが、予め設定された重要度の最も高い単語
が表示されているので、認識処理の途中の段階で他の単
語がわからなくても、相手の発声内容全体を迅速に類推
または理解することができる場合もある。
Although not all the uttered words are displayed, the word of the highest importance set in advance is displayed. Therefore, even if the other words are not known in the middle of the recognition process. , In some cases, you can quickly analogize or understand the entire utterance content of the other party.

【0038】次に、ステップ21kにおいて、英和辞書
を参照し、決定された英単語の日本語訳を検索し、ステ
ップ21gで表示した英単語の下にその単語の日本語訳
を表示する。ここで、いわゆる音声認識された重要度1
の英単語について、その単語ごとの日本語への翻訳がさ
れたことになる。たとえば、「what」について「何」、
「time」について「時間」、「now」について「今」と
いう日本語訳が検索されたとすると、図6(a)のよう
に、上段の各英単語の下に、それぞれ日本語訳が表示さ
れる。
Next, in step 21k, the English-Japanese dictionary is referred to, the Japanese translation of the determined English word is searched, and the Japanese translation of that word is displayed below the English word displayed in step 21g. Here, so-called voice-recognized importance 1
For each English word, it means that each word has been translated into Japanese. For example, "what" for "what",
If the Japanese translations "time" for "time" and "now" for "now" are searched, the Japanese translations are displayed below each English word in the upper row, as shown in Fig. 6 (a). It

【0039】この図6(a)の状態では、重要度1の単
語の音声認識、翻訳及び表示が終了しただけで、入力さ
れたすべての音声の認識処理及び翻訳処理はまだ終了し
ていない。しかし、このような処理途中であっても、日
本人であるユーザが重要度の最も高いと考えられる英単
語と日本語訳を見るだけで、相手の外国人が何を話した
のかを容易かつ迅速に理解することができる場合もあ
る。図6(a)の表示では、文章としては不完全であり
意味はわからないが、実際の会話中においては、「what
time now」および「何、時間、今」という意味不明の
文章を見ただけでも、相手が何を言いたいのか、この例
の会話では、「現在の時間を知りたいのではないか」と
いうことを、経験的にユーザが類推できる場合もある。
In the state of FIG. 6 (a), only the speech recognition, translation and display of the word of importance 1 have been completed, but the recognition processing and translation processing of all input speech have not been completed yet. However, even during such processing, it is easy for the Japanese user to easily understand what the foreigner said by just looking at the English words and Japanese translations that are considered to be the most important. In some cases it can be understood quickly. In the display of FIG. 6 (a), the sentence is incomplete and its meaning is unknown, but during the actual conversation, "what
Just looking at the meaningless text "time now" and "what, time, now" means what the other person wants to say. In this example conversation, "I want to know the current time." In some cases, the user can empirically infer.

【0040】したがって、ユーザは、不完全ながらも発
声された音声のうち一部分の単語及び訳語を見ただけ
で、迅速に次の対応(たとえば、質問に対する返事)を
とることができ、会話をスムーズにすることができる。
すなわちスムーズな会話を補助することができる。
Therefore, the user can promptly take the next response (for example, reply to a question) only by seeing a part of the word and the translated word in the uttered voice although it is incomplete, and the conversation is smooth. Can be
That is, a smooth conversation can be assisted.

【0041】一方、入力された音声をすべて認識し、さ
らに、認識されたすべての単語について翻訳し、文法ル
ールにのっとって理解できる翻訳文全体を作成した後に
初めて、入力音声すべてに対応する文章を表示した場
合、この表示は、図6(a)に示した表示よりも相当の
時間が経過した後になされることになり、結果表示の迅
速性に欠ける。表示された文章が正確な翻訳文であれ
ば、見たあとすぐに正しい対応をとることが可能である
が、表示された翻訳結果の文章が理解しにくい不完全な
文章の場合もあり、ユーザは表示された不完全な文をた
よりに相手の話した内容を類推しなければならず、迅速
に次の対応をとることができない。
On the other hand, after recognizing all the input voices and further translating all the recognized words and creating an entire translated sentence that can be understood according to the grammatical rules, sentences corresponding to all the input voices are not formed. In the case of display, this display is made after a considerable amount of time has elapsed than the display shown in FIG. 6A, and the result display is lacking in speediness. If the displayed sentence is an accurate translated sentence, it is possible to take corrective action immediately after seeing it, but the displayed translation result sentence may be an incomplete sentence that is difficult to understand, Has to guess what the other person said by looking at the displayed incomplete sentence, and cannot take the next action promptly.

【0042】現実には、音声の入力状態、音声認識の精
度、機械翻訳の能力、処理途中で表示される一部の単語
を見て会話の内容を類推するユーザの理解力などの様々
な要因により、常に、図16(a)のような表示を見た
段階で会話をスムーズにできるとは限らないが、すべて
の検索、認識、翻訳処理が終了した後に表示される翻訳
文でも理解できない文章もあるので、この発明のよう
に、処理途中の表示によって迅速にスムーズな会話を補
助することができるという点は、実際の会話場面におい
て非常に有効である。
In reality, various factors such as the input state of voice, the accuracy of voice recognition, the ability of machine translation, the user's comprehension to infer the content of conversation by looking at some words displayed during the process, etc. Therefore, it is not always possible to make the conversation smooth at the stage of seeing the display as shown in FIG. 16 (a), but the translated texts displayed after all the search, recognition and translation processes are not understood. Therefore, as in the present invention, it is very effective in an actual conversation scene that a smooth conversation can be quickly assisted by displaying during processing.

【0043】このように、ステップ21kで処理途中で
一部の単語を表示した後、次に、ステップ21hにおい
て、入力された音声すべてについての文章が完成してい
るか否か判断する。すべての音声について認識,翻訳処
理が終了していれば、処理を終了する。文章が完成して
いない場合、たとえば図6(a)のように、重要度1の
単語のみの処理が終了している場合は、ステップ21i
へ進む。
As described above, after displaying some of the words in the process of processing in step 21k, next, in step 21h, it is determined whether or not the sentences for all the inputted voices are completed. If the recognition and translation processing has been completed for all voices, the processing ends. If the sentence is not completed, for example, as shown in FIG. 6A, only the words of importance 1 have been processed, step 21i.
Go to.

【0044】ステップ21iにおいて、文法テーブルを
参照して、文章を調整する。具体的には、たとえば、重
要度1の単語「what, time, now」だけが表示された状
態では、基本五文型(S+V,S+V+C,S+V+
O,S+V+O+C,S+V+O+O)に対して不足す
る単語を補充することにより調整する。次に、ステップ
21jにおいて、ステップ21cで選択された単語候補
のうち、まだ処理をしていない単語で、次に重要度の高
い単語を選択する。
In step 21i, the sentence is adjusted by referring to the grammar table. Specifically, for example, when only the word “what, time, now” of importance 1 is displayed, the basic five sentence patterns (S + V, S + V + C, S + V +
(O, S + V + O + C, S + V + O + O) are adjusted by supplementing the missing words. Next, in step 21j, of the word candidates selected in step 21c, the word that has not been processed yet and has the next highest importance is selected.

【0045】たとえば、重要度1の単語の表示処理が行
われた後では、重要度2の単語を選択する。そして、こ
の重要度2の単語について前記したステップ21dから
21kの処理を実行する。すなわち、重要度2の単語の
選択,並べかえ,RAMへの記憶,単語の表示,その単
語の日本語訳の表示を行う。
For example, after the display processing of the word of importance 1 is performed, the word of importance 2 is selected. Then, the processing of steps 21d to 21k described above is executed for the word of importance 2. That is, words of importance 2 are selected, rearranged, stored in RAM, displayed, and translated into Japanese.

【0046】重要度2の単語について、以上の処理が終
了したときに、まだ文章が完成していない場合(ステッ
プ21h)、次の高い重要度の単語について、ステップ
21i,21jおよび21dから21kまでの処理を実
行する。すなわち、ステップ21cで選択されたすべて
の単語候補について、重要度の順に検索,認識,翻訳,
表示等の処理を行い、すべての単語候補について処理が
終了し文章が完成するまで繰り返す。
When the above process is completed for the word of importance 2 and the sentence is not completed yet (step 21h), steps 21i, 21j and 21d to 21k are executed for the next word of high importance. The process of is executed. That is, for all word candidates selected in step 21c, search, recognition, translation,
Processing such as display is performed, and the processing is repeated for all word candidates until the sentence is completed.

【0047】すべての単語候補の処理が完了した場合、
図16(a)に示すように、英単語の表示とともに、各
英単語の下にその日本語訳を表示するだけでもよい。こ
の場合、日本語訳を順に見ても、日本文としては意味内
容が不明な文となっているが、文としては意味が不明で
も、各単語の訳を見るだけでも相手が何を言ったのかが
理解できる場合もある。このように単語ごとの日本語訳
を表示するのにかかる時間は比較的短時間ですむが、完
全な意味の通る訳文を表示するためにはさらに相当の時
間がかかるので、単語ごとの日本語訳の表示を順次行う
ことは、迅速な次の対応(たとえば返事)をすることが
可能となる点で有効である。
When all word candidates have been processed,
As shown in FIG. 16A, the English translation may be displayed and the Japanese translation may be displayed below each English word. In this case, even if you look at the Japanese translations in order, it is a sentence whose meaning content is unknown as a Japanese sentence, but even if the meaning is unknown as a sentence, just by looking at the translation of each word, the other party said what Sometimes you can understand. It takes a relatively short time to display the Japanese translation for each word in this way, but it takes a considerable amount of time to display a translated sentence that passes the full meaning. Sequentially displaying the translations is effective in that the next response (for example, reply) can be promptly made.

【0048】前記した「what time is it now」の例で
は、「is」,「it」に重要度2が付与されていたとする
と、この「is」,「it」について日本語訳が選択され
る。このとき、単に「is」に対して「です」,「it」に
対して「それ」という日本語訳が選択されその英単語の
下に表示される。
In the above-mentioned example of "what time is it now", if "is" and "it" are assigned the importance level 2, the Japanese translation is selected for "is" and "it". . At this time, the Japanese translations of "is" for "is" and "it" for "it" are selected and displayed below the English word.

【0049】ただし、ステップ21eにおいて文法テー
ブルを参照して単語を選択するときに、すでに翻訳され
ている重要度1の単語も考慮して、その語順から入力さ
れた音声が疑問文であると判断し、「is」,「it」それ
ぞれの訳語をあてはめるのではなく、その文全体として
意味のわかる日本語訳を生成するようにしてもよい。す
なわち、「is」,「it」の処理が終了した段階、あるい
は、すべての入力単語の処理が終了した段階で、処理に
少々時間がかかるが、文として意味のわかる日本語を生
成し、表示するようにしてもよい。たとえば、図6
(b)に示すように、「今、何時ですか?」という日本
語訳を表示する。
However, when selecting a word by referring to the grammar table in step 21e, it is determined that the voice input from the word order is a question sentence, considering a word of importance 1 that has already been translated. However, instead of applying the translated words of “is” and “it”, a Japanese translation in which the meaning is understood may be generated for the entire sentence. That is, when the processing of "is" and "it" is completed, or when the processing of all input words is completed, it takes a little time to process, but Japanese that is meaningful as a sentence is generated and displayed. You may do it. For example, in FIG.
As shown in (b), the Japanese translation "What time is it now?" Is displayed.

【0050】以上のようにして入力された音声に対する
英単語及びその日本語訳が表示されるが、音声認識され
た単語候補を、予め設定された重要度別に分類して翻訳
するので、まず重要度の高い単語のみが迅速に表示さ
れ、翻訳途中の段階でも会話内容を類推することが可能
であり、相手の話した内容の理解と会話時における次の
対応(返事)を迅速に行うことが可能となる。
The English words and their Japanese translations corresponding to the voices input as described above are displayed. First, since the voice-recognized word candidates are classified and translated according to preset importance levels, they are first important. Only the words with high frequency are displayed quickly, and it is possible to infer the content of the conversation even in the middle of translation, and it is possible to quickly understand the content of the other party and take the next response (reply) during the conversation. It will be possible.

【0051】また、音声認識及び翻訳処理は、単語ごと
に予め設定された重要度の順に行われるので、RAMに
記憶された辞書の中の認識対象がしぼられ、高速処理が
可能である。また、予め設定された重要度の高い単語が
優先して翻訳されて表示されるので、ユーザは入力され
た音声の語順に翻訳し表示するよりも早い段階で、会話
内容を類推し、理解することができる。ここで、単語に
設定しておく重要度の付与基準は特に一律に決定される
ものではなく、適宜変更できるようにしてもよい。また
重要度は、単語ごとの日常会話での使用頻度,品詞,文
中の位置,アクセント(発音の抑揚)などの情報を基準
として設定すればよい。
Further, since the voice recognition and translation processing is performed in order of importance set for each word, the recognition target in the dictionary stored in the RAM is narrowed down, and high speed processing is possible. Moreover, since the preset highly important words are preferentially translated and displayed, the user can infer and understand the conversation content at an earlier stage than translating and displaying the input speech in the word order. be able to. Here, the criterion for assigning the degree of importance set for a word is not particularly determined uniformly, but may be changed appropriately. The importance may be set on the basis of information such as the frequency of use in everyday conversation for each word, the part of speech, the position in the sentence, and the accent (inflection of pronunciation).

【0052】たとえば、対話では、「質問」と「それに
対する回答」というパターンが多いと考えられるので、
会話文の類推,理解を早めるためには、疑問詞,代名
詞,普通名詞には高い重要度を設定し、冠詞や副詞など
は重要度を低く設定することが考えられる。また、時間
や場所を特定する単語、中学校程度で習う比較的容易で
使用頻度の高い単語も高い重要度を設定した方が好まし
いと思われる。
For example, in a dialogue, there are many patterns of "question" and "answer to it".
In order to speed up the analogy and understanding of conversational sentences, it is conceivable to set high importance for question words, pronouns, and common nouns, and set low importance for articles and adverbs. In addition, it is preferable to set a high degree of importance to words that specify time and place, and words that are relatively easy to use and are frequently used in junior high school.

【0053】また、この予め設定された重要度を書きか
えるようにするためには、フラッシュメモリやEPRO
Mなどのような書き換え可能かつ不揮発性のメモリに記
憶しておく必要がある。重要度の書き換えは、キー入力
等を利用してユーザが独自の判断で書きかえられるよう
にしてもよいが、誤操作防止等の観点から、単語の使用
頻度等を考慮して自動的に変更することができるように
することが好ましい。さらに、使用頻度の他、文法,前
後の単語,発音の抑揚,文中の位置などを考慮して、い
わゆる学習機能を備えて、重要度をダイナミックに変更
できるようにしてもよい。
Further, in order to rewrite the degree of importance set in advance, a flash memory or an EPRO is used.
It must be stored in a rewritable and non-volatile memory such as M. The importance level may be rewritten by the user's own judgment using key input, etc., but it is automatically changed in consideration of the frequency of use of words from the viewpoint of preventing erroneous operations. It is preferable to be able to. In addition to the frequency of use, a so-called learning function may be provided in consideration of grammar, words before and after, intonation of pronunciation, position in a sentence, etc., so that the importance can be dynamically changed.

【0054】<第2実施例>以上の実施例では、会話相手
の音声を入力して、翻訳文等を表示させる例を示した
が、会話相手が質問してきたような場合、その音声認識
の結果生成した文が質問形式であることを判断して、質
問に対する答えの候補を表示させるようにしてもよい。
以下、この答えの候補を表示させる実施例について説明
する。この発明の電子翻訳装置に、図1に示すような
「答え」キー11kを設ける。ユーザがこの「答え」キ
ー11kを押すことにより、答え表示の機能が起動され
る。
<Second Embodiment> In the above embodiments, the voice of the conversation partner is input and the translated sentence is displayed. However, when the conversation partner asks a question, the voice recognition is performed. It is also possible to judge that the sentence generated as a result is in the question form and display the candidates for the answer to the question.
Hereinafter, an example of displaying the answer candidates will be described. The electronic translation device of the present invention is provided with an "answer" key 11k as shown in FIG. When the user presses this "answer" key 11k, the answer display function is activated.

【0055】図8,図9及び図10に、この発明の表示
内容の一実施例の説明図を示す。たとえば、「what tim
e is it now」という会話相手の音声が入力されたと
き、図8(a)に示すような認識結果と翻訳文が表示さ
れたとする。この表示状態のときに、ユーザが「答え」
キー11kを入力すると、図8(b)に示すような答え
の文を表示させる。ユーザは、この表示を見て正しいと
判断すれば、表示された英文を自分で発声するか、ある
いは、この表示を会話相手に見せればよい。図8(b)
のように表示された文が正しければ、ユーザは、単に
「答え」キー11kを1回押すだけで容易かつ迅速に会
話相手に返事することができる。
FIG. 8, FIG. 9 and FIG. 10 are explanatory views of an embodiment of the display contents of the present invention. For example, "what tim
It is assumed that when the voice of the conversation partner "e is it now" is input, the recognition result and the translated text as shown in FIG. 8A are displayed. In this display state, the user "answers"
When the key 11k is pressed, the answer sentence as shown in FIG. 8B is displayed. If the user sees this display and determines that it is correct, he or she may speak the displayed English sentence by himself or show this display to the conversation partner. Figure 8 (b)
If the sentence displayed as is correct, the user can reply to the conversation partner easily and quickly by simply pressing the "answer" key 11k once.

【0056】図9,図10についても同様であるが、図
10の場合、図10(a)の質問に対して複数の答えを
表示したものを示している。答えとして複数の候補が考
えられる場合は、そのすべてを表示させて、ユーザの判
断で選択できるようにしたものである。ところで、答え
の候補となる文は、ROM中に答え対応テーブル15e
として予め記憶しておくことが好ましい。ただし、RA
Mなどの書き換え可能なメモリの中に、ユーザが独自に
定義入力した答えの文を記憶するようにしてもよい。
The same applies to FIGS. 9 and 10, but in the case of FIG. 10, a plurality of answers are displayed for the question of FIG. 10 (a). When a plurality of candidates are considered as answers, all of them are displayed so that they can be selected by the user's judgment. By the way, the sentences that are candidates for answers are stored in the answer correspondence table 15e in the ROM.
Is preferably stored in advance. However, RA
An answer sentence originally defined and input by the user may be stored in a rewritable memory such as M.

【0057】図11に、答え対応テーブル15eの一実
施例の説明図を示す。たとえば、答え対応テーブルは、
質問文の中に出てくると思われるキーワードと、この質
問に対応する答えの文あるいは答えの中心となるキーワ
ードとを対応して記憶したものである。ただし、一意的
に決められない答え、たとえば時刻などの答えについて
は「10:00AM」と記憶していても、このまま答え
を表示するのではなく、内蔵時計の現在時刻を反映させ
るようにすることが好ましい。図11の「how+get t
o」という単語を含む質問に対しては、2つの答えが予
め用意されており、この答えを用いることにより、図1
0(b)に示すような2つの答えの文を表示することが
できる。
FIG. 11 shows an explanatory diagram of an embodiment of the answer correspondence table 15e. For example, the answer correspondence table is
The keywords that are likely to appear in the question sentence and the keyword that is the center of the answer sentence or the answer corresponding to this question are stored in association with each other. However, even if the answer that cannot be uniquely determined, such as the time, is stored as "10:00 AM", instead of displaying the answer as it is, the current time of the built-in clock should be reflected. Is preferred. In Figure 11, "how + get t
For the question containing the word "o", two answers are prepared in advance.
Two answer sentences can be displayed as shown in 0 (b).

【0058】図12に、この答えを表示する処理の一実
施例の動作フローチャートを示す。この処理は、図6
(b)のような認識結果が表示されている状態で、「答
え」キー11kが押されたときに開始される。まず、表
示された認識結果の英文を、単語に分割する(ステップ
33a)。次に、分割された単語及び英文の中から、キ
ーとなる単語または熟語をピックアップする(ステップ
33b)。このとき、キーとなる単語/熟語は、上述に
説明した重要度データを利用することによりピックアッ
プすることができる。
FIG. 12 shows an operation flowchart of an embodiment of the processing for displaying this answer. This process is shown in FIG.
This is started when the "answer" key 11k is pressed in the state where the recognition result as shown in (b) is displayed. First, the displayed English sentence of the recognition result is divided into words (step 33a). Next, a key word or a phrase is picked up from the divided words and English sentences (step 33b). At this time, the key word / idiom can be picked up by using the importance data described above.

【0059】次に、ピックアップされた単語等と、答え
対応テーブル15eの「質問」中の単語とが一致するか
否かチェックし、このテーブル15eの中の一致した
「質問」に対応する「答え」を検索抽出する(ステップ
33c)。そして、文法テーブルを参照し、この「答
え」の中の単語を文法的に正しくなるように並べかえ、
あるいは、文法的に意味の通る文となるように必要な単
語を補って、答えの文を作成する(ステップ33d)。
最後に、作成された答えの文を表示する(ステップ33
e)。ユーザは、この表示を見て、正しければ返事を発
声するか又は表示を相手に見せればよい。以上のよう
に、「答え」の文を表示できるようにすれば、会話場面
でのより適切かつ迅速な対応が可能となる。
Next, it is checked whether or not the picked-up words and the like and the words in the "question" of the answer correspondence table 15e match, and the "answer" corresponding to the matched "question" in the table 15e. Is retrieved and extracted (step 33c). Then, referring to the grammar table, rearrange the words in this "answer" so that they are grammatically correct,
Alternatively, an answer sentence is created by supplementing the necessary words so that the sentence becomes grammatically meaningful (step 33d).
Finally, the prepared answer sentence is displayed (step 33).
e). The user may look at this display and, if correct, say a reply or show the display to the other party. As described above, if the "answer" sentence can be displayed, it is possible to respond more appropriately and quickly in a conversation scene.

【0060】<第3実施例>次に、表示されている英文を
別のものに変更したい場合の実施例について説明する。
たとえば、表示されている英文と類似の意味を持つ別の
表現の英文を表示したい場合や、他の答えの文を検索し
たい場合があり、このような時に、次の機能を利用す
る。ここで、次のような機能キーを設ける。
<Third Embodiment> Next, an embodiment for changing the displayed English sentence to another one will be described.
For example, you may want to display an English sentence of another expression that has a similar meaning to the displayed English sentence, or you may want to search for the sentence of another answer. In such a case, use the following function. Here, the following function keys are provided.

【0061】まず、図11に示すように、「サブ」キー
11iを設ける。この「サブ」キー11iは、辞書を複
数個有している場合に、使用する辞書を切りかえるため
のキーである。「サブ」キー11iを押すごとに、メイ
ンとして使用する辞書とサブとして使用する辞書とを切
りかえる。また、「切替」キー11lを設け、メイン辞
書を用いている場合のメイン表示と、サブ辞書を用いて
いるときのサブ表示を切替える。「戻る」キー11j
は、サブ表示の内容を消去し、メイン辞書及びメイン表
示に戻る場合に用いる。「検索」キー11gは、新たに
メイン辞書を用いた単語検索等の処理に入るときに用い
る。
First, as shown in FIG. 11, a "sub" key 11i is provided. The "sub" key 11i is a key for switching the dictionary to be used when the dictionary is provided in plural. Each time the "sub" key 11i is pressed, the dictionary used as the main and the dictionary used as the sub are switched. Further, a "switch" key 11l is provided to switch between the main display when the main dictionary is used and the sub display when the sub dictionary is used. "Return" key 11j
Is used to erase the contents of the sub-display and return to the main dictionary and the main display. The "search" key 11g is used when a process such as word search using the main dictionary is newly performed.

【0062】たとえば、図8(a)のような表示がされ
ている状態で、「サブ」キー11jを押すと、図8
(a)の表示内容をRAMに記憶したままで、表示を図
13に示すようなものに切り替える。すなわち、サブ辞
書である英和辞書を用いた検索処理ができるように、検
索のためのサブ画面表示をする。
For example, when the "sub" key 11j is pressed while the display as shown in FIG.
While the display content of (a) is stored in the RAM, the display is switched to that shown in FIG. That is, the sub screen for the search is displayed so that the search process using the English-Japanese dictionary which is the sub dictionary can be performed.

【0063】図13のサブ画面が表示された状態で、た
とえば、「time」などの英単語/熟語を入力することに
より、これに対する日本語訳の検索をすることができ
る。さらに、このサブ画面による検索中に、「切替」キ
ー11lを押すことによりメイン画面に戻ることがで
き、再度「切替」キー11lを押すことによりサブ画面
に切替えることができる。また、図10(a)のような
「質問」を表示した状態で、「答え」キーを押す前に、
「サブ」キーを押すことにより、「答え」の検索、サブ
画面上での表示をするようにしてもよい。
By inputting an English word / idiom such as "time" in the state where the sub-screen of FIG. 13 is displayed, the Japanese translation can be searched for. Further, during the search by this sub screen, the "switch" key 11l can be pressed to return to the main screen, and the "switch" key 11l can be pressed again to switch to the sub screen. Also, before pressing the "answer" key while displaying the "question" as shown in FIG.
By pressing the "sub" key, the "answer" may be searched and displayed on the sub screen.

【0064】また、「切替」キー11lは、メイン画面
及びサブ画面の状態をそれぞれ保持したまま、表示画面
を切り替えるだけであるが、サブ画面を表示した状態で
「戻る」キー11jを押せば、サブ画面の情報をすべて
消去し、メイン画面のみを残すようにしてもよい。
Further, the "switch" key 11l only switches the display screen while holding the states of the main screen and the sub screen respectively, but if the "return" key 11j is pressed while the sub screen is displayed, All the information on the sub screen may be erased, leaving only the main screen.

【0065】また、サブ画面を表示させた状態で「サ
ブ」キー11iを押した場合には、逆にメイン画面の情
報を消去し、サブ画面の情報をメイン画面の情報として
一時保管して検索を継続するようにしてもよい。このと
き、さらに「サブ」キー11iを押せば、新たなサブ画
面を表示して新たな検索をすることができる。さらに、
メイン画面,サブ画面のどちらかが表示されている状態
で、「検索」キー11gが押された場合は、両画面の情
報とも消去し、メイン画面により新たな検索を行うよう
にしてもよい。
When the "sub" key 11i is pressed with the sub screen displayed, the information on the main screen is erased, and the information on the sub screen is temporarily stored as the information on the main screen for retrieval. May be continued. At this time, if the "sub" key 11i is further pressed, a new sub screen is displayed and a new search can be performed. further,
When the "search" key 11g is pressed while either the main screen or the sub screen is displayed, the information on both screens may be erased and a new search may be performed on the main screen.

【0066】<第4実施例>次に、例文検索において、反
対の意味を持つ文を生成する機能の実施例について説明
する。ここで、図1に示した「ジャンプ」キー11p
と、「反対」キー11oを用いる。「ジャンプ」キー1
1pは、画面に表示された例文の中の単語を選択するキ
ーであり、これを押すごとに、順次選択可能な単語にカ
ーソルが表示される。「反対」キー11oは、現在選択
されている単語の反対語を検索して表示するためのキー
である。
<Fourth Embodiment> Next, an embodiment of the function of generating a sentence having the opposite meaning in the example sentence search will be described. Here, the "jump" key 11p shown in FIG.
And the "opposite" key 11o. "Jump" key 1
Reference numeral 1p is a key for selecting a word in the example sentence displayed on the screen, and each time the key is pressed, a cursor is displayed on the sequentially selectable word. The “opposite” key 11o is a key for searching for and displaying an opposite word of the currently selected word.

【0067】図14に、反対語を用いた文の生成の一実
施例の説明図を示す。図14(a)のような例文が表示
されている状態で、「ジャンプ」キー11pを押すと、
辞書の見出し語として登録されている単語が選択され
る。図14(a)は、画面51aの中の例文のうち、単
語「good」51cが選択された状態を示しており、右下
の「反」51dは、この選択された単語は、反対語にジ
ャンプ可能であることを示している。
FIG. 14 is an explanatory diagram of an embodiment of generation of a sentence using an antonym. When the "jump" key 11p is pressed while the example sentence as shown in FIG. 14 (a) is displayed,
A word registered as a dictionary entry word is selected. FIG. 14A shows a state in which the word “good” 51c is selected from the example sentences in the screen 51a, and the “anti” 51d in the lower right corner indicates that the selected word is an opposite word. It shows that it is possible to jump.

【0068】この状態で、「反対」キー11oを押す
と、選択された単語「good」が図14(b)に示すよう
に反対の意味の単語に変化する。ここでは、「good」5
1cが「poor」51eに、「得意」が「苦手」に変化す
る。反対語を検索及び表示するために、図5に示した反
対語辞書15a,対応語リスト15c,文法テーブル1
5dが用いられる。
When the "opposite" key 11o is pressed in this state, the selected word "good" is changed to a word having the opposite meaning as shown in FIG. 14 (b). Here, "good" 5
1c changes to "poor" 51e, and "good at" changes to "weak". In order to search and display the antonyms, the antonym dictionary 15a, the corresponding word list 15c, and the grammar table 1 shown in FIG.
5d is used.

【0069】図15に、この発明の反対語選択処理の動
作フローチャートを示す。前提として、図14(a)に
示すような英語の例文とその日本語訳が表示されている
ものとする。まず、CPUが、ジャンプキー11pが押
されたことを検出すると(ステップ52a)、例文を構
成する単語のうち、ジャンプ可能な単語を1つ選択し、
カーソル表示をする(ステップ52b)。ユーザは、こ
の表示(図14(a))を見て、反対語を検索したい単
語がカーソル表示されていることを確認し、検索したい
ものでない場合は、何度かジャンプキー11pを押すこ
とにより、希望する単語をカーソル表示させる。
FIG. 15 shows an operation flowchart of the opposite word selection process of the present invention. As a premise, it is assumed that an English example sentence and its Japanese translation as shown in FIG. 14A are displayed. First, when the CPU detects that the jump key 11p has been pressed (step 52a), it selects one of the words forming the example sentence and is capable of jumping,
The cursor is displayed (step 52b). The user looks at this display (FIG. 14 (a)), confirms that the word for which the opposite word is to be searched is displayed in the cursor, and if it is not the word to be searched, the user may press the jump key 11p several times. , Move the cursor to the desired word.

【0070】次に、ユーザが反対キー11oを押し、C
PUがこの押したことを検出すると、反対語辞書15a
及び対応語リスト15cを検索して、反対の意味を持つ
対応語を選択する(ステップ52d)。たとえば、対応
語リスト15cに、「good」と「poor」が互いに反対語
として対応づけられて記憶されていたとすると、「poo
r」という単語が選択される。また、「good」に対応づ
けられた単語が、他にもあれば、この時点ではそれらす
べてが選択される。
Next, the user presses the opposite key 11o and presses C
When the PU detects this push, the antonym dictionary 15a
Then, the corresponding word list 15c is searched to select a corresponding word having the opposite meaning (step 52d). For example, if "good" and "poor" are stored in the corresponding word list 15c as opposite words, "poo" is stored.
The word "r" is selected. Also, if there are other words associated with "good", all of them are selected at this point.

【0071】次に、文法テーブル15dを参照して、例
文に合った反対語を選択する(ステップ52e)。「go
od」に対応する語が複数ある場合は、その中で、現在表
示されている例文に反対語として適合可能な単語を選択
する。ここで、たとえば、反対語として適合可能か否か
は、文法テーブル等に示される元の文の意味,ジェンプ
する単語の前後の単語の意味により判断することができ
る。ここで、反対の意味を持つ英単語とともに、その日
本語訳も選択される。次に、ジャンプキー11pで選択
されていた単語を、ステップ52eで選択した反対語に
置換した例文を作成し(ステップ52f)、その例文を
表示する(ステップ52g)。
Next, referring to the grammar table 15d, an antonym suitable for the example sentence is selected (step 52e). "Go
When there are a plurality of words corresponding to "od", a word that is compatible with the currently displayed example sentence as an antonym is selected. Here, for example, whether or not it can be matched as an opposite word can be determined by the meaning of the original sentence shown in the grammar table or the like, and the meanings of the words before and after the word to be jemp. Here, the Japanese translation is selected along with the English word having the opposite meaning. Next, an example sentence is created by replacing the word selected by the jump key 11p with the opposite word selected in step 52e (step 52f), and the example sentence is displayed (step 52g).

【0072】以上のように、2つのキーによる簡単なキ
ー操作をすることにより、現在表示されている例文の中
のある単語について、反対の意味を持つ単語を用いた例
文を容易に検索及び表示させることができる。また、こ
の発明の装置を用いた会話をしている場合でも、この機
能を利用すれば反対の意味の文を容易かつ迅速に相手に
伝えることができる。
As described above, by performing a simple key operation with two keys, it is possible to easily search and display an example sentence using a word having an opposite meaning with respect to a certain word in the example sentence currently displayed. Can be made. Further, even when a conversation is conducted using the device of the present invention, by using this function, a sentence having the opposite meaning can be easily and quickly transmitted to the other party.

【0073】図16に、この発明の反対語の例文を生成
する他の実施例の説明図を示す。図16(a)は、現在
表示されている例文61aであり、ジャンプキー11p
で「often」61bが選択されている状態を示してい
る。図16(b)は、図16(a)の状態で、反対キー
11oを押した後の表示を示している。図16(b)で
は、「often」の反対語としての「never」61jを用い
た例文「I never go...」と、文全体として反対の意味
61iを持つ例文「I have never been to...」とが表
示されている(61h)。
FIG. 16 shows an explanatory view of another embodiment for generating an example sentence of the opposite word of the present invention. FIG. 16A shows the example sentence 61a currently displayed, and the jump key 11p
Indicates that "often" 61b is selected. FIG. 16B shows a display after pressing the opposite key 11o in the state of FIG. In FIG. 16B, an example sentence "I never go ..." using "never" 61j as an antonym of "often" and an example sentence "I have never been to. .. ”is displayed (61h).

【0074】<第5実施例>また、この発明の他の実施例
として、表示された例文の中の、選択された単語を類義
の意味の単語に置換した文を作成するようにしてもよ
い。この場合、前記したジャンプキー11pと、図1に
示す「類義」キー11nを用いる。反対語の検索と同様
に、ジャンプキー11pを用いて、希望する単語を選択
した後、「類義」キー11nを押すことにより、類義語
に変換した例文が表示される。図17に、この発明の類
義語の例文を生成する一実施例の説明図を示す。図17
(a)は、図16(a)に示したのと同じ例文である。
<Fifth Embodiment> As another embodiment of the present invention, a sentence in which the selected word in the displayed example sentence is replaced with a word having a synonymous meaning may be created. Good. In this case, the jump key 11p and the "synonymous" key 11n shown in FIG. 1 are used. Similar to the search for the opposite word, the jump key 11p is used to select a desired word, and then the “synonym” key 11n is pressed to display an example sentence converted into a synonym. FIG. 17 shows an explanatory diagram of an embodiment for generating an example sentence of a synonym of the present invention. FIG. 17
(A) is the same example sentence as shown in FIG. 16 (a).

【0075】図17(b)は、図17(a)の状態で、
「類義」キー11nを押した後の表示状態61eであ
る。ここでは、「often」61bの類義語として、「som
etimes」61fと「rarely」61gの2つが表示されて
いる。また、それぞれの類義語に対応する日本語訳も表
示されている。この場合も、類義語辞書15a,対応語
リスト15c及び文法テーブル15dを用いて、図15
と同様の処理を行えばよい。これによれば、反対語と同
様にして、類義語を用いた文も簡単な操作で表示させる
ことができる。
FIG. 17 (b) shows the state of FIG. 17 (a).
This is the display state 61e after pressing the "synonym" key 11n. Here, as a synonym for "often" 61b, "som
Two of "etimes" 61f and "rarely" 61g are displayed. In addition, Japanese translations corresponding to each synonym are also displayed. Also in this case, by using the synonym dictionary 15a, the corresponding word list 15c, and the grammar table 15d, the synonym dictionary 15a shown in FIG.
The same process as the above may be performed. According to this, a sentence using a synonym can be displayed by a simple operation similarly to the opposite word.

【0076】[0076]

【発明の効果】この発明によれば、単語に予め重要度付
けをして、その重要度に対応させて順次音声認識,翻訳
及び表示処理をしているので、実際の対話場面におい
て、迅速に相手の話した内容を類推または理解し、スム
ーズな会話をすることが可能な電子翻訳装置を提供する
ことができる。
As described above, according to the present invention, importance is assigned to a word in advance, and voice recognition, translation, and display processing are sequentially performed in accordance with the importance, so that it is possible to quickly perform a dialogue in an actual dialogue scene. It is possible to provide an electronic translation device capable of analogizing or understanding the content spoken by the other party and having a smooth conversation.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の電子翻訳装置の一実施例の概略構成
図である。
FIG. 1 is a schematic configuration diagram of an embodiment of an electronic translation device of the present invention.

【図2】この発明の電子翻訳装置の一実施例の構成ブロ
ック図である。
FIG. 2 is a configuration block diagram of an embodiment of an electronic translation apparatus of the present invention.

【図3】この発明の音声認識テーブルの一実施例の説明
図である。
FIG. 3 is an explanatory diagram of an embodiment of a voice recognition table of the present invention.

【図4】この発明の文法テーブルの一実施例の説明図で
ある。
FIG. 4 is an explanatory diagram of an embodiment of a grammar table of the present invention.

【図5】この発明に用いられる各種情報の説明図であ
る。
FIG. 5 is an explanatory diagram of various information used in the present invention.

【図6】この発明の表示部に表示される内容の説明図で
ある。
FIG. 6 is an explanatory diagram of contents displayed on the display unit of the present invention.

【図7】この発明の電子翻訳装置の一実施例の動作フロ
ーチャートである。
FIG. 7 is an operation flowchart of an embodiment of the electronic translation apparatus of the present invention.

【図8】この発明の表示部に表示される内容の説明図で
ある。
FIG. 8 is an explanatory diagram of contents displayed on the display unit of the present invention.

【図9】この発明の表示部に表示される内容の説明図で
ある。
FIG. 9 is an explanatory diagram of contents displayed on the display unit of the present invention.

【図10】この発明の表示部に表示される内容の説明図
である。
FIG. 10 is an explanatory diagram of contents displayed on the display unit of the present invention.

【図11】この発明の答え対応テーブルの一実施例の説
明図である。
FIG. 11 is an explanatory diagram of an embodiment of an answer correspondence table of the present invention.

【図12】この発明の答え表示処理の一実施例の動作フ
ローチャートである。
FIG. 12 is an operation flowchart of an embodiment of the answer display processing of the present invention.

【図13】この発明のサブ画面の表示例の説明図であ
る。
FIG. 13 is an explanatory diagram of a display example of a sub screen according to the present invention.

【図14】この発明の反対語を用いた文の生成の一実施
例の説明図である。
FIG. 14 is an explanatory diagram of an example of generation of a sentence using an antonym of the present invention.

【図15】この発明の反対語選択処理の動作フローチャ
ートである。
FIG. 15 is an operation flowchart of an opposite word selection process of the present invention.

【図16】この発明の反対語の例文を生成する他の実施
例の説明図である。
FIG. 16 is an explanatory diagram of another embodiment for generating an example sentence of the opposite word of the present invention.

【図17】この発明の類義語の例文を生成する一実施例
の説明図である。
FIG. 17 is an explanatory diagram of an example of generating an example sentence of a synonym of the present invention.

【符号の説明】[Explanation of symbols]

11a キャビネット 11b 表示部 11d 英和キー 11e 和英キー 11f 音声認識キー 11g 検索キー 11i サブキー 11j 戻るキー 11k 答えキー 11l 切替キー 11n 類義キー 11o 反対キー 11p ジャンプキー 11s マイク 12a 表示装置(LCD) 12b マイクロコンピュータ 12c 入力装置(キー) 12d 入力装置(マイクロフォン) 12h ROM 12i RAM 13a 品詞データ 13b 発音データ 13c 重要度データ 15a 各種辞書 15b 音声認識テーブル 15c 対応語リスト 15d 文法テーブル 15e 答え対応テーブル 16a 音声認識および翻訳の途中段階の表示例 16b 音声認識および翻訳が完了した段階の表示例 31a,31c,31e 質問文の表示例 31b,31d,31f 答えの文の表示例 51a ジャンプ候補のカーソル表示例 51b 反対語検索後の表示例 51c,51e カーソル 51d 反対語アイコン 61a ジャンプ候補のカーソル表示例 61b,61f,61g,61i,61j カーソル 61c 反対語アイコン 61d 類義語アイコン 61e 類義語検索後の表示例 61h 反対語検索後の表示例 11a cabinet 11b display section 11d English-Japanese key 11e Japanese-English key 11f voice recognition key 11g Search key 11i subkey 11j Return key 11k answer key 11l switch key 11n Synonym key 11o Opposite key 11p jump key 11s microphone 12a display device (LCD) 12b microcomputer 12c Input device (key) 12d input device (microphone) 12h ROM 12i RAM 13a Part of speech data 13b pronunciation data 13c Importance data 15a Various dictionaries 15b voice recognition table 15c Corresponding word list 15d grammar table 15e Answer correspondence table 16a Display example in the middle of voice recognition and translation 16b Display example when voice recognition and translation are completed 31a, 31c, 31e Display example of question text 31b, 31d, 31f Display example of answer sentence 51a Example of cursor display of jump candidate 51b Display example after antonym search 51c, 51e cursor 51d antonym icon 61a Cursor display example of jump candidate 61b, 61f, 61g, 61i, 61j cursors 61c antonym icon 61d Synonyms icon 61e Display example after synonym search 61h Display example after antonym search

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 537C ─────────────────────────────────────────────────── ─── Continued Front Page (51) Int.Cl. 7 Identification Code FI Theme Coat (Reference) G10L 3/00 537C

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音声入力部と、少なくとも単語、発音デ
ータおよび重要度情報とが対応づけて記憶された音声認
識テーブルと、入力された音声の言語についての文法テ
ーブルと、入力された音声をデジタル化して記憶した音
声データ記憶部と、音声データ記憶部に記憶された音声
データに一致可能な前記発音データを検索し、検索され
た発音データに対応する単語候補を選択する検索部と、
選択された単語候補について前記文法テーブルを参照し
て単語を決定する認識部と、決定された単語を表示する
表示部と、前記単語候補の選択処理、単語の決定処理お
よび単語の表示処理を、前記重要度情報のグループごと
に、かつ重要度情報の高い順に順次行わせ、入力された
音声について入力された音声の言語による文を重要度ご
とに段階的に表示部に表示させる制御部とを備えたこと
を特徴とする電子翻訳装置。
1. A voice input section, a voice recognition table in which at least words, pronunciation data, and importance information are stored in association with each other, a grammar table for the language of the input voice, and the input voice is digitalized. A voice data storage unit that has been stored in a converted form, a search unit that searches the pronunciation data that can match the voice data stored in the voice data storage unit, and selects a word candidate corresponding to the searched pronunciation data;
A recognition unit that determines a word by referring to the grammar table for the selected word candidate, a display unit that displays the determined word, a selection process of the word candidate, a word determination process, and a word display process, A control unit that causes the groups of the importance information to be sequentially performed in descending order of importance information, and that causes the sentence in the language of the input voice to be displayed on the display unit step by step according to the importance. An electronic translation device characterized by being provided.
【請求項2】 翻訳辞書と、前記認識部が決定した単語
を、所定の他の言語に翻訳する翻訳部とをさらに備え、
前記制御部が、前記重要度情報のグループごとに、かつ
重要度情報の高い順に、前記認識部が決定した単語に対
して前記翻訳部に翻訳処理を行わせることを特徴とする
請求項1の電子翻訳装置。
2. A translation dictionary and a translation unit that translates the word determined by the recognition unit into a predetermined other language,
The control unit causes the translation unit to perform a translation process on a word determined by the recognition unit for each group of the importance information and in descending order of importance information. Electronic translation device.
【請求項3】 前記音声認識テーブルが、書き換え可能
なメモリに記憶され、前記音声認識テーブルの単語の検
索または認識に使用された使用頻度情報を単語ごとに前
記メモリに記憶して、前記制御部が、前記使用頻度情報
に基づいて前記重要度情報を変更することを特徴とする
請求項1または2の電子翻訳装置。
3. The voice recognition table is stored in a rewritable memory, and usage frequency information used for searching or recognizing a word in the voice recognition table is stored in the memory for each word, and the control unit. The electronic translation device according to claim 1 or 2, wherein the importance level information is changed based on the usage frequency information.
JP2002015853A 2002-01-24 2002-01-24 Electronic translating apparatus Pending JP2003216607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002015853A JP2003216607A (en) 2002-01-24 2002-01-24 Electronic translating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002015853A JP2003216607A (en) 2002-01-24 2002-01-24 Electronic translating apparatus

Publications (1)

Publication Number Publication Date
JP2003216607A true JP2003216607A (en) 2003-07-31

Family

ID=27652101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002015853A Pending JP2003216607A (en) 2002-01-24 2002-01-24 Electronic translating apparatus

Country Status (1)

Country Link
JP (1) JP2003216607A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265307A (en) * 2008-04-24 2009-11-12 Toyota Motor Corp Speech recognition device and vehicle system using the same
WO2011033834A1 (en) * 2009-09-18 2011-03-24 日本電気株式会社 Speech translation system, speech translation method, and recording medium
JP2013152594A (en) * 2012-01-25 2013-08-08 Casio Comput Co Ltd Electronic dictionary device and program
JP2019533181A (en) * 2016-08-02 2019-11-14 ハイパーコネクト インコーポレイテッド Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265307A (en) * 2008-04-24 2009-11-12 Toyota Motor Corp Speech recognition device and vehicle system using the same
WO2011033834A1 (en) * 2009-09-18 2011-03-24 日本電気株式会社 Speech translation system, speech translation method, and recording medium
JP2013152594A (en) * 2012-01-25 2013-08-08 Casio Comput Co Ltd Electronic dictionary device and program
JP2019533181A (en) * 2016-08-02 2019-11-14 ハイパーコネクト インコーポレイテッド Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE)

Similar Documents

Publication Publication Date Title
US7047195B2 (en) Speech translation device and computer readable medium
US5787230A (en) System and method of intelligent Mandarin speech input for Chinese computers
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
JP3962763B2 (en) Dialogue support device
US8311829B2 (en) Multimodal disambiguation of speech recognition
JP2848458B2 (en) Language translation system
TWI266280B (en) Multimodal disambiguation of speech recognition
US20080133245A1 (en) Methods for speech-to-speech translation
JP2011254553A (en) Japanese language input mechanism for small keypad
TW200538969A (en) Handwriting and voice input with automatic correction
JP2007041319A (en) Speech recognition device and speech recognition method
BRPI0613699A2 (en) mobile dictionary search that uses handwriting recognition
JP2010198241A (en) Chinese input device and program
US20080172226A1 (en) Voice output device and voice output program
JP2003216607A (en) Electronic translating apparatus
KR20170041642A (en) Foreign language learning device
JP6746886B2 (en) Learning support device and program for the learning support device
JP3762300B2 (en) Text input processing apparatus and method, and program
JP2004295578A (en) Translation device
JPH07191687A (en) Natural language processor and its method
JP2004170466A (en) Voice recognition method and electronic device
JP2003345794A (en) Electronic translating device
JPH1011457A (en) Portable retrieval device
JPH09288494A (en) Voice recognition device and voice recognizing method
JP2022148873A (en) Information retrieval device, information retrieval method, and program