JPH11120176A - Interpreting device, method and medium storing interpreting device control program - Google Patents

Interpreting device, method and medium storing interpreting device control program

Info

Publication number
JPH11120176A
JPH11120176A JP9287077A JP28707797A JPH11120176A JP H11120176 A JPH11120176 A JP H11120176A JP 9287077 A JP9287077 A JP 9287077A JP 28707797 A JP28707797 A JP 28707797A JP H11120176 A JPH11120176 A JP H11120176A
Authority
JP
Japan
Prior art keywords
sentence
utterance
unit
input
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9287077A
Other languages
Japanese (ja)
Other versions
JP3411198B2 (en
Inventor
Hiroshi Tanano
裕氏 棚野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP28707797A priority Critical patent/JP3411198B2/en
Publication of JPH11120176A publication Critical patent/JPH11120176A/en
Application granted granted Critical
Publication of JP3411198B2 publication Critical patent/JP3411198B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To an interpreting device which accurately communicates speech of a speaker to the opposite conversation party who speaks in a different language, translates speech of the opposite conversation party into an own language and communicates it to the speaker. SOLUTION: This translating device is provided with a displaying part 2 that has a screen, an inputting part 3 which inputs speech in an own language of a speaker to the opposite conversation party who speaks in a different language, a parallel translation example retrieving part 54 which retrieves a parallel translation example dictionary that is preliminarily provided and outputs a parallel translation example which is related to the inputted speech to the part 2, an instruction inputting part 4 that indicates the parallel translation example, a voice converting part 51 which converts translation of the indicated parallel translation example into a voice signal, a voice outputting part 7 which performs voice output of translation of the voice signal, a voice inputting part 1 inputs speech of the opposite conversation party in a foreign language by a voice signal, a character converting part which recognizes the speech of an inputted voice signal and converts it into a speech sentence of character codes, a correcting part 56 with which the opposite conversation party can correct the converted speech sentence based on guidance and an automatic interpreting part 52 which automatically interprets the corrected speech sentence into a speech sentence of the own language and outputs it to the part 2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、携帯型情報機器に
適用され、互いに異なる言語を使用する話者同士の会話
を通訳する通訳装置及び方法並びに通訳装置制御プログ
ラムを記憶した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interpreting apparatus and method applied to a portable information device for interpreting conversation between speakers using different languages, and a medium storing an interpreting apparatus control program.

【0002】[0002]

【従来の技術】従来、互いに異なる言語を通訳する通訳
装置としては、あらかじめ用意した自国語の対訳用例文
(自国語と他国語を一対にした例文)をメニュー形式で
選択して、選択した対訳用例文の多国語文を音声出力す
る通訳装置が市販されている。
2. Description of the Related Art Conventionally, as an interpreting apparatus for translating different languages, a translation example sentence prepared in a native language prepared in advance (an example sentence in which a native language and a foreign language are paired) is selected in a menu format, and the selected translation is selected. Interpreters that output multilingual sentences of example sentences by voice are commercially available.

【0003】この通訳装置は、対訳用例文のうち自国語
で書かれた文の内容を確認さえすれば、正しい他国語の
文を音声で対話相手に提示することができるという利点
があるが、対話相手から他国語の発話を話者に伝達する
ことができないという問題がある。なぜなら、この通訳
装置を対話相手に渡し言語を切り替えて対話相手の発話
に関連する対訳用例文から自国語に変換するには、対話
相手の発話用例を予測して用意する必要があり、この発
話用例を十分に用意することは難しいという問題があ
る。さらに、登録されている対訳用例の検索に時間がか
かるという問題もある。
[0003] This translator has the advantage that it is possible to present a correct foreign language sentence to the conversation partner by voice only if the contents of the bilingual example sentence are confirmed in the sentence written in its own language. There is a problem in that it is not possible to transmit utterances in another language from the conversation partner to the speaker. Because, in order to convert this translation device from the bilingual example sentence related to the dialogue partner's utterance to the native language by passing the interpreter to the dialogue partner, it is necessary to predict and prepare the dialogue partner's utterance example. There is a problem that it is difficult to prepare enough examples. Further, there is a problem that it takes time to search for registered translation examples.

【0004】また、入力された音声を音声認識し、その
認識結果を自動翻訳し、その翻訳結果を音声出力する機
械翻訳装置が開発されている。しかしながら、普及型の
携帯型通訳装置では、入力された文を構文的あるいは意
味的に解析して翻訳文を生成する本格的な自動翻訳処理
回路は大規模になるので用いることができない。従っ
て、携帯型通訳装置では、音声認識や自動翻訳には、一
定の割合で誤音声認識や誤翻訳が避けられない現状であ
る。例えば、誤りがある音声認識結果から翻訳を行う
と、さらに誤翻訳が発生するので実用的でない。
Further, a machine translation apparatus has been developed which recognizes input speech by speech, automatically translates the recognition result, and outputs the translation result as speech. However, in a popular portable interpreter, a full-scale automatic translation processing circuit that generates a translated sentence by syntactically or semantically analyzing an input sentence cannot be used because of its large scale. Therefore, in a portable interpreter, erroneous speech recognition and erroneous translation cannot be avoided at a fixed rate for speech recognition and automatic translation. For example, if translation is performed from an erroneous speech recognition result, erroneous translation will occur, which is not practical.

【0005】これらの誤音声認識、誤翻訳が起こったと
きにどう対処するかという問題を改善する従来技術とし
て、特開昭64−88875号公報の記載によれば、自
動翻訳前の言語情報と自動翻訳後の言語情報とを音声と
表示文字列を併せて出力して、この翻訳前後の言語情報
を比較することにより自動翻訳の誤りをチェックして異
種言語音声間での対話を効果的に進める音声翻訳装置が
提案されている。さらに、特開平7−129594号公
報の記載によれば、音声認識や翻訳の結果に曖昧性が生
じた際に操作者に確認を求めると同時に対話相手にも状
況説明の出力を行う自動翻訳システムが提案されてい
る。
As a prior art for improving the problem of how to deal with such erroneous speech recognition and erroneous translation, according to Japanese Patent Application Laid-Open No. 64-88875, Japanese Patent Application Laid-Open No. 64-88875 discloses language information before automatic translation. The language information after automatic translation is output together with the voice and the display character string. By comparing the language information before and after the translation, the error of the automatic translation is checked, and the dialogue between different languages is effectively performed. An advanced speech translation device has been proposed. Further, according to the description of Japanese Patent Application Laid-Open No. 7-129594, an automatic translation system that asks the operator for confirmation when ambiguity arises in the result of voice recognition and translation, and also outputs a situation explanation to the other party at the same time. Has been proposed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記特
開昭64−88875号公報及び特開平7−12959
4号公報の自動翻訳を利用した従来技術においては、対
話者同士が入力した音声情報の音声認識結果は、確認し
て修正することができるが、認識結果の自動翻訳結果に
曖昧性が生じた際に確認を求めても確認することができ
ない。なぜなら、入力した音声情報が正しく修正されて
も、正しく自動翻訳されるべき文体であるかどうか確認
することができないので、正しく他国語に変換され、話
者の発話が対話相手に正確に伝達されるとは限らない。
従って、対話者同士の意志疎通を図ることができないの
で実用的でないという問題がある。
However, Japanese Patent Application Laid-Open No. 64-88875 and Japanese Patent Application Laid-Open No. 7-12959 are known.
In the prior art using the automatic translation disclosed in Japanese Patent Laid-Open No. 4 (1999) -1995, the speech recognition result of the speech information input by the interlocutors can be confirmed and corrected, but ambiguity arises in the automatic translation result of the recognition result. Even if you ask for confirmation at the time, it cannot be confirmed. This is because even if the input speech information is corrected correctly, it cannot be confirmed whether the sentence should be translated automatically, so it is correctly converted to another language and the utterance of the speaker is accurately transmitted to the other party. Not necessarily.
Therefore, there is a problem that it is not practical because communication between the interlocutors cannot be achieved.

【0007】本発明は以上の事情を考慮してなされたも
のであり、例えば、一方向(話者)の通訳は対訳用例文
の検索で行い、他方向(対話相手)の通訳は自動翻訳で
行うよう構成することにより、大規模な翻訳処理回路を
使用することなく、言語の異なる対話相手には話者の発
話を正確に伝達し、対話相手からの発話も自国語に変換
して話者に伝達することができる実用的な通訳装置を提
供する。
The present invention has been made in consideration of the above circumstances. For example, one-way (speaker) translation is performed by searching for a bilingual example sentence, and the other-direction (dialogue) interpretation is performed by automatic translation. By doing so, the speaker's utterance is accurately transmitted to the conversation partner in different languages without using a large-scale translation processing circuit, and the utterance from the conversation partner is converted to the native language and Provide a practical translator that can be transmitted to

【0008】[0008]

【課題を解決するための手段】本発明は、画面を有する
表示部と、言語の異なる対話相手に対し話者の自国語で
発話文を入力する入力部と、予め備えた対訳用例辞書を
検索して前記入力された発話文に関連した対訳用例文を
前記表示部に出力する対訳用例文検索部と、前記入力部
により対訳用例文を指示し、指示された対訳用例文の訳
文を音声信号に変換する音声変換部と、前記音声信号の
訳文を音声出力する音声出力部と、対話相手の他国語の
発話を音声信号で入力する音声入力部と、入力された音
声信号の発話を認識して文字コードの発話文に変換する
音声認識部と、文字コードに変換された発話文をガイダ
ンスに基づいて修正することが可能な修正部と、修正さ
れた発話文を自国語の発話文に自動翻訳して前記表示部
に出力する自動翻訳部とを備えたことを特徴とする通訳
装置である。
According to the present invention, there is provided a display unit having a screen, an input unit for inputting an utterance in a speaker's own language to a conversation partner having a different language, and a bilingual translation dictionary provided in advance. A bilingual example sentence search unit that outputs a bilingual example sentence related to the input utterance sentence to the display unit; and a bilingual example sentence is designated by the input unit. A voice conversion unit, a voice output unit for voice output of a translation of the voice signal, a voice input unit for inputting speech in another language of the conversation partner as a voice signal, and recognizing the utterance of the input voice signal. A voice recognition unit that converts the utterance sentence to the character code, a correction unit that can correct the utterance sentence converted to the character code based on the guidance, and automatically converts the corrected utterance sentence to the native language utterance. Automatic translation to translate and output to the display unit A translator device being characterized in that a part.

【0009】なお、本発明において、入力部は、ペン・
タブレット、アイコンで構成されることが好ましい。話
者の発話は、音声入力によらずに、入力部の手書き文字
入力やメニュー形式によって入力するよう構成している
が、音声入力部により、音声で入力し、音声認識部を介
して対訳用例辞書を検索するよう構成してもよい。表示
部は、LCD(液晶ディスプレイ)パネルで構成される
ことが好ましい。
[0009] In the present invention, the input unit is a pen
It is preferable to be configured with a tablet and an icon. The utterance of the speaker is configured to be input not by voice input but by handwritten character input or a menu format of the input unit, but is input by voice by the voice input unit, and is translated via the voice recognition unit. You may be comprised so that a dictionary may be searched. It is preferable that the display unit is constituted by an LCD (liquid crystal display) panel.

【0010】音声入力部は、マイクロフォン、A/Dコ
ンバータで構成されることが好ましい。特に、対話相手
が他国語で発話を入力するのに利用される。音声出力部
は、A/Dコンバータ、スピーカで構成されることが好
ましい。対訳用例辞書、対訳用例文検索部、音声変換
部、音声認識部、修正部、自動翻訳部はCPU、RO
M、RAM、I/Oポートからなるマイクロコンピュー
タで構成されることが好ましい。対訳用例辞書は、この
中のROMで構成される。
[0010] Preferably, the audio input section is constituted by a microphone and an A / D converter. In particular, it is used by a conversation partner to input an utterance in another language. It is preferable that the audio output unit includes an A / D converter and a speaker. A bilingual example dictionary, a bilingual example sentence search unit, a speech conversion unit, a speech recognition unit, a correction unit, and an automatic translation unit are a CPU, a RO
It is preferable to configure a microcomputer including M, RAM, and I / O ports. The bilingual example dictionary is composed of the ROM therein.

【0011】本発明によれば、話者が言語の異なる対話
相手に対し自国語で入力した発話に関連した対訳用例文
を検索して正確に他国語に翻訳して伝達し、対話相手が
他国語で音声入力した発話を発話文に変換後、対話相手
がガイダンスにより修正して自国語の発話文に自動翻訳
して表示するよう構成したことにより、大規模な翻訳処
理回路を使用することなく、言語の異なる対話相手には
話者の発話を正確に伝達し、対話相手からの発話も自国
語に変換して話者に伝達することができる実用的な通訳
装置が提供できる。
According to the present invention, a bilingual sentence related to an utterance inputted in a native language by a speaker with respect to a dialogue partner in a different language is searched, accurately translated into another language, and transmitted. After converting utterances input in Japanese into utterances, the conversation partner corrects them with guidance and automatically translates them into utterances in their own language and displays them, without using a large-scale translation processing circuit. In addition, a practical translator can be provided that can accurately transmit the utterance of a speaker to a conversation partner of a different language, and can also convert the utterance of the conversation partner into a native language and transmit it to the speaker.

【0012】前記自動翻訳部は、異なる言語を自国語に
翻訳するための翻訳辞書と、前記翻訳辞書によって他国
語の発話文の単語から自国語の訳語を検索する辞書引き
部とをさらに備え、前記修正された他国語の発話文とそ
の訳語を対応して前記表示部に出力するよう構成しても
い。なお、翻訳辞書は自動翻訳用データを格納したRO
Mで構成される。辞書引き部は、辞書引きプログラムを
格納したROMで構成される。前記構成によれば、対話
相手の発話文と辞書引きした訳語を対応して表示部に表
示するので、訳語が適切でない場合、話者は翻訳辞書を
引き直すことにより対話相手の発話文も正確に理解する
ことができる。
[0012] The automatic translation unit further includes a translation dictionary for translating a different language into a native language, and a dictionary lookup unit for searching for a translation of the native language from words of an utterance sentence in another language using the translation dictionary. The corrected utterance sentence in another language and its translation may be output to the display unit in a corresponding manner. The translation dictionary is an RO that stores the data for automatic translation.
M. The dictionary lookup unit is configured by a ROM storing a dictionary lookup program. According to the above configuration, the utterance of the conversation partner is displayed on the display unit in correspondence with the translated word extracted from the dictionary. If the translation is not appropriate, the speaker can correct the utterance of the conversation partner by re-reading the translation dictionary. Can be understood.

【0013】話者が対話相手に対し音声認識結果の確認
及び修正とそのガイダンスを遠隔操作するためのガイダ
ンス表示部、操作部及び通信部を有する遠隔指示部をさ
らに備えた構成にしてもい。前記構成によれば、話者
は、対話相手に対し通訳装置を手渡しても、音声入力し
た発話文の確認、修正依頼を遠隔操作によってガイダン
スすることができる。
[0013] The speaker may further include a remote instruction unit having a guidance display unit, an operation unit, and a communication unit for remotely confirming and correcting the speech recognition result and controlling the guidance for the conversation partner. According to the above configuration, even if the speaker hands the interpreter to the conversation partner, the speaker can confirm the utterance sentence input by voice and give a guidance for a correction request by remote control.

【0014】前記対訳用例文検索部は、前記対訳用辞書
を参照して話者が入力した発話の単語と前記対訳用例文
の特徴語との一致度を判定して前記対訳用例文を検索
し、前記表示部に出力するよう構成してもよい。前記構
成によれば、話者は対話相手に対し伝達したい対訳用例
文を簡単に検索して選択できる。
The bilingual example sentence searching unit searches the bilingual example sentence by referring to the bilingual dictionary to determine a degree of coincidence between a word of an utterance input by a speaker and a characteristic word of the bilingual example sentence. , May be configured to output to the display unit. According to the above configuration, the speaker can easily search and select a bilingual example sentence to be transmitted to the other party.

【0015】[0015]

【発明の実施の形態】以下、図面に示す実施例に基づい
て本発明を詳述する。なお、本発明はこれに限定される
ものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings. Note that the present invention is not limited to this.

【0016】図1は本発明の通訳装置のハード構成を示
すブロック図である。図1において、1はマイクロフォ
ン、A/Dコンバータで構成される音声入力部を示す。
特に、対話相手が他国語で発話を入力するのに利用され
る。2はLCD(液晶ディスプレイ)パネル等で構成さ
れる表示部を示す。表示部2は、話者の発話文とその対
訳用例文、対話相手の発話文とその訳語を表示する。
FIG. 1 is a block diagram showing a hardware configuration of an interpreter according to the present invention. In FIG. 1, reference numeral 1 denotes an audio input unit including a microphone and an A / D converter.
In particular, it is used by a conversation partner to input an utterance in another language. Reference numeral 2 denotes a display unit composed of an LCD (liquid crystal display) panel or the like. The display unit 2 displays the utterance sentence of the speaker and its parallel translation example sentence, and the utterance sentence of the conversation partner and its translation.

【0017】3は、ペン・タブレット、アイコンで構成
され、話者の自国語の発話文をメニュー形式によって対
訳用例文を検索して入力する入力部を示す。入力する言
語の切り替え指示、表示された発話文の修正指示をする
ことができる。4はガイダンス表示部、操作部及び通信
部で構成される遠隔指示入力部を示す。話者は、対話相
手に本体装置を渡し、対話相手が音声入力した発話文の
確認、修正依頼を遠隔指示入力部4によってガイダンス
する。
Reference numeral 3 denotes an input unit which is composed of a pen / tablet and an icon, and which retrieves and inputs a bilingual example sentence of a speaker's own language in a menu format. An instruction to switch the language to be input and an instruction to correct the displayed utterance can be given. Reference numeral 4 denotes a remote instruction input unit including a guidance display unit, an operation unit, and a communication unit. The speaker gives the main body device to the conversation partner, and the remote instruction input unit 4 provides guidance for confirmation and correction request of the utterance sentence input by the conversation partner.

【0018】5はコンピュータによって制御されるプロ
グラムを記憶したROMで構成される処理装置を示す。
処理装置5は、入力された音声信号の発話を認識して文
字コードの発話文に変換する音声認識部51、修正され
た発話文を自国語の発話文に自動翻訳して表示部に出力
する自動翻訳部52、翻訳辞書によって他国語の発話文
の単語から自国語の訳語を検索する辞書引き部53、対
訳用例辞書(対訳用例文データメモリ)を検索して前記
入力された発話文に関連した対訳用例文を表示部に出力
する対訳用例文検索部54、指示された対訳用例文の訳
文を音声信号に変換する音声変換部55、文字コードに
変換された発話文をガイダンスに基づいて修正すること
が可能な修正部56、ガイダンスなどの通信データを送
信する通信部57とから構成される。
Reference numeral 5 denotes a processing unit constituted by a ROM storing a program controlled by a computer.
The processing device 5 recognizes the utterance of the input audio signal and converts the utterance into an utterance of a character code, and automatically translates the corrected utterance into an utterance in its own language and outputs it to the display unit. An automatic translation unit 52, a dictionary lookup unit 53 for searching for a translation of a native language from words of an utterance sentence in another language using a translation dictionary, and a bilingual example dictionary (bilingual example sentence data memory) for searching and relating to the input utterance sentence The translated bilingual example sentence is output to the display unit, the translated bilingual example sentence searching unit 54, the voice converting unit 55 that converts the translation of the designated bilingual example sentence into a voice signal, and corrects the uttered text converted into the character code based on the guidance. And a communication unit 57 for transmitting communication data such as guidance.

【0019】6はROM、RAMで構成される記憶装置
であり、記憶装置6は、音声信号を認識して文字コード
に変換したデータを記憶する音声認識データメモリ6
1、翻訳辞書データなどを記憶した自動翻訳データメモ
リ62、辞書引きした訳語を記憶する辞書引きデータメ
モリ63、対訳用例辞書データなどを記憶した対訳用例
文データメモリ64、訳文などを音声信号に変換したデ
ータを記憶する音声変換データメモリ65、キー入力ま
たは音声入力された発話データを一時記憶する発話デー
タメモリ66などで構成される。7はA/Dコンバー
タ、スピーカで構成され、音声信号の訳文を音声出力す
る音声出力部を示す。
Reference numeral 6 denotes a storage device comprising a ROM and a RAM. The storage device 6 stores a voice recognition data memory 6 for storing data obtained by recognizing voice signals and converting them into character codes.
1. Automatic translation data memory 62 storing translation dictionary data, etc .; dictionary lookup data memory 63 storing dictionary-translated translations; bilingual example sentence data memory 64 storing bilingual example dictionary data; A speech conversion data memory 65 for storing the input data, an utterance data memory 66 for temporarily storing utterance data inputted by key input or voice input, and the like. Reference numeral 7 denotes an audio output unit which includes an A / D converter and a speaker and outputs a translation of an audio signal.

【0020】8はコンピュータのCPUで構成される制
御部を示す。9はEEPROMのメモリカード、MDな
どからなる外部記憶媒体を示す。外部記憶媒体9は、制
御部8のCPUによって制御される本発明の通訳装置制
御プログラム/データを記憶するよう構成されている。
特に、各国間の言語の会話を可能にするため、対訳用例
文、音声認識プログラム、翻訳辞書などのプログラム/
データを外部記憶媒体に記憶して各種用意するよう構成
してもよい。
Reference numeral 8 denotes a control unit constituted by a CPU of the computer. Reference numeral 9 denotes an external storage medium such as an EEPROM memory card or MD. The external storage medium 9 is configured to store the interpreter control program / data of the present invention controlled by the CPU of the control unit 8.
In particular, to enable language conversation between countries, programs such as bilingual example sentences, speech recognition programs, translation dictionaries, etc.
The data may be stored in an external storage medium and various types of data may be prepared.

【0021】10は外部記憶媒体9に記憶されたプログ
ラム/データを読み取る媒体読み取り装置を示し、制御
部8のCPUにより処理装置5、記憶装置6の各メモリ
にプログラム/データがインストールされる。通信部5
7を介してホストコンピュータから通訳装置制御プログ
ラム/データを受信するよう構成することもできる。1
1は各装置及び各部間のアドレスデータや制御データを
転送するバスである。
Reference numeral 10 denotes a medium reading device for reading programs / data stored in the external storage medium 9. The CPU of the control unit 8 installs the programs / data in the memories of the processing device 5 and the storage device 6. Communication unit 5
7 to receive an interpreter control program / data from a host computer. 1
A bus 1 transfers address data and control data between each device and each unit.

【0022】図1に示すように、本発明の別の観点によ
れば、コンピュータによって通訳装置を制御するための
プログラムを記憶した媒体であって、前記制御プログラ
ムはコンピュータに、言語の異なる対話相手に対し話者
の自国語の発話文が入力部3により入力されると、予め
備えた対訳用例辞書を検索して前記入力された発話文に
関連した対訳用例文を表示部2に出力させ、前記対訳用
例文が入力部3により指示されると、指示された対訳用
例文の訳文を音声信号に変換させ、前記音声信号の訳文
を音声出力部7により音声出力させ、音声入力部1によ
り対話相手の他国語の発話が音声信号で入力されると、
入力された音声信号の発話を認識して文字コードの発話
文に変換させ、文字コードに変換された発話文をガイダ
ンスに基づいて修正させ、修正された発話文を自国語に
自動翻訳して表示部2に出力させることを特徴とする通
訳装置制御プログラムを記憶した媒体9が提供される。
As shown in FIG. 1, according to another aspect of the present invention, there is provided a medium storing a program for controlling an interpreting device by a computer, wherein the control program causes a computer to communicate with a conversation partner having a different language. When the utterance sentence of the speaker's own language is input by the input unit 3, a bilingual example dictionary provided in advance is searched, and a bilingual example sentence related to the input utterance sentence is output to the display unit 2. When the parallel translation example sentence is instructed by the input unit 3, the translation of the instructed parallel translation example sentence is converted into a voice signal, the translation of the voice signal is voice-output by the voice output unit 7, and the voice input unit 1 interacts. When the utterance of the other party's language is input as an audio signal,
Recognizes the utterance of the input voice signal, converts it to a character code utterance, corrects the utterance converted to the character code based on the guidance, and automatically translates and displays the corrected utterance to your native language There is provided a medium 9 storing an interpreter control program which is output to the section 2.

【0023】図2は本発明の通訳装置の外観を示す図で
ある。図2において、図1と同じ構成要素には同符号を
記している。図2に示すように、本発明の通訳装置は携
帯で使用するよう構成されている。表示部2と入力部3
が一体に形成しているが、入別に構成してもよい。遠隔
指示入力部4が有線接続されているが、通信部57によ
り処理装置5と無線で通信を行うよう構成してもよい。
さらに、電話機能を追加して多機能の通訳装置として構
成してもよい。
FIG. 2 is a view showing the appearance of the interpreter of the present invention. 2, the same components as those in FIG. 1 are denoted by the same reference numerals. As shown in FIG. 2, the interpreter of the present invention is configured for portable use. Display unit 2 and input unit 3
Are integrally formed, but may be separately formed. Although the remote instruction input unit 4 is connected by wire, the communication unit 57 may be configured to perform wireless communication with the processing device 5.
Further, a telephone function may be added to constitute a multifunctional interpreter.

【0024】図3は本発明の通訳装置の処理の手順を示
すフローチャートである。図4は本実施例の対訳用例文
検索処理の手順を示すフローチャートである。以下、図
3と図4のフローチャートを参照しながら、日本語を話
す話者Aが、本発明の通訳装置を所持して、英語を話す
対話相手Bとの会話を行う例を説明する。
FIG. 3 is a flow chart showing the procedure of the processing of the interpreter of the present invention. FIG. 4 is a flowchart showing the procedure of the bilingual example sentence search process of this embodiment. Hereinafter, an example in which a speaker A who speaks Japanese speaks English with a conversation partner B who speaks English while possessing the interpreter of the present invention will be described with reference to the flowcharts of FIGS.

【0025】まず、入力部3により入力言語が設定され
る(S301)。本実施例では話者Aが日本語で入力
し、対話相手Bは英語で入力する旨指定する。結果は音
声認識部51に送られる。音声認識部51において、入
力される音素系列から入力言語を推定することもできる
ので、このステップS301の処理は省略することがで
きる。次に、音声入力部1により、話者Aからの発話を
音声信号で入力する(S302)。
First, an input language is set by the input unit 3 (S301). In the present embodiment, the speaker A specifies to input in Japanese, and the conversation partner B specifies to input in English. The result is sent to the voice recognition unit 51. Since the input language can be estimated from the input phoneme sequence in the voice recognition unit 51, the processing in step S301 can be omitted. Next, the speech from the speaker A is inputted as a speech signal by the speech input unit 1 (S302).

【0026】続いて、この音声信号は音声認識部51に
送られ、音声認識部51は入力言語の指定に従って音声
認識を行い、話者Aからの発話を日本語の文字コード列
に変換し(S303)、表示部2に表示する(S30
4)。ここで、音声認識されて変換された発話文に誤り
箇所があるか否かを確認し(S305)、入力部3によ
り誤り箇所がなくなるまで修正する(S306)。
Subsequently, the voice signal is sent to a voice recognition unit 51, which performs voice recognition according to the designation of the input language, and converts the utterance from speaker A into a Japanese character code string ( (S303), and display on the display unit 2 (S30).
4). Here, it is confirmed whether or not there is an error in the utterance sentence converted by the speech recognition (S305), and correction is made by the input unit 3 until there is no error (S306).

【0027】図5は本実施例による音声認識結果と対訳
用例文の修正例を示す図である。図5(a)に音声認識
結果の修正例を示すように、例えば、修正作業は、音声
認識結果「どう言う」の「言」の部分を削除して「い」
を入力部3により直接書き直してもよい。また、音声認
識結果「開いたから」の部分に対する別認識候補「間
柄」を選択してもよい。修正した音声認識結果は、発話
入力として音声認識用データメモリ61に保持してお
く。また、図5(b)に対訳用例文の修正例を示す。
FIG. 5 is a diagram showing an example of correcting the speech recognition result and the bilingual example sentence according to the present embodiment. As shown in FIG. 5 (a), an example of correction of the speech recognition result is shown in FIG.
May be directly rewritten by the input unit 3. Alternatively, another recognition candidate “correspondence” for the part of the voice recognition result “opened” may be selected. The corrected speech recognition result is stored in the speech recognition data memory 61 as an utterance input. FIG. 5B shows an example of correcting the bilingual example sentence.

【0028】話者Aの自国語による入力であるか否かを
判定し(S307)、話者Aの自国語による入力であれ
ば、S308の処理である対訳用例文検索による訳文出
力処理、話者Bの他国語による入力であれば、S311
の処理である自動翻訳による訳文生成処理に移行する。
入力言語が話者Aの自国語であることがS301で判定
されているので、日本語の文字コードに変換された発話
情報は対訳用例文検索部54に送られる。
It is determined whether or not the input is in the native language of the speaker A (S307). If the input is in the native language of the speaker A, a translation output process by bilingual example sentence search, which is the process of S308, the story If the input is in another language of person B, S311
Then, the process proceeds to a translated sentence generation process by automatic translation.
Since it is determined in S301 that the input language is the native language of speaker A, the utterance information converted into the Japanese character code is sent to the bilingual example sentence search unit 54.

【0029】話者Aの発話情報は自国語であるので、ス
テップS302〜S307の処理を行わず、すなわち、
音声入力によらずに、対話相手に伝達したい自国語の発
話文(日本語文字列)を、入力部3により手書き文字や
メニュー形式によって直接入力してからステップS30
8の処理に移行してよい。
Since the utterance information of the speaker A is the native language, the processing of steps S302 to S307 is not performed, that is,
Instead of inputting the voice, the utterance sentence (Japanese character string) in the native language to be transmitted to the conversation partner is directly input by the input unit 3 in the form of a handwritten character or a menu.
The processing may shift to the processing of No. 8.

【0030】図4は図3の対訳用例文検索処理のサブル
ーチンを示すフローチャートである。図4において、対
訳用例検索部54は、送られてきた自国語の発話文(日
本語文字列)から特徴語を抽出する(S401)。対訳
用例文検索において、用いる対訳用例データは、対訳用
例文字列とその用例の特徴を表す特徴列を記憶した対訳
用例辞書や特徴列に記述される各特徴要素である単語を
記憶した特徴語辞書を備えており、発話入力から抽出さ
れた特徴語と各用例文とを照合して一致する用例文を抽
出する(S402)。
FIG. 4 is a flowchart showing a subroutine of the bilingual example sentence search processing of FIG. In FIG. 4, the bilingual example search unit 54 extracts a characteristic word from the sent utterance sentence (Japanese character string) in its own language (S401). In the bilingual example sentence search, the bilingual example data used is a bilingual example dictionary that stores a bilingual example character string and a characteristic sequence representing the characteristics of the example, and a characteristic word dictionary that stores words that are the respective feature elements described in the characteristic sequence. And extracts a matching example sentence by collating the characteristic word extracted from the utterance input with each example sentence (S402).

【0031】図6は本実施例による発話入力から抽出さ
れた特徴語と対訳用例文との照合例を示す図である。図
6(a)に発話入力文とその特徴語を示すように、例え
ば、発話入力「スーツケースを運んでほしい」という入
力文を指定すると、図6(b)に示すように、「荷物を
持ってください」、「ポーターに荷物を運んでもらいた
いのですが」という2つの用例文と、その用例文の英文
訳が表示される。
FIG. 6 is a diagram showing an example of collation between a characteristic word extracted from an utterance input and a bilingual example sentence according to the present embodiment. As shown in FIG. 6A, an utterance input sentence and its characteristic words are specified. For example, if an utterance input “I want you to carry a suitcase” is specified, as shown in FIG. "Please bring me", "I want the porter to carry my luggage" and two English translations of the example sentences are displayed.

【0032】実際には、S401において、「スーツケ
ース」、「運ん」、「でほしい」の3つの特徴語が抽出
される。この抽出された特徴語は表示されない。S40
2において、特徴語「スーツケース」は、用例文を検索
するための特徴「荷物」、「開けるもの」、「鞄」の要
素として扱われる。同様に、特徴語「運ん」は、特徴
「運ぶ」の要素として用例文を検索する。特徴語「でほ
しい」は、用例文の文末特徴(依頼)の一つを示す<Re
quest>の要素として付記される。
In practice, in S401, three characteristic words of "suitcase", "carried", and "desired" are extracted. The extracted characteristic words are not displayed. S40
In 2, the characteristic word “suitcase” is treated as an element of the characteristics “luggage”, “openable”, and “bag” for searching example sentences. Similarly, for the feature word “carry”, an example sentence is searched as an element of the feature “carry”. The feature word "desu" indicates one of the sentence end features (requests) of the example sentence <Re
quest>.

【0033】図6(a)に示す発話入力「スーツケース
を運んでほしい」から、図6(b)に示す用例1「荷物
を持ってください」、用例2「ポーターに荷物を運んで
もらいたいのですが」という2つの用例文とその英訳が
検索されて表示される。図6(b)の特徴列(表示され
ない)において、大括弧記号“〔〕”は必須でない特徴
を示す。丸括弧記号“()”の中の縦線記号“|”は特
徴の論理和(いずれかの特徴)を示す。山括弧記号“<
>”は文末特徴を示す。例えば、“<Request>”は文
末特徴「依頼」を示す。
From the utterance input “I want you to carry a suitcase” shown in FIG. 6A, use example 1 “Please bring your luggage” and use example 2 shown in FIG. 6B, and want to have the porter carry your luggage. The two example sentences "I'm sorry" and their English translations are searched and displayed. In the feature sequence (not shown) in FIG. 6B, square brackets “[]” indicate features that are not essential. The vertical bar symbol “|” in the parenthesis symbol “()” indicates the logical sum of the features (any feature). The angle bracket symbol “<
>> indicates a sentence end feature, for example, “<Request>” indicates a sentence end feature “request”.

【0034】対訳用例検索部54はカウンタを備えてお
り、発話入力から抽出された特徴語を含む特徴を対訳用
例文から抽出してカウントし、特徴列中に入力から抽出
された特徴語を含む特徴割合が高いものから順に用例文
をソートする(S403)。発話入力「スーツケースを
運んでほしい」から抽出された3つの特徴語と2つの対
訳用例を照合すると、用例1「荷物を持ってください」
では、“荷物”、“(〔運ぶ〕|〔持つ〕)の〔持
つ〕”、“<Request>”がカウントされ、特徴列中の
必須特徴を100%満たす。
The bilingual example search unit 54 includes a counter, extracts and counts features including characteristic words extracted from the utterance input from the bilingual example sentence, and includes a characteristic sequence including the characteristic words extracted from the input. The example sentences are sorted in descending order of the feature ratio (S403). When matching the three feature words extracted from the utterance input “I want you to carry a suitcase” with the two parallel translation examples, example 1 “Please bring your luggage”
In this case, "package", "[having] of" ([carrying] | [having]) "" and "<Request>" are counted, and 100% of the essential features in the feature column are satisfied.

【0035】用例2「ポーターに荷物を運んでもらいた
いのですが」では、“ポーター”、“(荷物|こ
れ)”、“運ぶ”、“<Request>”のうち、特徴“ポ
ーター”の要素である特徴語は発話入力に含まれないの
で、特徴列中の必須特徴を75%しか満たしていない。
従って、用例1は用例2より優先されることになる。
In the example 2 "I want the porter to carry the luggage," the element of the feature "porter" of "porter", "(luggage | this)", "carry", and "<Request>" Is not included in the utterance input, so only 75% of the essential features in the feature sequence are satisfied.
Therefore, Example 1 has priority over Example 2.

【0036】ソートされた優先順に対訳用例文候補が表
示部に表示される(S404)。ステップS404で、
対訳用例文候補をすべて表示してもよいし、優先順にい
くつかだけを表示してもよい。この実施例では、図6
(b)に示すように、日本語文と英語文の対訳用例文が
表示されるので、話者Aは日本語文の記述からどの対訳
用例文候補を選択するかを決定する。
The translation example sentence candidates are displayed on the display unit in the sorted priority order (S404). In step S404,
All the parallel translation example sentence candidates may be displayed, or only some of them may be displayed in priority order. In this embodiment, FIG.
As shown in (b), a bilingual example sentence of a Japanese sentence and an English sentence is displayed, so that speaker A determines which bilingual example sentence candidate to select from the description of the Japanese sentence.

【0037】表示した対訳用例文候補の中から、話者A
が最適と思われる対訳用例文を1つ選択し入力部により
指示する(S405)。例えば、図5(b)に示す対訳
用例文が選択された際、英文の可変部を書き換えてもよ
いし、日本語文の可変部をメニュー形式で選択変更し
て、これに応じて英文の可変部も入れ替わる方法で書き
換えてもよい。対訳用例検索部54は選択された対訳用
例文のみを表示部と音声変換部に出力し(S406)、
図3に示すS309の処理に移行する。
From the displayed bilingual example sentence candidates, speaker A
Selects one bilingual example sentence that seems to be optimal and instructs it via the input unit (S405). For example, when the translation example sentence shown in FIG. 5B is selected, the variable part of the English sentence may be rewritten, or the variable part of the Japanese sentence may be selected and changed in a menu format, and the English sentence may be changed accordingly. The units may also be rewritten by a method of exchanging. The bilingual example search unit 54 outputs only the selected bilingual example sentence to the display unit and the speech conversion unit (S406).
The process proceeds to S309 shown in FIG.

【0038】音声変換部55は、転送されてきた対訳用
例文の英訳文の文字コード列だけを音声信号に変換して
音声出力部に出力する(S309)。このとき、音声信
号の音声合成方式は、語彙の制限を受けない規則合成方
式を用いてもよいし、対訳用例検索の出力結果は予め語
彙の制限があるので、一般に規則合成方式と比較して音
質がよいとされる分析合成方式を用いてもよいが、対訳
用例検索や自動翻訳の出力に対する任意の編集を許す場
合は、規則合成方式を採用することが望ましい。音声出
力部は転送されてきた音声信号を出力する(S31
0)。
The voice conversion unit 55 converts only the transferred character code string of the English translation of the translation example sentence into a voice signal and outputs it to the voice output unit (S309). At this time, the speech synthesis method of the speech signal may use a rule synthesis method that is not restricted by the vocabulary, and the output result of the bilingual example search has a vocabulary restriction in advance. An analysis / synthesis method with good sound quality may be used, but if arbitrary editing of bilingual example search or automatic translation output is permitted, it is desirable to adopt a rule synthesis method. The sound output unit outputs the transferred sound signal (S31).
0).

【0039】通訳装置を用いた会話がここで終了しない
場合は(S311)、発話者に対応する入力言語に切り
替える(S312)。この言語切り替え操作は、入力部
3または遠隔指示入力部4によって、その都度、手動で
切り替えてもよいし、必ず交互に発話が行われると想定
して自動で切り替えてもよい。この実施例では、入力言
語を日本語から英語に切り替えて、ステップS301の
処理に戻り、話者Bの発話を音声入力部に入力する。
If the conversation using the interpreter does not end here (S311), the language is switched to the input language corresponding to the speaker (S312). The language switching operation may be manually switched by the input unit 3 or the remote instruction input unit 4 each time, or may be automatically switched assuming that the utterance is performed alternately. In this embodiment, the input language is switched from Japanese to English, the process returns to step S301, and the utterance of speaker B is input to the voice input unit.

【0040】ステップS302〜ステップS307まで
は、入力言語が日本語から英語に切り替わっていること
を除いて話者Aの発話のときと同様に処理を行う。ステ
ップS307において、話者Bからの英語による入力の
場合は、英文の文字コード化された発話情報が自動翻訳
部52もしくは辞書引き部53に転送され、自動翻訳部
52に転送される場合は、自動翻訳部52が発話の英文
を解析して翻訳結果である日本語文を生成し、辞書引き
部53に転送される場合は、発話に含まれる単語及び熟
語に関して辞書引きし、(S314)、翻訳結果、訳語
を表示部に表示する(S315)。
Steps S302 to S307 are performed in the same manner as in the case of speaker A's speech, except that the input language has been switched from Japanese to English. In step S307, in the case of the input from speaker B in English, the utterance information in which the English sentence is coded is transferred to the automatic translator 52 or the dictionary lookup unit 53. When the automatic translation unit 52 analyzes the English sentence of the utterance to generate a Japanese sentence as a translation result and transfers it to the dictionary lookup unit 53, the automatic translation unit 52 performs a dictionary lookup on the words and idioms included in the utterance (S314). As a result, the translated word is displayed on the display unit (S315).

【0041】前記構成によって、対訳用例文検索による
通訳方法と自動翻訳による通訳方法を使いわけることに
より、それぞれの通訳機能の長所を生かすことが可能と
なり、通訳装置の使い方を知らない対話相手に対して
も、装置の所持者が通訳装置の操作方法を十分理解すれ
ば、言語の異なる2者間の意思疎通を支援することがで
きる。
With the above-described configuration, by using the interpreting method based on the bilingual example sentence search and the interpreting method based on the automatic translation, the advantages of the respective interpreting functions can be utilized. However, if the owner of the device fully understands the operation method of the interpreting device, it is possible to support communication between two persons having different languages.

【0042】対話相手に伝わっている発話内容は、該装
置の所持者に自国語で正確に確認させることができ、さ
らに、装置の所持者は予め装置の自動翻訳性能を理解し
ておくことにより自動翻訳に誤訳が発生しても、例え
ば、辞書引き操作により対話相手からの発話を再確認す
ることができる。
The content of the utterance transmitted to the conversation partner can be accurately confirmed by the owner of the device in his / her own language. Further, the owner of the device can understand the automatic translation performance of the device in advance. Even if an erroneous translation occurs in the automatic translation, for example, the utterance from the conversation partner can be confirmed again by a dictionary lookup operation.

【0043】図7は本実施例による翻訳結果と辞書引き
結果の表示例を示す図である。図7に示すように、例え
ば、入力英語文「We have been doing business togeth
er for a while.」に対する自動翻訳結果として、日本
語文「我々は、しばらくの間、共に取引してきた」が表
示される。日本語だけを見てほぼ大意が把握できる場合
は、自動翻訳処理だけで完了する。
FIG. 7 is a diagram showing a display example of a translation result and a dictionary lookup result according to this embodiment. As shown in FIG. 7, for example, the input English sentence "We have been doing business togeth"
er for a while. ", the Japanese sentence" We have been trading together for a while "is displayed. If you can almost understand the meaning only by looking at the Japanese language, it will be completed only by the automatic translation process.

【0044】英語文を確認したい場合に、辞書引き処理
に切り替えると、例えば、入力英語文「We have been d
oing business together for a while.」の表示と、辞
書引き結果として「We」、「doing business」、「toge
ther」、「for a while」に対する訳語「我々」、「取
引する」、「共に」、「すこしの間」がそれぞれ表示さ
れる。英語文を確認する際には、訳語も対応づけられて
いて理解しやすい。
When the user wants to check the English sentence and switches to dictionary lookup processing, for example, the input English sentence “We have been d
oing business together for a while. '' and `` We, '' `` doing business, '' `` toge
The translations for "ther" and "for a while" are displayed as "we,""transact,""together," and "a little while." When checking the English sentence, the translated word is also associated and easy to understand.

【0045】発話情報が辞書引き部53に転送される場
合は、辞書引き部53が入力英語文から発話内容を解析
して発話に含まれる各語に関して最も適当な訳語を付与
した結果を、ステップS315で各訳語が対応する語と
併置する形で表示部に表示する。各語の訳語は優先度を
付与して複数表示してもよいし、訳語が付与されない語
があってもよい。また、熟語のように複数の語の組に対
して訳語が付与されることもある。
When the utterance information is transferred to the dictionary lookup unit 53, the dictionary lookup unit 53 analyzes the contents of the utterance from the input English sentence, and assigns the most appropriate translation to each word included in the utterance. In S315, each translated word is displayed on the display unit in a form juxtaposed with the corresponding word. A plurality of translations of each word may be displayed with a priority, or there may be some words to which no translation is given. Also, a translation may be given to a plurality of word sets, such as idioms.

【0046】自動翻訳部による翻訳結果と辞書引き部の
訳語を選択的に表示してもよいし、同時に表示部に表示
してもよい。さらに会話を継続する場合は、S312で
言語を切り替えて繰り返し行う。なお、この実施例では
通訳装置の所持者が日本語を話し、その対話相手が英語
を話す場合の例を挙げているが、同様の構成によって双
方の使用する言語として任意の言語を設定することが可
能である。
The translation result of the automatic translation unit and the translated word of the dictionary lookup unit may be selectively displayed, or may be simultaneously displayed on the display unit. If the conversation is to be continued, the language is switched at S312 to repeat the conversation. Note that, in this embodiment, an example is given in which the owner of the interpreter speaks Japanese and the other party speaks English, but any language can be set as the language used by both in a similar configuration. Is possible.

【0047】[0047]

【発明の効果】本発明によれば、一方向(話者)の通訳
は対訳用例文の検索で行い、他方向(対話相手)の通訳
は自動翻訳で行うよう構成することにより、大規模な翻
訳処理回路を使用することなく、言語の異なる対話相手
には話者の発話を正確に伝達し、対話相手からの発話も
自国語に翻訳して話者に伝達することができる実用的な
通訳装置を提供することができる。
According to the present invention, a large-scale system can be realized by a configuration in which the translation in one direction (speaker) is performed by searching for a translation example sentence, and the translation in the other direction (dialogue) is performed by automatic translation. Practical interpreter that accurately communicates the utterance of the speaker to the conversation partner in different languages without using a translation processing circuit, and can also translate the utterance of the conversation partner into their own language and transmit it to the speaker An apparatus can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の通訳装置のハード構成を示すブロック
図である。。
FIG. 1 is a block diagram showing a hardware configuration of an interpreter of the present invention. .

【図2】本発明の通訳装置の外観を示す図である。FIG. 2 is a view showing the appearance of the interpreter of the present invention.

【図3】本発明の通訳装置の処理の手順を示すフローチ
ャートである。
FIG. 3 is a flowchart showing a procedure of a process of the interpreter of the present invention.

【図4】本実施例の対訳用例文検索処理の手順を示すフ
ローチャートである。
FIG. 4 is a flowchart illustrating a procedure of a bilingual example sentence search process according to the embodiment;

【図5】本実施例による音声認識結果と対訳用例文の修
正例を示す図である。
FIG. 5 is a diagram showing an example of correcting a speech recognition result and a bilingual example sentence according to the embodiment.

【図6】本実施例による発話入力から抽出された特徴語
と対訳用例文との照合例を示す図である。
FIG. 6 is a diagram illustrating an example of collation between a feature word extracted from an utterance input and a bilingual example sentence according to the embodiment;

【図7】本実施例による翻訳結果と辞書引き結果の表示
例を示す図である。
FIG. 7 is a diagram showing a display example of a translation result and a dictionary lookup result according to the embodiment.

【符号の説明】[Explanation of symbols]

1 音声入力部 2 表示部 3 入力部 4 遠隔指示入力部 5 処理装置 51 音声認識部 52 自動翻訳部 53 辞書引き部 54 対訳用例文検索部 55 音声変換部 56 修正部 57 通信部 6 記憶装置 61 音声認識データメモリ 62 自動翻訳データメモリ 63 辞書引きデータメモリ 64 対訳用例文データメモリ 65 音声変換データメモリ 66 発話データメモリ 7 音声出力部 8 制御部 9 外部記憶媒体 10 媒体読取装置 11 バス Reference Signs List 1 voice input unit 2 display unit 3 input unit 4 remote instruction input unit 5 processing device 51 voice recognition unit 52 automatic translation unit 53 dictionary lookup unit 54 bilingual example sentence search unit 55 voice conversion unit 56 correction unit 57 communication unit 6 storage device 61 Voice recognition data memory 62 Automatic translation data memory 63 Dictionary lookup data memory 64 Parallel translation example sentence data memory 65 Voice conversion data memory 66 Utterance data memory 7 Voice output unit 8 Control unit 9 External storage medium 10 Medium reading device 11 Bus

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 画面を有する表示部と、言語の異なる対
話相手に対し話者の自国語の発話文を入力する入力部
と、予め備えた対訳用例辞書から前記入力された発話文
に関連した対訳用例文を検索し前記表示部に出力する対
訳用例文検索部と、前記入力部により対訳用例文を指示
し、指示された対訳用例文の訳文を音声信号に変換する
音声変換部と、前記音声信号の訳文を音声出力する音声
出力部と、対話相手の他国語の発話を音声信号で入力す
る音声入力部と、入力された音声信号の発話を認識して
文字コードの発話文に変換する音声認識部と、文字コー
ドに変換された発話文をガイダンスに基づいて修正する
ことが可能な修正部と、修正された発話文を自国語の発
話文に自動翻訳して前記表示部に出力する自動翻訳部と
を備えたことを特徴とする通訳装置。
1. A display unit having a screen, an input unit for inputting an utterance sentence of a speaker's own language to a conversation partner having a different language, and an input unit associated with the input utterance sentence from a bilingual example dictionary provided in advance. A bilingual example sentence search unit that searches for and outputs a bilingual example sentence to the display unit, a speech conversion unit that indicates a bilingual example sentence by the input unit, and converts a translated sentence of the indicated bilingual example sentence into a voice signal; An audio output unit that outputs a translation of an audio signal, an audio input unit that inputs an utterance in another language of a conversation partner as an audio signal, and recognizes the utterance of the input audio signal and converts the utterance of the input audio signal into an utterance of a character code. A speech recognition unit, a correction unit capable of correcting the utterance sentence converted into the character code based on the guidance, and automatically correcting the corrected utterance sentence into an utterance sentence of a native language and outputting the same to the display unit. It has an automatic translator and Interpreter.
【請求項2】 前記自動翻訳部は、異なる言語を自国語
に翻訳するための翻訳辞書と、前記翻訳辞書によって他
国語の発話文の単語から自国語の訳語を検索する辞書引
き部とをさらに備え、前記修正された他国語の発話文と
その訳語を対応して前記表示部に出力することを特徴と
する請求項1記載の通訳装置。
2. The automatic translation unit further includes: a translation dictionary for translating a different language into a native language; and a dictionary lookup unit for searching a translation word of a native language from words of a spoken sentence of another language by the translation dictionary. 2. The interpreting apparatus according to claim 1, further comprising: outputting the corrected utterance sentence in another language and a translation thereof to the display unit.
【請求項3】 話者が対話相手に対し音声認識結果の確
認、修正及びそのガイダンスを遠隔操作するためのガイ
ダンス表示部、操作部及び通信部を有する遠隔指示入力
部をさらに備えたことを特徴とする請求項1記載の通訳
装置。
3. A remote instruction input unit having a guidance display unit, an operation unit, and a communication unit for allowing a speaker to confirm and correct a speech recognition result with respect to a conversation partner and remotely control the guidance. 2. The interpreter according to claim 1, wherein:
【請求項4】 前記対訳用例文検索部は、前記対訳用辞
書を参照して話者が入力した発話の単語と前記対訳用例
文の特徴語との一致度を判定して前記対訳用例文を検索
し、前記表示部に出力することを特徴とする請求項1記
載の通訳装置。
4. The bilingual example sentence search unit determines the degree of coincidence between a word of an utterance input by a speaker and a characteristic word of the bilingual example sentence with reference to the bilingual dictionary to determine the bilingual example sentence. The interpreting apparatus according to claim 1, wherein the interpreting apparatus searches and outputs the retrieved information to the display unit.
【請求項5】 言語の異なる対話相手に対し話者の自国
語の発話文を入力部により入力し、予め備えた対訳用例
辞書を検索して前記入力された発話文に関連した対訳用
例文を表示部に出力し、前記入力部により対訳用例文を
指示し、指示された対訳用例文の訳文を音声信号に変換
し、前記音声信号の訳文を音声出力部から出力し、音声
入力部により対話相手の他国語の発話を音声信号で入力
し、入力された音声信号の発話を認識して文字コードの
発話文に変換し、文字コードに変換された発話文をガイ
ダンスに基づいて修正し、修正された発話文を自国語の
発話文に自動翻訳して前記表示部に出力することを特徴
とする通訳方法。
5. An utterance sentence of a speaker's own language is input to a conversation partner having a different language by an input unit, and a bilingual example dictionary provided in advance is searched to obtain a bilingual example sentence related to the input utterance sentence. Output to a display unit, instruct the bilingual example sentence by the input unit, convert the translated sentence of the instructed bilingual example sentence to a voice signal, output the translated sentence of the voice signal from the voice output unit, and interact with the voice input unit. Input the utterance of the partner's other language as a voice signal, recognize the utterance of the input voice signal, convert it to a character code utterance, and correct the utterance converted to the character code based on guidance, and correct it An interpreting method for automatically translating the uttered sentence into an uttered sentence in a native language and outputting the uttered sentence to the display unit.
【請求項6】 予め備えた異なる言語を自国語に翻訳す
るための翻訳辞書によって他国語の発話文の単語から自
国語の訳語を検索し、前記修正された他国語の発話文と
その訳語を対応して表示することを特徴とする請求項5
記載の通訳方法。
6. A translation dictionary for translating a different language into a native language provided in advance, searching for a translation of the native language from words of the utterance sentence of another language, and retrieving the corrected utterance sentence of the other language and its translation. 6. The display according to claim 5, wherein
Interpretation method described.
【請求項7】 予め備えたガイダンス表示部、操作部及
び通信部を有する遠隔指示入力部によって話者が対話相
手に対し音声認識結果の確認、修正及びそのガイダンス
を遠隔操作することを特徴とする請求項5記載の通訳方
法。
7. A speaker in which a remote instruction input unit having a guidance display unit, an operation unit, and a communication unit provided in advance enables a speaker to confirm and correct a speech recognition result to a conversation partner and remotely control the guidance. The interpreting method according to claim 5.
【請求項8】 前記対訳用辞書を参照して話者が入力し
た発話の単語と前記対訳用例文の特徴語との一致度を判
定して前記対訳用例文を検索し、表示部に出力すること
を特徴とする請求項5記載の通訳方法。
8. A bilingual example sentence is searched for by referring to the bilingual dictionary and determining a degree of coincidence between a word of an utterance input by a speaker and a characteristic word of the bilingual example sentence, and is output to a display unit. 6. The interpreting method according to claim 5, wherein:
【請求項9】 コンピュータによって通訳装置を制御す
るためのプログラムを記憶した媒体であって、前記制御
プログラムはコンピュータに、言語の異なる対話相手に
対し話者の自国語の発話文が入力部により入力される
と、予め備えた対訳用例辞書を検索して前記入力された
発話文に関連した対訳用例文を表示部に出力させ、前記
入力部により前記対訳用例文が指示されると、指示され
た対訳用例文の訳文を音声信号に変換させ、前記音声信
号の訳文を音声出力部により音声出力させ、対話相手の
他国語の発話が音声入力部により音声信号で入力される
と、入力された音声信号の発話を認識して文字コードの
発話文に変換させ、文字コードに変換された発話文をガ
イダンスに基づいて修正させ、修正された発話文を自国
語の発話文に自動翻訳して前記表示部に出力させること
を特徴とする通訳装置制御プログラムを記憶した媒体。
9. A medium storing a program for controlling an interpreting device by a computer, wherein the control program inputs an utterance sentence of a speaker's native language to a conversation partner having a different language from an input unit. Then, the bilingual example dictionary provided in advance is searched and the bilingual example sentence related to the input utterance sentence is output to the display unit. When the input unit indicates the bilingual example sentence, the instruction is given. When the translated sentence of the bilingual example sentence is converted into a voice signal, the translated sentence of the voice signal is output as a voice by a voice output unit, and when an utterance in another language of the conversation partner is input as a voice signal by the voice input unit, the input voice is input. Recognize the utterance of the signal and convert it to a character code utterance, correct the utterance converted to the character code based on the guidance, and automatically translate the corrected utterance into the native language utterance A medium for storing an interpreter control program, the program being output to the display unit.
JP28707797A 1997-10-20 1997-10-20 Interpreting apparatus and method, and medium storing interpreting apparatus control program Expired - Fee Related JP3411198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28707797A JP3411198B2 (en) 1997-10-20 1997-10-20 Interpreting apparatus and method, and medium storing interpreting apparatus control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28707797A JP3411198B2 (en) 1997-10-20 1997-10-20 Interpreting apparatus and method, and medium storing interpreting apparatus control program

Publications (2)

Publication Number Publication Date
JPH11120176A true JPH11120176A (en) 1999-04-30
JP3411198B2 JP3411198B2 (en) 2003-05-26

Family

ID=17712767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28707797A Expired - Fee Related JP3411198B2 (en) 1997-10-20 1997-10-20 Interpreting apparatus and method, and medium storing interpreting apparatus control program

Country Status (1)

Country Link
JP (1) JP3411198B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
KR20030035068A (en) * 2001-10-30 2003-05-09 (주)이도전자 A simultaneity interpreting machinery of pocket
JP2009245053A (en) * 2008-03-31 2009-10-22 Funai Electric Advanced Applied Technology Research Institute Inc Translation program, translation system, and bilingual data generation method
CN104380375A (en) * 2012-03-08 2015-02-25 脸谱公司 Device for extracting information from a dialog
US9529796B2 (en) 2011-09-01 2016-12-27 Samsung Electronics Co., Ltd. Apparatus and method for translation using a translation tree structure in a portable terminal
WO2019181586A3 (en) * 2018-03-20 2019-12-19 ビーエルデーオリエンタル株式会社 Member-to-member contract device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
KR20030035068A (en) * 2001-10-30 2003-05-09 (주)이도전자 A simultaneity interpreting machinery of pocket
JP2009245053A (en) * 2008-03-31 2009-10-22 Funai Electric Advanced Applied Technology Research Institute Inc Translation program, translation system, and bilingual data generation method
US9529796B2 (en) 2011-09-01 2016-12-27 Samsung Electronics Co., Ltd. Apparatus and method for translation using a translation tree structure in a portable terminal
CN104380375A (en) * 2012-03-08 2015-02-25 脸谱公司 Device for extracting information from a dialog
JP2015516587A (en) * 2012-03-08 2015-06-11 フェイスブック,インク. Devices that extract information from dialogue
US9514130B2 (en) 2012-03-08 2016-12-06 Facebook, Inc. Device for extracting information from a dialog
US10318623B2 (en) 2012-03-08 2019-06-11 Facebook, Inc. Device for extracting information from a dialog
US10606942B2 (en) 2012-03-08 2020-03-31 Facebook, Inc. Device for extracting information from a dialog
WO2019181586A3 (en) * 2018-03-20 2019-12-19 ビーエルデーオリエンタル株式会社 Member-to-member contract device
JPWO2019181586A1 (en) * 2018-03-20 2021-04-08 ビーエルデーオリエンタル株式会社 Member-to-member contract device

Also Published As

Publication number Publication date
JP3411198B2 (en) 2003-05-26

Similar Documents

Publication Publication Date Title
US7047195B2 (en) Speech translation device and computer readable medium
KR100411439B1 (en) Speech translation service method and speech translation server
US8407039B2 (en) Method and apparatus of translating language using voice recognition
KR100769029B1 (en) Method and system for voice recognition of names in multiple languages
EP0751467A2 (en) Translation apparatus and translation method
JP2002116796A (en) Voice processor and method for voice processing and storage medium
CN101137979A (en) Phrase constructor for translator
JPH08278972A (en) Speech input translation device
JP3411198B2 (en) Interpreting apparatus and method, and medium storing interpreting apparatus control program
WO2017135214A1 (en) Speech translation system, speech translation method, and speech translation program
JP2018045675A (en) Information presentation method, information presentation program and information presentation system
KR20150014235A (en) Apparatus and method for automatic interpretation
CN111916062A (en) Voice recognition method, device and system
KR19990037776A (en) Auto translation and interpretation apparatus using awareness of speech
JP2004170466A (en) Voice recognition method and electronic device
JP6110539B1 (en) Speech translation device, speech translation method, and speech translation program
JPH10320397A (en) Portable voice translation terminal
JPH08329088A (en) Speech input translation device
JP2002288170A (en) Support system for communications in multiple languages
JPH02238494A (en) Voice synthesizing device
JPH1063292A (en) Device and method for voice processing
KR20040016692A (en) The translator for portability and real time and it&#39;s method
WO2002099786A1 (en) Method and device for multimodal interactive browsing
JPH08297673A (en) Voice input translation system
JP2016151718A (en) Simple interpretation device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080320

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110320

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120320

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees