JP2758851B2 - Automatic translation device and automatic translation device - Google Patents

Automatic translation device and automatic translation device

Info

Publication number
JP2758851B2
JP2758851B2 JP7069480A JP6948095A JP2758851B2 JP 2758851 B2 JP2758851 B2 JP 2758851B2 JP 7069480 A JP7069480 A JP 7069480A JP 6948095 A JP6948095 A JP 6948095A JP 2758851 B2 JP2758851 B2 JP 2758851B2
Authority
JP
Japan
Prior art keywords
character string
translation
sentence
translation result
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP7069480A
Other languages
Japanese (ja)
Other versions
JPH08263499A (en
Inventor
享 赤峯
蔵 古瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Original Assignee
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk filed Critical Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority to JP7069480A priority Critical patent/JP2758851B2/en
Publication of JPH08263499A publication Critical patent/JPH08263499A/en
Application granted granted Critical
Publication of JP2758851B2 publication Critical patent/JP2758851B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力される原言語の発
声音声文からなる文字列を目的言語の文字列に翻訳する
自動翻訳装置、並びに、音声認識手段や音声合成手段を
さらに備えた自動通訳装置に関する。
BACKGROUND OF THE INVENTION The present invention further comprises an automatic translator for translating a character string composed of an input utterance voice sentence in a source language into a character string in a target language, as well as voice recognition means and voice synthesis means. It relates to an automatic interpreter.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】従来、
言語翻訳や対話システム等で文を生成する場合、文単位
で処理を行うことがほとんどであった(例えば、森元
逞,“自動翻訳電話の実現に向かって”,情報処理,V
ol.35,No.1,1994年1月参照)。しかし
ながら、自動通訳装置などのように入力が時系列に与え
られる場合、文単位の処理では、発話が終了するまで処
理を開始することができず、発話の伝達に遅延が生じて
しまう。その結果、以下のような問題点があった。 (1)発話間の結束性が壊れてしまう。 (2)処理時間が増加してしまう。 ユーザーが自動通訳装置を利用する理由は、通常の対話
を行うのと同程度の負担で、自分の目的を達成すること
が可能になるからである。従って、本来の目的以外の大
きな負担をユーザに与えてしまう上記の問題点を解決す
ることは、実用的な自動通訳装置の構築にとって非常に
重要である。
2. Description of the Related Art
When a sentence is generated by a language translation, a dialogue system, or the like, processing is generally performed in units of a sentence (for example, Tsuyoshi Morimoto, “Toward Realization of Automatic Translation Telephone”, Information Processing, V
ol. 35, No. 1, January 1994). However, when an input is given in chronological order as in an automatic interpreter or the like, in the processing for each sentence, the processing cannot be started until the utterance is completed, and the transmission of the utterance is delayed. As a result, there were the following problems. (1) Unity between utterances is broken. (2) The processing time increases. The reason that the user uses the automatic interpreting apparatus is that it is possible to achieve his or her own purpose with the same burden as performing a normal conversation. Accordingly, it is very important to solve the above-mentioned problem that places a great burden on the user other than the intended purpose for constructing a practical automatic interpreting apparatus.

【0003】本発明の目的は以上の問題点を解決し、従
来例に比較して短時間で翻訳することができ、しかも文
全体として意味が通るように自然な文に翻訳することが
できる自動翻訳装置及び自動通訳装置を提供することに
ある。
[0003] An object of the present invention is to solve the above problems, to perform translation in a shorter time than in the conventional example, and to translate the sentence into a natural sentence so that the whole sentence is meaningful. A translation device and an automatic translation device are provided.

【0004】[0004]

【課題を解決するための手段】本発明に係る請求項1記
載の自動翻訳装置は、入力される原言語の発声音声文か
らなる文字列を目的言語の文字列に翻訳する自動翻訳装
置において、原言語の発声音声文における複数の分割パ
ターンを予め記憶する記憶装置と、入力される原言語の
発声音声文からなる文字列を、上記記憶装置に記憶され
た複数の分割パターンを参照して、上記文字列を分割す
る原文分割手段と、上記原文分割手段によって分割され
た文字列を、分割された単位毎に目的言語の翻訳結果の
文字列に翻訳を行う部分翻訳手段と、上記入力される原
言語の発声音声文からなる文字列を分割せずに、目的言
語の翻訳結果の文字列に翻訳を行う全翻訳手段と、上記
全翻訳手段による現在の翻訳結果の文字列である第1の
文字列と、上記全翻訳手段による1つ前の翻訳結果の文
字列の後ろに上記部分翻訳手段による現在の翻訳結果の
文字列を連結してなる第2の文字列とを比較して、上記
第1の文字列と上記第2の文字列とが一致して語順が等
しい場合は上記部分翻訳手段による現在の翻訳結果の文
字列を目的言語の翻訳結果として出力し、次いで、上記
第1の文字列と、上記部分翻訳手段による現在の翻訳結
果の文字列の後ろに上記全翻訳手段による1つ前の翻訳
結果の文字列を連結してなる第3の文字列とを比較し
て、上記第1の文字列と上記第3の文字列とが一致して
語順が逆の場合は上記全翻訳手段による現在の翻訳結果
のうち冗長な表現を省略した翻訳結果を目的言語の翻訳
結果として出力する一方、上記第1の文字列と上記第3
の文字列とが一致せず語順の対応がとれない場合は上記
全翻訳手段による現在の翻訳結果を目的言語の翻訳結果
として出力する翻訳生成手段とを備えたことを特徴とす
る。
According to the present invention, there is provided an automatic translation apparatus for translating a character string composed of an input utterance voice sentence in a source language into a character string in a target language. A storage device that stores a plurality of division patterns in the source language utterance voice sentence in advance, and a character string composed of the input source language utterance voice sentence, with reference to the plurality of division patterns stored in the storage device, An original sentence dividing unit for dividing the character string, a partial translating unit for translating the character string divided by the original sentence dividing unit into a character string of a translation result of a target language for each divided unit; All translation means for translating into a character string of a translation result of a target language without dividing a character string composed of uttered speech sentences of the source language, and a first translation string which is a current translation result by the all translation means. String and all of the above The first character string is compared with the second character string obtained by concatenating the character string of the current translation result by the partial translation means after the character string of the previous translation result by the translation means. If the second character string matches and the word order is the same, the character string of the current translation result by the partial translation means is output as the translation result of the target language, and then the first character string and the partial The character string of the current translation result by the translation means is compared with the third character string obtained by concatenating the character string of the previous translation result by the all translation means, and the first character string is compared with the third character string. When the third character string matches and the word order is reversed, the translation result obtained by omitting redundant expressions from the current translation results by the all translation means is output as the translation result of the target language, while the first translation result is output. Character string and the third
And a translation generating means for outputting the current translation result by the above-mentioned all translation means as a translation result of the target language when the character strings do not match and the word order cannot be matched.

【0005】また、本発明に係る請求項2記載の自動通
訳装置は、請求項1記載の自動翻訳装置において、入力
される原言語の発声音声の音声信号に基づいて、上記発
声音声を音声認識することにより、原言語の文字列に変
換して原文分割手段に出力する音声認識手段をさらに備
えたことを特徴とする。
According to a second aspect of the present invention, there is provided an automatic translating apparatus, wherein the automatic translating apparatus recognizes the uttered voice based on an input voice signal of the source language. Thus, the apparatus further comprises a voice recognition unit that converts the character string into the source language and outputs the converted character string to the original sentence division unit.

【0006】さらに、本発明に係る請求項3記載の自動
通訳装置は、請求項2記載の自動通訳装置において、上
記翻訳生成手段から出力される目的言語の翻訳結果の文
字列を音声信号に変換して出力する音声合成手段をさら
に備えたことを特徴とする。
According to a third aspect of the present invention, there is provided an automatic interpreting apparatus for converting a character string of a translation result of a target language output from the translation generating means into a voice signal. And a speech synthesizing means for outputting the speech.

【0007】[0007]

【作用】以上のように構成された請求項1記載の自動翻
訳装置においては、上記記憶装置は、原言語の発声音声
文における複数の分割パターンを予め記憶する。そし
て、上記原文分割手段は、入力される原言語の発声音声
文からなる文字列を、上記記憶装置に記憶された複数の
分割パターンを参照して、上記文字列を分割する。次い
で、上記部分翻訳手段は、上記原文分割手段によって分
割された文字列を、分割された単位毎に目的言語の翻訳
結果の文字列に翻訳を行う一方、上記全翻訳手段は、上
記入力される原言語の発声音声文からなる文字列を分割
せずに、目的言語の翻訳結果の文字列に翻訳を行う。さ
らに、上記翻訳生成手段は、上記全翻訳手段による現在
の翻訳結果の文字列である第1の文字列と、上記全翻訳
手段による1つ前の翻訳結果の文字列の後ろに上記部分
翻訳手段による現在の翻訳結果の文字列を連結してなる
第2の文字列とを比較して、上記第1の文字列と上記第
2の文字列とが一致して語順が等しい場合は上記部分翻
訳手段による現在の翻訳結果の文字列を目的言語の翻訳
結果として出力し、次いで、上記第1の文字列と、上記
部分翻訳手段による現在の翻訳結果の文字列の後ろに上
記全翻訳手段による1つ前の翻訳結果の文字列を連結し
てなる第3の文字列とを比較して、上記第1の文字列と
上記第3の文字列とが一致して語順が逆の場合は上記全
翻訳手段による現在の翻訳結果のうち冗長な表現を省略
した翻訳結果を目的言語の翻訳結果として出力する一
方、上記第1の文字列と上記第3の文字列とが一致せず
語順の対応がとれない場合は上記全翻訳手段による現在
の翻訳結果を目的言語の翻訳結果として出力する。
In the automatic translator according to the first aspect of the present invention, the storage device stores in advance a plurality of divided patterns in the utterance voice sentence in the source language. Then, the original sentence dividing means divides the input character string including the uttered voice sentence in the source language with reference to a plurality of division patterns stored in the storage device. Next, the partial translation unit translates the character string divided by the original sentence division unit into a character string of a translation result of a target language for each divided unit, while the full translation unit inputs the character string. The translation is performed on the character string of the translation result of the target language without dividing the character string composed of the uttered voice sentence of the source language. Further, the translation generating means includes a first character string which is a character string of a current translation result by the all translation means, and a partial translation means after a character string of a previous translation result by the all translation means. Is compared with a second character string obtained by concatenating the character strings of the current translation result according to the above. If the first character string matches the second character string and the word order is the same, the partial translation is performed. Outputting the character string of the current translation result by the means as a translation result of the target language; and then adding the first character string and the character string of the current translation result by the partial translation means to the first translation by the full translation means. A third character string obtained by concatenating the character strings of the immediately preceding translation result is compared. If the first character string matches the third character string and the word order is reversed, The translation result obtained by omitting redundant expressions from the current translation results If the first character string and the third character string do not match and the word order cannot be matched, the current translation result by the all translation means is translated into the target language. Output as result.

【0008】また、本発明に係る請求項2記載の自動通
訳装置においては、上記音声認識手段は、入力される原
言語の発声音声の音声信号に基づいて、上記発声音声を
音声認識することにより、原言語の文字列に変換して原
文分割手段に出力する。
Further, in the automatic interpreting apparatus according to claim 2 of the present invention, the voice recognition means performs voice recognition of the uttered voice based on the input voice signal of the uttered voice of the source language. Is converted into a character string in the source language and output to the source sentence dividing means.

【0009】さらに、本発明に係る請求項3記載の自動
通訳装置において、上記音声合成手段は、上記翻訳生成
手段から出力される目的言語の翻訳結果の文字列を音声
信号に変換して出力する。
Further, in the automatic interpreting apparatus according to the third aspect of the present invention, the voice synthesizing means converts a character string of a translation result of a target language output from the translation generating means into a voice signal and outputs the voice signal. .

【0010】[0010]

【実施例】以下、図面を参照して本発明に係る実施例に
ついて説明する。図1に本発明に係る一実施例の自動通
訳装置のブロック図を示す。この実施例の自動通訳装置
は、入力される原言語の発声音声文からなる文字列の音
声信号を目的言語の文字列に翻訳した後、翻訳結果の文
字列を音声合成して音声信号に変換する自動通訳装置で
あって、図1に示すように、(a)入力される原言語の
発声音声を音声信号に変換するマイクロホン10と、
(b)入力される原言語の発声音声の音声信号に基づい
て、上記発声音声を音声認識することにより、原言語の
文字列に変換して原文分割手段に出力する音声認識部1
と、(c)原言語の発声音声文における複数の分割パタ
ーンを予め記憶する分割パターン記憶部7と、(d)音
声認識部1から出力される原言語の発声音声文からなる
文字列を、上記記憶手段に記憶された複数の分割パター
ンを参照して、上記文字列を分割する原文分割部2と、
(e)原文分割部2によって分割された文字列を、分割
された単位毎に目的言語の翻訳結果の文字列に翻訳を行
う部分翻訳部3と、(f)上記原言語の発声音声文から
なる文字列を分割せずに、目的言語の翻訳結果の文字列
に翻訳を行う全翻訳部4と、(g)部分翻訳部3による
翻訳結果の文字列と、全翻訳部4による翻訳結果の文字
列とを比較して、冗長な表現の省略を行うように目的言
語の翻訳結果の文字列を決定して出力する翻訳生成部5
と、(h)翻訳生成部5から出力される目的言語の翻訳
結果の文字列を記憶する出力結果記憶部8と、(i)翻
訳生成部5から出力される目的言語の翻訳結果の文字列
を音声信号に変換して出力する音声合成部6と、(j)
音声合成部6から出力される音声信号を音声に変換して
出力するスピーカ11とを備える。なお、音声認識部1
より前段の部分と、音声合成部6より後段の部分を除い
た装置は、自動翻訳装置となる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a block diagram of an automatic interpreter according to an embodiment of the present invention. The automatic interpreting apparatus of this embodiment translates a voice signal of a character string composed of an input utterance voice sentence of a source language into a character string of a target language, and then voice-synthesizes the character string resulting from the translation into a voice signal. 1. As shown in FIG. 1, a microphone 10 for converting (a) an input utterance voice of a source language into a voice signal;
(B) Speech recognition unit 1 that recognizes the uttered speech based on the input speech signal of the uttered speech in the source language, converts the uttered speech into a character string in the source language, and outputs the character string to the source sentence dividing unit.
And (c) a divided pattern storage unit 7 for storing a plurality of divided patterns in the uttered speech sentence of the source language in advance, and (d) a character string composed of the uttered speech sentence of the source language output from the speech recognition unit 1. An original sentence division unit 2 for dividing the character string by referring to a plurality of division patterns stored in the storage means;
(E) a partial translation unit 3 that translates a character string divided by the original sentence division unit 2 into a character string of a translation result of a target language for each divided unit; and (f) a utterance voice sentence in the source language. (G) the translation result of the partial translation unit 3 and the translation result of the translation result of the target language without dividing the A translation generator 5 that compares a character string and determines and outputs a character string of a translation result of a target language so as to omit redundant expressions.
(H) an output result storage unit 8 for storing a character string of the translation result of the target language output from the translation generation unit 5; and (i) a character string of the translation result of the target language output from the translation generation unit 5. Into a speech signal and output, and (j)
A speaker 11 is provided for converting an audio signal output from the audio synthesis unit 6 into audio and outputting the audio. The voice recognition unit 1
The apparatus excluding the earlier part and the part later than the speech synthesizer 6 is an automatic translation apparatus.

【0011】本実施例においては、「ホテルを予約する
際の対話」のように目的が明確な対話における英語から
日本語への翻訳を例に、同時通訳的な処理を行った際の
漸進的な文生成方式を示す。すなわち、接続詞のような
区切りとなる表現をトリガーとして、入力された発話を
句や節といった単位で英日変換し、その部分的な変換結
果の日本語表現を順次確定していきながら、文全体とし
て意味の通る自然な日本語文を生成する翻訳方法を示
す。
In this embodiment, an example is a translation from English to Japanese in a dialog having a clear purpose such as a "dialogue when making a hotel reservation", and a gradual process is performed when simultaneous interpretation is performed. Here is a simple sentence generation method. In other words, the input utterance is converted from English to Japanese in units such as phrases and clauses, using a delimiter expression such as a conjunction as a trigger, and the Japanese expression of the partial conversion result is sequentially determined while the entire sentence is determined. Here is a translation method to generate a natural Japanese sentence that makes sense.

【0012】自動通訳における、文単位の処理と漸進的
な処理との処理時間を図2に示す。発話の結束性を保
ち、処理時間を短縮させるためには、出力開始までの時
間を短縮し、かつ出力終了までの時間を短縮する必要が
ある。図2に示すように、文単位の処理では、「出力開
始までの時間=発話時間+翻訳処理時間」である。ま
た、現状の多くの翻訳装置では、処理時間は高速になっ
てきており、「発話時間≫翻訳処理時間」が成り立つ。
従って、翻訳処理時間を短縮することは、出力を開始す
るまでの時間を短縮させることにあまり寄与しない。一
方、漸進的な処理を行えば、入力の発話が終了する前
に、翻訳処理や出力を行うことで、出力開始までの時
間、及び出力終了までの時間を大幅に短縮することが可
能である。
FIG. 2 shows the processing time of the processing in units of a sentence and the stepwise processing in the automatic interpretation. In order to maintain the cohesiveness of the utterance and shorten the processing time, it is necessary to shorten the time until the output starts and the time until the output ends. As shown in FIG. 2, in the processing for each sentence, “time until output start = speech time + translation processing time”. Also, in many current translation apparatuses, the processing time is becoming faster, and “speech time≫translation processing time” is satisfied.
Therefore, shortening the translation processing time does not contribute much to shortening the time until output starts. On the other hand, if the gradual processing is performed, by performing the translation processing and the output before the utterance of the input ends, it is possible to greatly reduce the time until the output starts and the time until the output ends. .

【0013】例えば、「It is 4000yen,
if you registernext mont
h.」という文を翻訳する場合、図3に示すように、
「if」が発話された段階で、「それは4000円で
す」という翻訳を出力することで、発話開始までの時間
を短縮させることが可能である。また、最終的な翻訳結
果 「それは4000円です、あなたが来月登録すれ
ば」を出力するまでの時間も短縮できる。
For example, “It is 4000 yen,
if you registernext mont
h. Is translated, as shown in FIG.
By outputting the translation "It is 4000 yen" at the stage when "if" is uttered, it is possible to shorten the time until the start of utterance. In addition, the time required to output the final translation result "It's 4000 yen, if you register next month" can be shortened.

【0014】しかしながら、日本語と英語のように、語
順や構造が大きく異なる言語では、単純に順送りに翻訳
結果を出力するのでは、意味の通らない文を生成する可
能性が生じる。また、自動通訳のように最終的な出力を
音声とした場合、一旦出力したものを消去することがで
きないため、出力した日本語表現を自己修復する機構が
生成部に必要となる。
However, in a language such as Japanese and English having greatly different word order and structure, simply outputting the translation result in a forward order may generate a meaningless sentence. Further, when the final output is a voice, as in the case of an automatic interpreter, it is not possible to delete the output once, so a mechanism for self-repairing the output Japanese expression is required in the generation unit.

【0015】英文から漸進的に日本語対話文を生成する
ためには、従来の書き言葉の生成が対象としてきた「文
法的に適格な文」を生成するだけの能力では不十分であ
る。書き言葉では「不適格文」とされるが、日本語の対
話では、頻繁に用いられるものとして、「繰り返し」、
「倒置」等がある。本実施例においては、これらを使う
ことで生成能力を高めることを考える。以下に、「繰り
返し」と「倒置」について、簡単に説明する。
In order to progressively generate a Japanese dialogue sentence from an English sentence, the ability to generate a "grammatically qualified sentence", which has been the object of the conventional written word generation, is not sufficient. In written language, it is called "ineligible sentence", but in Japanese dialogue, "repetition"
There is "inversion" and the like. In the present embodiment, it is considered that the generation capability is enhanced by using these. Hereinafter, “repetition” and “inversion” will be briefly described.

【0016】人間の発話では、繰り返しを用いること
で、すでに言った語句に新たな情報を追加したり、不的
確な表現を訂正することがある。例えば、「電話番号
を、あなたに連絡がとれる電話番号を教えてください」
というように、「電話番号」を繰り返すことで、すでに
言った語句(「電話番号」)に対して新たな情報(「あ
なたに連絡がとれる」)を追加することができる。
In human speech, repetition may be used to add new information to an already mentioned phrase or correct an incorrect expression. For example, "Tell me a phone number and a phone number you can contact."
By repeating the "phone number", new information ("contact you") can be added to the phrase ("phone number") already mentioned.

【0017】日本語文では、「節(又は文)の主動詞
は、文末に表れなければならない」と言われる。しかし
ながら、実際の対話では、図3の翻訳結果のような語順
が倒置したものが頻繁に見られる。ここでは、この現象
を前記の繰り返しと同様の枠組で扱うために、語順が倒
置したものではなく、文の繰り返しと省略によって、生
じたものであると考える。例えば、「それは4000円
です、あなたが来月登録すれば」という文は、まず、
「それは4000円です」が条件を省略した文として生
成され、次に、この文の条件をはっきりさせるために、
条件を文末で繰り返すことによってこの文が生成された
と考える。
In a Japanese sentence, it is said that the main verb of a clause (or sentence) must appear at the end of the sentence. However, in actual dialogues, words whose word order is inverted, such as the translation result in FIG. 3, are frequently seen. Here, in order to treat this phenomenon in the same framework as the above-mentioned repetition, it is considered that the word order is not caused by inversion, but is caused by repetition and omission of a sentence. For example, the sentence "It's 4000 yen, if you register next month"
"It's 4000 yen" is generated as a sentence with the condition omitted, then to clarify the condition of this sentence,
We consider that this sentence was generated by repeating the condition at the end of the sentence.

【0018】上記の日本語対話文の特徴を生成に取り入
れ、かつ、生成文の了解性の低下を避けるために、本実
施例においては、以下のような方法で翻訳生成を行う。 (a)文の了解性の確保を確保するために、係り受けの
語順は、必ず係り元から係り先にする。 (b)係り受けの語順が逆転する場合は、その部分を繰
り返すことで文を自己修復する。 (c)出力時間を短縮するために、繰り返しにおける冗
長な表現を省略する。
In order to incorporate the features of the above-mentioned Japanese dialogue sentence into the generation and avoid a decrease in the intelligibility of the generated sentence, in this embodiment, the translation is generated by the following method. (A) In order to ensure the intelligibility of the sentence, the word order of the dependency must always be from the source to the destination. (B) When the word order of the dependency is reversed, the sentence is self-repaired by repeating the part. (C) To reduce output time, redundant expressions in repetition are omitted.

【0019】上記の翻訳生成方法を用いた自動通訳装置
のブロック図を図1に示す。図1において、原言語の発
声音声はマイクロホン10に入力されて音声信号に変換
されて音声認識部1に入力される。音声認識部1は、入
力される原言語の発声音声の音声信号に基づいて、例え
ば音素コンテキスト依存型音素隠れマルコフモデル(音
素HMM)を参照して音素照合を実行して尤度を計算
し、最尤の音声認識結果を選択して、上記発声音声を音
声認識することにより、原言語の文字列に変換して原文
分割部2に出力する。一方、分割パターン記憶部7に
は、例えば表1に示すように、原言語の発声音声文にお
ける複数の分割パターンを予め記憶する。
FIG. 1 is a block diagram of an automatic interpreter using the above-described translation generating method. In FIG. 1, an uttered voice in a source language is input to a microphone 10, converted into a voice signal, and input to a voice recognition unit 1. The speech recognition unit 1 calculates the likelihood by executing phoneme matching based on the input speech signal of the uttered speech in the source language, for example, with reference to a phoneme context-dependent phoneme hidden Markov model (phoneme HMM), By selecting the maximum likelihood speech recognition result and performing speech recognition on the uttered speech, the speech is converted into a character string in the source language and output to the source sentence division unit 2. On the other hand, the division pattern storage unit 7 previously stores a plurality of division patterns in the utterance voice sentence in the source language as shown in Table 1, for example.

【0020】[0020]

【表1】 英日翻訳のときの英文の節のパターンと、翻訳結果である日本文パターン ───────────────────────────── 節の種類 英文パターン 日本文パターン ───────────────────────────── 文頭 By the way/X ところで/X’ 文頭 no/X いいえ/X’ 並列節 X/but Y X’/しかし Y’ 従属節 X/if Y Y’ならば/X’ 従属節 if X/[CN-PRON] Y Y’ならば/X’ 引用節 X think [V-PRON]/Y X’はY’と思う 関係節 X/where Y Y’[連体]/X’ ─────────────────────────────[Table 1] English sentence patterns in English-Japanese translation and Japanese sentence patterns as translation results節 Clause type English pattern Japanese pattern ───────────────────────────── Sentence By the way / X By the way / X ' Sentence no / X No / X 'Parallel clause X / but Y X' / But Y 'Dependent clause X / if Y Y' // X 'Dependent clause if X / [CN-PRON] Y Y' / X 'Quotation section X think [V-PRON] / Y X' thinks Y 'Relative section X / where Y Y' [continuous] / X '───────────────── ────────────

【0021】ここで、/は分割点を示す。また、[CN
−PRON]は、[CN−PRON]の前の単語の品詞
が普通名詞であり、かつ、後ろの単語の品詞が代名詞で
あることを意味し、[V−PRON]は、[V−PRO
N]の前の単語の品詞が動詞であり、かつ、後ろの単語
の品詞が代名詞であることを意味する。さらに、[連
体]は、前の単語の活用形が連体形であることを意味す
る。
Here, / indicates a division point. Also, [CN
[-PRON] means that the part of speech of the word before [CN-PRON] is a common noun and the part of speech of the word after [CN-PRON] is a pronoun, and [V-PRON] means [V-PRON].
[N] means that the part of speech of the word before is a verb, and the part of speech of the word after it is a pronoun. Further, [continuous] means that the inflected form of the preceding word is a continuous form.

【0022】本実施例においては、英文を分割する単位
を、(1)意味的なまとまりがあり、英語と日本語の間
で対応が取れやすい、(2)英文に分割のための比較的
明確なマーカー(接続詞等)が現れる、という理由か
ら、節とした。また、英文を節に分割するためのパター
ンとして、用例ベースの翻訳装置で使用しているパター
ンを利用した。代表的な英文のパターンを表1に示して
いる。この英文パターンは、表層表現(「but」、
「if」等)及び品詞列の並び([CN−PRON]
等)をキーとして、文を節に分割する。なお、表1にお
いて、レベルの数字は分割の結合度の強さを示し、Xと
Yは英語表現を示し、X’とY’は英語表現X,Yにそ
れぞれ対応する日本語の訳を示す。
In the present embodiment, the unit for dividing English sentences is (1) semantically united and easy to correspond between English and Japanese, and (2) relatively clear for dividing into English sentences. Because a marker (such as a conjunction) appears, it is a clause. As a pattern for dividing an English sentence into sections, a pattern used in an example-based translation device was used. Table 1 shows typical English sentence patterns. This English sentence pattern has a surface expression ("but",
"If" etc.) and part-of-speech sequence ([CN-PRON]
) Is used as a key to divide sentences into clauses. In Table 1, the number of the level indicates the strength of the coupling degree of the division, X and Y indicate the English expressions, and X ′ and Y ′ indicate the Japanese translations corresponding to the English expressions X and Y, respectively. .

【0023】そして、原文分割部2は、音声認識部1か
ら出力される原言語の発声音声文からなる文字列を、上
記記憶手段に記憶された複数の分割パターンを参照し
て、上記文字列を適切な単位に分割する。さらに、部分
翻訳部3は、原文分割部2によって分割された文字列
を、分割された単位毎に順次、目的言語の翻訳結果の文
字列に翻訳を行う一方、全翻訳部4は、上記原言語の発
声音声文からなる文字列を分割せずに、目的言語の翻訳
結果の文字列に翻訳を行う。次いで、翻訳生成部5は、
部分翻訳部3による翻訳結果の文字列と、全翻訳部4に
よる翻訳結果の文字列とを比較して、冗長な表現の省略
を行うように、必要であれば繰り返しを行って適切な語
順で、目的言語の翻訳結果の文字列を決定して出力す
る。そして、出力記憶部8は、翻訳生成部5から出力さ
れる目的言語の翻訳結果の文字列を記憶する。また、音
声合成部6は、例えば、パルス発生器と雑音発生器と可
変増幅度増幅器とフィルタとを備えた公知の音声合成装
置で構成され、翻訳生成部5から出力される目的言語の
翻訳結果の文字列を音声信号に変換してスピーカ11に
出力して、音声に変換して出力する。
The original sentence dividing unit 2 refers to the plurality of divided patterns stored in the storage unit and converts the character string composed of the uttered speech sentence of the original language output from the speech recognizing unit 1 into the character string. Is divided into appropriate units. Further, the partial translating unit 3 translates the character string divided by the original sentence dividing unit 2 into a character string of a translation result of the target language sequentially for each divided unit. Translation into a character string of the translation result of the target language is performed without dividing the character string composed of the spoken voice sentence of the language. Next, the translation generation unit 5
The character string of the translation result by the partial translation unit 3 is compared with the character string of the translation result by the full translation unit 4, and if necessary, it is repeated so as to omit redundant expressions, and in an appropriate word order. And determine and output the character string of the translation result of the target language. The output storage unit 8 stores the character string of the translation result of the target language output from the translation generation unit 5. The speech synthesis unit 6 is configured by a known speech synthesis device including, for example, a pulse generator, a noise generator, a variable amplification amplifier, and a filter, and a translation result of a target language output from the translation generation unit 5. Is converted to an audio signal and output to the speaker 11, and then converted to audio and output.

【0024】部分翻訳部3と全翻訳部4は、例えば対訳
用例を利用した公知の対話文翻訳システムを用いて構成
することができる。このシステムでは、(「I wou
ldlike to 〜」→「〜たいのですが」)、
(「〜 for …」→「…に対する 〜」)のような
比較的細かな単位で用例を用意し、それを組み合わせる
ことで1文の変換を行うことを可能としている。
The partial translation unit 3 and the whole translation unit 4 can be configured using a known interactive sentence translation system using a bilingual example, for example. In this system, ("I wou
ldlike to ~ "→" I want to do it "),
Examples are prepared in relatively small units, such as (“for...” → “to...”), And by combining them, one sentence can be converted.

【0025】入力文SがCL1,…,CLi,…,CLj
(1≦i≦j)の節に分割された場合、以下の方法で文
を翻訳生成する。ただし、CLjは、図4に示すよう
に、現時点の入力での右端の節であり、CLiは、CLj
を含む最大の節の開始の節である。また、英語のCLの
翻訳結果をtrans(CL)とする。
When the input sentence S is CL 1 ,..., CL i ,.
When the sentence is divided into (1 ≦ i ≦ j) sections, a sentence is translated and generated by the following method. However, CL j, as shown in FIG. 4 is a right end sections of the currently input, CL i is CL j
Is the beginning clause of the largest clause containing. Also, let the translation result of the English CL be trans (CL).

【0026】部分翻訳部3と全翻訳部4と翻訳生成部5
とは、以下の示す処理を発話の終了まで繰り返す。部分
翻訳部3は、部分翻訳結果trans(CL)を求めて
翻訳生成部5に出力する一方、全翻訳部4は、全翻訳結
果trans(CLi,…,CLj)を求めて翻訳生成部
5に出力する。そして、翻訳生成部5は、図6に示す翻
訳生成処理を以下のごとく実行する。
The partial translation unit 3, the total translation unit 4, and the translation generation unit 5
Is repeated until the end of the utterance. The partial translation unit 3 obtains a partial translation result trans (CL) and outputs it to the translation generation unit 5, while the full translation unit 4 obtains a full translation result trans (CL i ,..., CL j ). 5 is output. Then, the translation generation unit 5 executes the translation generation processing shown in FIG. 6 as follows.

【0027】まず、ステップS1において、翻訳結果t
rans(CLj)が翻訳結果trans(CLi,…,
CLj)と等しいか否か判断され、等しい場合、すなわ
ち、i=jの場合、ステップS11において、翻訳結果
trans(CLi,…,CLj)を翻訳結果として出力
して当該翻訳生成処理を終了する。一方、ステップS1
でi≠jの場合、ステップS2において、翻訳結果tr
ans(CLi,…,CLj-1)・trans(CLj
が翻訳結果(CLi,…,CLj)と等しいか否かが判断
され、等しい場合、すなわち語順が等しい場合、ステッ
プS12において、翻訳結果trans(CLj)を翻
訳結果として出力して当該翻訳生成処理を終了する。一
方、ステップS2で語順が異なる場合、ステップS3に
おいて、翻訳結果trans(CLj)・trans
(CLi,…,CLj-1)が翻訳結果trans(C
i,…,CLj)と等しいか否かが判断され、等しい場
合、すなわち語順が逆の場合、ステップS13におい
て、翻訳結果trans(CLi,…,CLj)を翻訳結
果として、繰り返しの共通部分(冗長な表現)を省略し
て出力して当該翻訳生成処理を終了する。一方、ステッ
プS3で等しくない場合、翻訳結果trans(C
i,…,CLj)を翻訳結果として出力して当該翻訳生
成処理を終了する。
First, in step S1, the translation result t
trans (CL j ) is the translation result trans (CL i ,...,
CL j ), and in the case of being equal, ie, i = j, in step S11, the translation result trans (CL i ,..., CL j ) is output as the translation result, and the translation generation processing is performed. finish. On the other hand, step S1
If i ≠ j, the translation result tr is obtained in step S2.
ans (CL i ,..., CL j−1 ) · trans (CL j )
Is determined to be equal to the translation result (CL i ,..., CL j ). If so, in step S12, the translation result trans (CL j ) is output as the translation result and the translation is performed. The generation processing ends. On the other hand, if the word order is different in step S2, in step S3, the translation result trans (CL j ) · trans
(CL i ,..., CL j-1 ) is the translation result trans (C
L i, ..., whether CL j) equal or not. If equal, that is, when the word order is reversed, in step S13, the translation results trans (CL i, ..., as a translation result CL j), repeating the The common part (redundant expression) is omitted and output, and the translation generation process ends. On the other hand, if they are not equal in step S3, the translation result trans (C
L i ,..., CL j ) are output as translation results, and the translation generation processing ends.

【0028】次いで、翻訳処理の一例について説明す
る。「Could I have your tele
phone number where I can
contact you?」という文を例にとり、翻
訳処理の流れを図5に示す。まず、「Could I
have your telephone numbe
r where」と入力された段階で、「X whe
re Y」という節のパターンにマッチし、原文分割部
2により節に分割される。部分翻訳部3及び全翻訳部4
により部分翻訳及び全翻訳が行われ(図5の左部分)、
この例では、部分翻訳結果と全翻訳結果が等しいので、
翻訳生成部5は、全翻訳結果の「電話番号を教えて下さ
い」を出力する。次いで、文末まで入力されると、部分
翻訳部3が「I can contact you」の
部分を翻訳し、全翻訳部4がその節を含む最大の節(つ
まり、全文)を翻訳する(図5の右部分)。この場合、
語順が逆になっているため、翻訳生成部5は、全翻訳結
果を翻訳結果とし、共通部分を省略するので、「私があ
なたに連絡がとれる」を出力する。
Next, an example of the translation process will be described. "Cold I have your tele
phone number where I can
contact you? FIG. 5 shows the flow of the translation process, taking the sentence "as an example. First, "Cold I
have your telephone number
r where "is input, and" X where
The original sentence division unit 2 matches the pattern of the section “re Y”. Partial translation unit 3 and full translation unit 4
Performs partial translation and full translation (left part in FIG. 5),
In this example, the partial translation result and the full translation result are equal,
The translation generation unit 5 outputs “Tell me the telephone number” of all the translation results. Next, when the sentence is inputted to the end of the sentence, the partial translator 3 translates the part of “I can contact you”, and the all translator 4 translates the largest clause including the clause (that is, the whole sentence) (FIG. 5). Right part). in this case,
Since the word order is reversed, the translation generation unit 5 outputs "I can contact you" because the entire translation result is the translation result and the common part is omitted.

【0029】以上の説明したように、英日翻訳を例に、
同時通訳的な処理を行った際の漸進的な文生成方法を示
した。この方法を用いることで、翻訳結果の出力開始ま
での時間を大幅に短縮することができることを示した。
本発明に係る本実施例の自動通訳装置は、同時通訳的な
翻訳処理を行うことにより、(1)ユーザが通訳処理に
よる発話の伝達の遅延のない対話を行うことができる、
(2)ユーザが短時間で対話の目的を遂行できる、とい
う効果がある。
As described above, taking an English-Japanese translation as an example,
This paper shows a gradual sentence generation method when performing simultaneous interpretation. By using this method, it was shown that the time until the start of output of the translation result can be greatly reduced.
The automatic interpreting apparatus of the present embodiment according to the present invention can perform (1) a user's conversation without delay in transmission of an utterance by the interpreting process by performing the simultaneous interpreting translation process.
(2) There is an effect that the user can accomplish the purpose of the conversation in a short time.

【0030】以上の実施例においては、英語から日本語
への翻訳について説明しているが、本発明はこれに限ら
ず、日本語からから英語への翻訳、互いに異なる2つの
言語間での翻訳に適用することができる。
In the above embodiments, the translation from English to Japanese has been described. However, the present invention is not limited to this, and the translation from Japanese to English and translation between two different languages are possible. Can be applied to

【0031】なお、以上の実施例における、音声認識部
1と、原文分割部2と、部分翻訳部3と、全翻訳部4
と、翻訳生成部5と、音声合成部6とは、例えばディジ
タル計算機によって構成される。
In the above embodiment, the speech recognition unit 1, the original sentence division unit 2, the partial translation unit 3, and the full translation unit 4
The translation generation unit 5 and the speech synthesis unit 6 are constituted by, for example, a digital computer.

【0032】以上の実施例においては、原文である英文
を分割する単位を節を用いているが、本発明はこれに限
らず、原言語の文を分割する単位として、単語や句や節
など任意の単位、及び、それらの組み合わせであっても
よい。
In the above embodiment, a unit is used as a unit for dividing an English sentence as an original sentence. However, the present invention is not limited to this. Any unit and a combination thereof may be used.

【0033】[0033]

【発明の効果】以上詳述したように本発明に係る請求項
1記載の自動翻訳装置によれば、入力される原言語の発
声音声文からなる文字列を目的言語の文字列に翻訳する
自動翻訳装置において、原言語の発声音声文における複
数の分割パターンを予め記憶する記憶装置と、入力され
る原言語の発声音声文からなる文字列を、上記記憶装置
に記憶された複数の分割パターンを参照して、上記文字
列を分割する原文分割手段と、上記原文分割手段によっ
て分割された文字列を、分割された単位毎に目的言語の
翻訳結果の文字列に翻訳を行う部分翻訳手段と、上記入
力される原言語の発声音声文からなる文字列を分割せず
に、目的言語の翻訳結果の文字列に翻訳を行う全翻訳手
段と、上記全翻訳手段による現在の翻訳結果の文字列で
ある第1の文字列と、上記全翻訳手段による1つ前の翻
訳結果の文字列の後ろに上記部分翻訳手段による現在の
翻訳結果の文字列を連結してなる第2の文字列とを比較
して、上記第1の文字列と上記第2の文字列とが一致し
て語順が等しい場合は上記部分翻訳手段による現在の翻
訳結果の文字列を目的言語の翻訳結果として出力し、次
いで、上記第1の文字列と、上記部分翻訳手段による現
在の翻訳結果の文字列の後ろに上記全翻訳手段による1
つ前の翻訳結果の文字列を連結してなる第3の文字列と
を比較して、上記第1の文字列と上記第3の文字列とが
一致して語順が逆の場合は上記全翻訳手段による現在の
翻訳結果のうち冗長な表現を省略した翻訳結果を目的言
語の翻訳結果として出力する一方、上記第1の文字列と
上記第3の文字列とが一致せず語順の対応がとれない場
合は上記全翻訳手段による現在の翻訳結果を目的言語の
翻訳結果として出力する翻訳生成手段とを備える。従っ
て、従来例に比較して短時間で翻訳することができ、し
かも文全体として意味が通るように自然な文に翻訳する
ことができる。
As described above in detail, according to the automatic translation apparatus of the first aspect of the present invention, an automatic translation for translating a character string composed of an input utterance voice sentence of a source language into a character string of a target language. In the translation device, a storage device that stores a plurality of division patterns in the utterance voice sentence of the source language in advance, and a character string composed of the input utterance voice sentence of the source language is converted into the plurality of division patterns stored in the storage device. An original sentence dividing unit that divides the character string, a partial translation unit that translates the character string divided by the original sentence dividing unit into a character string of a translation result of a target language for each divided unit, All the translation means for translating into the character string of the translation result of the target language without dividing the character string composed of the input utterance voice sentence of the source language, and the character string of the current translation result by the all translation means. A certain first string Comparing the character string of the previous translation result by the full translation means with a second character string obtained by concatenating the character string of the current translation result by the partial translation means, If the character string matches the second character string and the word order is the same, the character string of the current translation result by the partial translation means is output as the translation result of the target language. After the character string of the current translation result by the partial translation means,
A third character string obtained by concatenating the character strings of the immediately preceding translation result is compared. If the first character string matches the third character string and the word order is reversed, The translation result obtained by omitting redundant expressions from the current translation results by the translation means is output as the translation result of the target language, while the first character string does not match the third character string, and the word order is not matched. A translation generating unit that outputs a current translation result of the all translation unit as a translation result of a target language when the translation result cannot be obtained. Therefore, the translation can be performed in a shorter time than in the conventional example, and furthermore, the sentence can be translated into a natural sentence so that the entire sentence makes sense.

【0034】また、本発明に係る請求項2記載の自動通
訳装置によれば、請求項1記載の自動翻訳装置におい
て、入力される原言語の発声音声の音声信号に基づい
て、上記発声音声を音声認識することにより、原言語の
文字列に変換して原文分割手段に出力する音声認識手段
をさらに備える。従って、この自動通訳装置によれば、
相手が発する発声音声を翻訳して、同時通訳的な翻訳処
理を行うことができ、これにより、(1)ユーザが通訳
処理による発話の伝達の遅延のない対話を行うことがで
きる、(2)ユーザが短時間で対話の目的を遂行でき
る、という特有の効果がある。
[0034] According to the automatic translating apparatus according to the second aspect of the present invention, in the automatic translating apparatus according to the first aspect, the utterance speech is input based on the input speech signal of the source language utterance. The apparatus further includes a voice recognition unit that converts the data into a character string in the source language by voice recognition and outputs the converted character string to the source sentence division unit. Therefore, according to this automatic interpreter,
It is possible to translate the uttered voice uttered by the other party and perform a translation process of simultaneous interpretation, whereby (1) the user can perform a conversation without delay in transmission of the utterance by the translation process, (2) There is a unique effect that the user can accomplish the purpose of the conversation in a short time.

【0035】さらに、本発明に係る請求項3記載の自動
通訳装置によれば、請求項2記載の自動通訳装置におい
て、上記翻訳生成手段から出力される目的言語の翻訳結
果の文字列を音声信号に変換して出力する音声合成手段
をさらに備える。従って、この自動通訳装置によれば、
相手が発する発声音声を翻訳して音声合成して、同時通
訳的な翻訳処理を行うことができ、これにより、(1)
ユーザが通訳処理による発話の伝達の遅延のない対話を
行うことができる、(2)ユーザが短時間で対話の目的
を遂行できる、という特有の効果がある。
According to a third aspect of the present invention, there is provided the automatic interpreting apparatus according to the second aspect, wherein the character string of the translation result of the target language output from the translation generating means is converted into an audio signal. And a voice synthesizing means for converting the output into a speech. Therefore, according to this automatic interpreter,
It is possible to translate the uttered voice uttered by the other party, synthesize the voice, and perform a simultaneous interpreting translation process.
There is a specific effect that the user can perform a dialogue without delay in transmission of the utterance by the interpreting process, and (2) the user can achieve the purpose of the dialogue in a short time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施例である自動通訳装置の
ブロック図である。
FIG. 1 is a block diagram of an automatic interpreting apparatus according to an embodiment of the present invention.

【図2】 文単位処理方式と漸進的処理方式における処
理時間の違いを示す図である。
FIG. 2 is a diagram illustrating a difference in processing time between a sentence unit processing method and a progressive processing method.

【図3】 漸進的処理方式を用いた翻訳の一例を示す図
である。
FIG. 3 is a diagram showing an example of translation using a progressive processing method.

【図4】 図1の翻訳生成部における節の処理を示す図
である。
FIG. 4 is a diagram illustrating processing of a clause in a translation generation unit in FIG. 1;

【図5】 図1の自動通訳装置における関係節の翻訳過
程を示す図である。
FIG. 5 is a diagram showing a translation process of a relative clause in the automatic interpreting apparatus of FIG. 1;

【図6】 図1の翻訳生成部によって実行される翻訳生
成処理を示すフローチャートである。
FIG. 6 is a flowchart illustrating a translation generation process executed by the translation generation unit of FIG. 1;

【符号の説明】[Explanation of symbols]

1…音声認識部、 2…原文分割部、 3…部分翻訳部、 4…全翻訳部、 5…翻訳生成部、 6…音声合成部、 7…分割パターン記憶部、 8…出力結果記憶部、 10…マイクロホン、 11…スピーカ。 DESCRIPTION OF SYMBOLS 1 ... Voice recognition part, 2 ... Original sentence division part, 3 ... Partial translation part, 4 ... Full translation part, 5 ... Translation generation part, 6 ... Speech synthesis part, 7 ... Division pattern storage part, 8 ... Output result storage part, 10: microphone, 11: speaker.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−61905(JP,A) 特開 平5−151256(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06F 17/28 G10L 3/00────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-5-61905 (JP, A) JP-A-5-151256 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06F 17/28 G10L 3/00

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力される原言語の発声音声文からなる
文字列を目的言語の文字列に翻訳する自動翻訳装置にお
いて、 原言語の発声音声文における複数の分割パターンを予め
記憶する記憶装置と、 入力される原言語の発声音声文からなる文字列を、上記
記憶装置に記憶された複数の分割パターンを参照して、
上記文字列を分割する原文分割手段と、 上記原文分割手段によって分割された文字列を、分割さ
れた単位毎に目的言語の翻訳結果の文字列に翻訳を行う
部分翻訳手段と、 上記入力される原言語の発声音声文からなる文字列を分
割せずに、目的言語の翻訳結果の文字列に翻訳を行う全
翻訳手段と、 上記全翻訳手段による現在の翻訳結果の文字列である第
1の文字列と、上記全翻訳手段による1つ前の翻訳結果
の文字列の後ろに上記部分翻訳手段による現在の翻訳結
果の文字列を連結してなる第2の文字列とを比較して、
上記第1の文字列と上記第2の文字列とが一致して語順
が等しい場合は上記部分翻訳手段による現在の翻訳結果
の文字列を目的言語の翻訳結果として出力し、次いで、
上記第1の文字列と、上記部分翻訳手段による現在の翻
訳結果の文字列の後ろに上記全翻訳手段による1つ前の
翻訳結果の文字列を連結してなる第3の文字列とを比較
して、上記第1の文字列と上記第3の文字列とが一致し
て語順が逆の場合は上記全翻訳手段による現在の翻訳結
果のうち冗長な表現を省略した翻訳結果を目的言語の翻
訳結果として出力する一方、上記第1の文字列と上記第
3の文字列とが一致せず語順の対応がとれない場合は上
記全翻訳手段による現在の翻訳結果を目的言語の翻訳結
果として出力する翻訳生成手段とを備えたことを特徴と
する自動翻訳装置。
1. An automatic translator for translating a character string composed of an input utterance voice sentence in a source language into a character string in a target language, comprising: a storage device for storing in advance a plurality of divided patterns in the source language utterance voice sentence; A character string composed of an input utterance voice sentence in a source language is referred to by referring to a plurality of divided patterns stored in the storage device,
An original sentence dividing unit for dividing the character string; a partial translation unit for translating the character string divided by the original sentence dividing unit into a character string of a translation result of a target language for each divided unit; All translation means for translating a character string composed of the utterance voice sentence of the source language into a character string of a translation result of the target language without dividing the character string; Comparing the character string with a second character string obtained by concatenating the character string of the current translation result by the partial translation means after the character string of the previous translation result by the all translation means,
When the first character string matches the second character string and the word order is the same, the character string of the current translation result by the partial translation means is output as the translation result of the target language,
The first character string is compared with a third character string obtained by concatenating the character string of the current translation result by the partial translation means with the character string of the previous translation result by the all translation means. If the first character string and the third character string match and the word order is reversed, the translation result obtained by omitting redundant expressions from the current translation results by the all translation means is converted to the target language. While outputting as a translation result, if the first character string does not match the third character string and the word order cannot be matched, the current translation result by the all translation means is output as the translation result of the target language. An automatic translation device, comprising:
【請求項2】 請求項1記載の自動翻訳装置において、 入力される原言語の発声音声の音声信号に基づいて、上
記発声音声を音声認識することにより、原言語の文字列
に変換して原文分割手段に出力する音声認識手段をさら
に備えたことを特徴とする自動通訳装置。
2. The automatic translation apparatus according to claim 1, wherein said uttered voice is speech-recognized on the basis of an input speech signal of the uttered voice in the source language to convert it into a character string in the source language. An automatic interpreting apparatus, further comprising a voice recognition means for outputting to a dividing means.
【請求項3】 請求項2記載の自動通訳装置において、 上記翻訳生成手段から出力される目的言語の翻訳結果の
文字列を音声信号に変換して出力する音声合成手段をさ
らに備えたことを特徴とする自動通訳装置。
3. The automatic interpreting apparatus according to claim 2, further comprising a voice synthesizing means for converting a character string of a translation result of the target language output from said translation generating means into a voice signal and outputting the voice signal. Automatic interpreter.
JP7069480A 1995-03-28 1995-03-28 Automatic translation device and automatic translation device Expired - Fee Related JP2758851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7069480A JP2758851B2 (en) 1995-03-28 1995-03-28 Automatic translation device and automatic translation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7069480A JP2758851B2 (en) 1995-03-28 1995-03-28 Automatic translation device and automatic translation device

Publications (2)

Publication Number Publication Date
JPH08263499A JPH08263499A (en) 1996-10-11
JP2758851B2 true JP2758851B2 (en) 1998-05-28

Family

ID=13403910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7069480A Expired - Fee Related JP2758851B2 (en) 1995-03-28 1995-03-28 Automatic translation device and automatic translation device

Country Status (1)

Country Link
JP (1) JP2758851B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117920A (en) * 1999-10-15 2001-04-27 Sony Corp Device and method for translation and recording medium
JP2005202884A (en) * 2004-01-19 2005-07-28 Toshiba Corp Transmission device, reception device, relay device, and transmission/reception system
KR101301535B1 (en) 2009-12-02 2013-09-04 한국전자통신연구원 Hybrid translation apparatus and its method
JP5058280B2 (en) 2010-03-12 2012-10-24 シャープ株式会社 Translation apparatus, translation method, and computer program
JP6470097B2 (en) 2015-04-22 2019-02-13 株式会社東芝 Interpreting device, method and program
JP2017167805A (en) 2016-03-16 2017-09-21 株式会社東芝 Display support device, method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561905A (en) * 1991-08-30 1993-03-12 Agency Of Ind Science & Technol Sentence analyzing device
JPH05151256A (en) * 1991-11-29 1993-06-18 Hitachi Ltd Machine translation method and its system

Also Published As

Publication number Publication date
JPH08263499A (en) 1996-10-11

Similar Documents

Publication Publication Date Title
JP3323519B2 (en) Text-to-speech converter
US8224645B2 (en) Method and system for preselection of suitable units for concatenative speech
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
JP4473193B2 (en) Mixed language text speech synthesis method and speech synthesizer
JP2000353161A (en) Method and device for controlling style in generation of natural language
JP2001502828A (en) Method and apparatus for translating between languages
KR20060043825A (en) Generating large units of graphonemes with mutual information criterion for letter to sound conversion
WO2000058943A1 (en) Speech synthesizing system and speech synthesizing method
US6477495B1 (en) Speech synthesis system and prosodic control method in the speech synthesis system
JP2758851B2 (en) Automatic translation device and automatic translation device
JP3059398B2 (en) Automatic interpreter
Kayte et al. Implementation of Marathi Language Speech Databases for Large Dictionary
Bulyko et al. Efficient integrated response generation from multiple targets using weighted finite state transducers
US6772116B2 (en) Method of decoding telegraphic speech
JP3576066B2 (en) Speech synthesis system and speech synthesis method
JP3518340B2 (en) Reading prosody information setting method and apparatus, and storage medium storing reading prosody information setting program
JP2004252121A (en) Language processing apparatus and language processing method, and program and recording medium
JP2001117752A (en) Information processor, information processing method and recording medium
JPH05134691A (en) Method and apparatus for speech synthesis
JP2001013992A (en) Voice understanding device
JP2817406B2 (en) Continuous speech recognition method
JP2941168B2 (en) Speech synthesis system
JP2001249678A (en) Device and method for outputting voice, and recording medium with program for outputting voice
JP3121530B2 (en) Voice recognition device
JPH07175496A (en) Device for generating sentence

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees