JPH0934895A - Translation system - Google Patents

Translation system

Info

Publication number
JPH0934895A
JPH0934895A JP7178623A JP17862395A JPH0934895A JP H0934895 A JPH0934895 A JP H0934895A JP 7178623 A JP7178623 A JP 7178623A JP 17862395 A JP17862395 A JP 17862395A JP H0934895 A JPH0934895 A JP H0934895A
Authority
JP
Japan
Prior art keywords
translation
language
voice
common
translator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7178623A
Other languages
Japanese (ja)
Inventor
Kazuo Ishii
和夫 石井
Koji Asano
康治 浅野
Hiroaki Ogawa
浩明 小川
Yasuhiko Kato
靖彦 加藤
Tetsuya Kagami
徹也 加賀美
Masao Watari
雅男 渡
Makoto Akaha
誠 赤羽
Miyuki Tanaka
幸 田中
Hiroshi Tsunoda
弘史 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP7178623A priority Critical patent/JPH0934895A/en
Publication of JPH0934895A publication Critical patent/JPH0934895A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply configure the translation system among multi-languages at a low cost by translating a prescribed language inputted in each translation device into a common language and sending the translation result into the common language to other translation device. SOLUTION: Upon receipt of a voice in a language A, a voice recognition section 201 recognizes the voice and provides an output of the voice recognition result to a translation section 202. Then the translation section 202 translates the voice recognition result for the voice in the language A into a language C used in common for all voice translation devices 200, 210, and provides the result of translation to a MODEM 205. Furthermore, the MODEM 205 sends the translation result into the common language C to other voice translation device 210 other than the voice translation device 200 via a radio channel or a wired line. Moreover, the MODEM 205 receives the translation result into the common language C and gives it to the translation section 204. Then the translation section 204 translates the translation result into the common language from the MODEM 205 into the language A and provides an output of the translation result to a voice synthesis section 203.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、翻訳システムに関
する。特に、所定の言語を、ある共通の言語(共通言
語)に翻訳するようにすることにより、多くの言語間の
翻訳を容易に行うことができるようにした翻訳システム
に関する。
TECHNICAL FIELD The present invention relates to a translation system. In particular, the present invention relates to a translation system in which a predetermined language is translated into a certain common language (common language) so that translation between many languages can be easily performed.

【0002】[0002]

【従来の技術】図7は、従来の翻訳システム(音声翻訳
システム)の一例の構成を示している。この翻訳システ
ムにおいては、入力された音声が、他の言語に翻訳さ
れ、その翻訳結果が合成音で出力されるようになされて
いる。
2. Description of the Related Art FIG. 7 shows an example of the configuration of a conventional translation system (speech translation system). In this translation system, the input voice is translated into another language, and the translation result is output as a synthetic voice.

【0003】即ち、この翻訳システムは、言語Aを言語
Bに翻訳する音声翻訳器100と、その逆に、言語Bを
言語Aに翻訳する音声翻訳器110とから構成されてい
る。また、音声翻訳器100または110は、音声認識
部201、翻訳部102、および音声合成部213、ま
たは音声認識部211、翻訳部112、および音声合成
部203からそれぞれ構成されている。なお、以下、適
宜、言語Xを言語Yに翻訳する翻訳器を、X/Y翻訳器
という。
That is, this translation system is composed of a speech translator 100 for translating a language A into a language B and, conversely, a speech translator 110 for translating a language B into a language A. The voice translator 100 or 110 is composed of a voice recognition unit 201, a translation unit 102, and a voice synthesis unit 213, or a voice recognition unit 211, a translation unit 112, and a voice synthesis unit 203, respectively. In the following, a translator that translates a language X into a language Y will be referred to as an X / Y translator.

【0004】言語Aを発話するユーザ(言語Aのユー
ザ)により発せられた音声(言語Aの音声)は、音声認
識部201に入力され、そこで音声認識される。音声認
識部201による音声認識結果は、翻訳部102に供給
され、そこで言語Bに翻訳される。言語Bへの翻訳結果
は、音声合成部213に供給され、そこで、言語Bへの
翻訳結果に対応する合成音が生成されて出力される。言
語Bのユーザは、以上のようにして音声合成部213か
ら出力される言語Bの合成音を聴いて、言語Aのユーザ
の発話内容を理解する。
Speech (speech of language A) uttered by a user who speaks language A (speech of language A) is input to speech recognition unit 201 and is recognized there. The voice recognition result by the voice recognition unit 201 is supplied to the translation unit 102, where it is translated into the language B. The translation result into the language B is supplied to the speech synthesis unit 213, where a synthesized sound corresponding to the translation result into the language B is generated and output. The user of the language B understands the utterance content of the user of the language A by listening to the synthesized sound of the language B output from the speech synthesis unit 213 as described above.

【0005】一方、言語Bのユーザにより発せられた音
声(言語Bの音声)は、音声認識部211に入力され、
そこで音声認識される。音声認識部211による音声認
識結果は、翻訳部112に供給され、そこで言語Aに翻
訳される。言語Aへの翻訳結果は、音声合成部203に
供給され、そこで、言語Aへの翻訳結果に対応する合成
音が生成されて出力される。言語Aのユーザは、以上の
ようにして音声合成部203から出力される言語Aの合
成音を聴いて、言語Bのユーザの発話内容を理解する。
On the other hand, the voice uttered by the user of language B (the voice of language B) is input to the voice recognition unit 211,
There it is voice recognized. The voice recognition result by the voice recognition unit 211 is supplied to the translation unit 112, where it is translated into the language A. The translation result into the language A is supplied to the speech synthesis unit 203, where a synthesized voice corresponding to the translation result into the language A is generated and output. The user of the language A understands the utterance content of the user of the language B by listening to the synthesized sound of the language A output from the speech synthesis unit 203 as described above.

【0006】なお、図7の翻訳システムは、音声翻訳器
100および110を一体化することで、言語Aから
B、およびBからAへの双方向で翻訳を行うことができ
るようになされているが、これらは、それぞれ別々の装
置として構成することが可能である。また、翻訳結果
は、合成音で出力する他、CRTやLCDなどに表示す
るようにすることが可能である。
The translation system shown in FIG. 7 integrates the speech translators 100 and 110 so that it can translate bidirectionally from languages A to B and from B to A. However, they can be configured as separate devices. Further, the translation result can be displayed on a CRT, LCD or the like in addition to being output as a synthetic sound.

【0007】[0007]

【発明が解決しようとする課題】ところで、言語Aのユ
ーザと言語Bのユーザとの間で会話をする場合には、例
えば言語Aのユーザが使用するA/B音声翻訳器100
に注目すれば、言語AからBへの翻訳を行う翻訳部10
2があれば足りる。しかしながら、さらに、その他の言
語のユーザも加わって会話を行う場合には、言語Aと、
それ以外のすべての言語との組み合わせの数だけの翻訳
部が必要となり、音声翻訳器100が大型化する課題が
あった。
When a user of language A and a user of language B have a conversation, for example, the A / B speech translator 100 used by the user of language A is used.
Focusing on, the translation unit 10 that translates from language A to B
2 is enough. However, in addition, if a user of another language joins and conducts a conversation,
There is a problem that the speech translation unit 100 becomes large in size because translation units are required for the number of combinations with all other languages.

【0008】さらに、この場合、翻訳に際して、各言語
間の翻訳のための規則や辞書などが必要となるが、これ
を、多くの言語間について作成することは、容易ではな
く、また、莫大な工数がかかるため、システムが高コス
ト化する課題があった。
Further, in this case, when translating, rules and dictionaries for translating each language are required, but it is not easy to create this for many languages, and it is enormous. Since it takes man-hours, there is a problem that the cost of the system increases.

【0009】本発明は、このような状況に鑑みてなされ
たものであり、多言語間の翻訳を容易に行うことができ
るようにするものである。
The present invention has been made in view of such a situation, and makes it possible to easily perform translation between multiple languages.

【0010】[0010]

【課題を解決するための手段】本発明の翻訳システム
は、複数の翻訳器を備える翻訳システムであって、翻訳
器が、入力された所定の言語を、ある共通言語に翻訳す
る第1の翻訳手段と、第1の翻訳手段による共通言語へ
の翻訳結果を、他の翻訳器に送信する送信手段と、他の
翻訳器から送信されてくる共通言語への翻訳結果を、所
定の言語に翻訳する第2の翻訳手段と、第2の翻訳手段
による所定の言語への翻訳結果を出力する出力手段とを
有することを特徴とする。
A translation system according to the present invention is a translation system comprising a plurality of translators, and the translator translates an input predetermined language into a certain common language. Means and a transmitting means for transmitting the translation result to the common language by the first translation means to another translator, and the translation result to the common language transmitted from the other translator to a predetermined language It is characterized in that it has a second translation means for performing the above, and an output means for outputting a translation result into a predetermined language by the second translation means.

【0011】この翻訳システムにおいては、所定の言語
が、共通言語であるとき、翻訳器を、第1および第2の
翻訳手段を除いて構成し、送信手段には、入力された所
定の言語をそのまま、他の翻訳器に送信させ、出力手段
には、他の翻訳器から送信されてくる共通言語への翻訳
結果をそのまま出力させることができる。共通言語は、
自然言語とすることができる。また、共通言語は、英語
とすることができる。翻訳器は、入力された音声を音声
認識する音声認識手段をさらに有することができ、この
場合、第1の翻訳手段には、音声認識手段による音声認
識結果を翻訳させることができる。
In this translation system, when the predetermined language is a common language, the translator is configured by excluding the first and second translation means, and the transmission means receives the input predetermined language. It is possible to cause another output device to transmit the translation result as it is, and to the output means to output the translation result to the common language transmitted from the other translation device as it is. The common language is
It can be natural language. Also, the common language can be English. The translator can further include a voice recognition unit that recognizes the input voice by voice, and in this case, the first translation unit can translate the voice recognition result by the voice recognition unit.

【0012】共通言語が2種類ある場合において、第1
の翻訳手段が、所定の言語を、一方の共通言語に翻訳
し、第2の翻訳手段が、一方の共通言語を、所定の言語
に翻訳する翻訳器どうしが接続されて第1のネットワー
クを構成し、第1の翻訳手段が、所定の言語を、他方の
共通言語に翻訳し、第2の翻訳手段が、他方の共通言語
を、所定の言語に翻訳する翻訳器どうしが接続されて第
2のネットワークを構成しているとき、第1および第2
のネットワークは、第1の翻訳手段が、一方の共通言語
を、他方の共通言語に翻訳し、第2の翻訳手段が、他方
の共通言語を、一方の共通言語に翻訳する翻訳器をゲー
トウェイとして接続することができる。
When there are two common languages, the first
Translation means translates a predetermined language into one common language, and the second translation means translates one common language into a predetermined language. The translators are connected to each other to form a first network. The first translation means translates the predetermined language into the other common language, and the second translation means translates the other common language into the predetermined language. First and second when configuring the network of
In the network, the first translation means translates one common language into the other common language, and the second translation means uses the translator that translates the other common language into one common language as a gateway. Can be connected.

【0013】上記構成の翻訳システムにおいては、複数
の翻訳器が備えられており、各翻訳器では、第1の翻訳
手段は、入力された所定の言語を、ある共通言語に翻訳
し、送信手段は、第1の翻訳手段による共通言語への翻
訳結果を、他の翻訳器に送信するようになさている。第
2の翻訳手段は、他の翻訳器から送信されてくる共通言
語への翻訳結果を、所定の言語に翻訳し、出力手段は、
第2の翻訳手段による所定の言語への翻訳結果を出力す
るようになされている。
The translation system having the above-mentioned configuration is provided with a plurality of translators. In each translator, the first translation means translates the input predetermined language into a certain common language, and the transmission means. Is adapted to transmit the result of translation into the common language by the first translation means to another translator. The second translation means translates the translation result to the common language transmitted from another translator into a predetermined language, and the output means
The result of translation into a predetermined language by the second translation means is output.

【0014】[0014]

【発明の実施の形態】図1は、本発明を適用した音声翻
訳システムの一実施例の構成を示している。なお、図
中、図7における場合と対応する部分については、同一
の符号を付してある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the configuration of an embodiment of a speech translation system to which the present invention is applied. In the figure, the same reference numerals are given to portions corresponding to the case in FIG.

【0015】この音声翻訳システムは、音声翻訳器20
0および210の2つの音声翻訳器で構成されており、
両者の間では、通信を行うことができるようになされて
いる。
This speech translation system includes a speech translator 20.
It consists of two voice translators, 0 and 210,
Communication is possible between the two parties.

【0016】音声翻訳器200は、音声認識部201、
翻訳部202、音声合成部203、翻訳部204、およ
びモデム205から構成されている。音声認識部201
は、そこに言語Aの音声が入力されると、その音声を認
識して、その音声認識結果を翻訳部202に出力するよ
うになされている。なお、音声認識部201では(後述
する音声認識部についても同様)、例えばHMM(Hidd
en Markov Model)法にしたがって音声認識が行われる
ようになされている。但し、音声認識処理に用いる音声
認識アルゴリズムは、HMM法に限定されるものではな
い。
The voice translator 200 includes a voice recognition unit 201,
The translation unit 202, the voice synthesis unit 203, the translation unit 204, and the modem 205 are included. Voice recognition unit 201
When the voice of the language A is input thereto, the voice recognizes the voice and outputs the voice recognition result to the translation unit 202. In the voice recognition unit 201 (the same applies to the voice recognition unit described later), for example, HMM (Hidd
en Markov Model) speech recognition is performed according to the method. However, the voice recognition algorithm used for the voice recognition processing is not limited to the HMM method.

【0017】翻訳部202は、音声認識部201より出
力される、言語Aの音声の音声認識結果(言語Aの音声
認識結果)を、すべての音声翻訳器(この実施例では、
音声翻訳器200および210)で共通に用いる言語
(本明細書中において、共通言語という)Cに翻訳し、
その翻訳結果を、モデム205に出力するようになされ
ている。なお、本実施例においては、共通言語は、自然
言語とされている。また、翻訳部202(後述する翻訳
部についても同様)における翻訳アルゴリズムは、特に
限定されるものではない。但し、その翻訳アルゴリズム
は、言語Aおよび共通言語Cの特性(特徴)に応じたも
のを採用するのが好ましい。
The translation unit 202 outputs the speech recognition result of the language A speech (language A speech recognition result) output from the speech recognition unit 201 to all speech translators (in this embodiment,
A language commonly used by the voice translators 200 and 210) (herein referred to as a common language) C,
The translation result is output to the modem 205. In addition, in this embodiment, the common language is a natural language. Further, the translation algorithm in the translation unit 202 (the same applies to the translation unit described later) is not particularly limited. However, it is preferable to adopt a translation algorithm corresponding to the characteristics (features) of the language A and the common language C.

【0018】モデム205は、翻訳部202から供給さ
れる共通言語Cへの翻訳結果を、あらかじめ決められた
プロトコルにしたがって、無線回線または有線回線を介
して、音声翻訳器200以外の音声翻訳器(図1の実施
例では、音声翻訳器210)に送信するようになされて
いる。また、モデム205は、他の音声翻訳器である音
声翻訳器210(モデム215)から送信されてくる共
通言語Cへの翻訳結果を受信し、翻訳部204に供給す
るようにもなされている。
The modem 205 transmits the translation result to the common language C supplied from the translation unit 202 according to a predetermined protocol via a wireless line or a wired line to a voice translator (other than the voice translator 200). In the embodiment of FIG. 1, it is adapted to send to a speech translator 210). The modem 205 is also configured to receive the translation result into the common language C transmitted from the voice translator 210 (modem 215), which is another voice translator, and supply it to the translation unit 204.

【0019】翻訳部204は、モデム205からの共通
言語Cへの翻訳結果を、言語Aに翻訳し、その翻訳結果
を、音声合成部203に出力するようになされている。
音声合成部203は、翻訳部204より供給される言語
Aへの翻訳結果に対応する合成音を生成し、スピーカ3
08(図2)から出力するようになされている。
The translation unit 204 is adapted to translate the translation result from the modem 205 into the common language C into the language A, and output the translation result to the voice synthesis unit 203.
The speech synthesis unit 203 generates a synthesized sound corresponding to the translation result into the language A supplied from the translation unit 204, and the speaker 3
08 (FIG. 2).

【0020】音声翻訳器210(後述する音声翻訳器に
ついても同様)も、音声翻訳器200と同様に構成され
ている。即ち、音声翻訳器210は、音声認識部20
1、翻訳部202、音声合成部203、翻訳部204、
またはモデム205とそれぞれ同様に構成される音声認
識部211、翻訳部212、音声合成部213、翻訳部
214、またはモデム215から構成されている。但
し、音声認識部211では、言語Bの音声の音声認識が
行われ、翻訳部212では、言語Bの音声認識結果が共
通言語Cに翻訳されるようになされている。また、翻訳
部214では、共通言語Cが言語Bに翻訳されるように
なされており、音声合成部213では、言語Bへの翻訳
結果に対応する合成音が出力されるようになされてい
る。
The speech translator 210 (similarly to a speech translator to be described later) is also constructed similarly to the speech translator 200. That is, the voice translator 210 includes the voice recognition unit 20.
1, translation unit 202, speech synthesis unit 203, translation unit 204,
Alternatively, it is composed of a voice recognition unit 211, a translation unit 212, a voice synthesis unit 213, a translation unit 214, or a modem 215 that are configured similarly to the modem 205. However, the voice recognition unit 211 performs voice recognition of the language B voice, and the translation unit 212 translates the voice recognition result of the language B into the common language C. Further, the translation unit 214 is adapted to translate the common language C into the language B, and the speech synthesis unit 213 is adapted to output a synthesized voice corresponding to the translation result into the language B.

【0021】以上のように構成される翻訳システムによ
れば、言語AまたはBのユーザは、音声翻訳器200ま
たは210をそれぞれ用いて会話を行うことができる。
即ち、言語Aのユーザが音声認識部201に音声を入力
すると、その音声が音声認識される。そして、その結果
得られた言語Aの音声認識結果は、翻訳部202に供給
され、そこで共通言語Cに翻訳される。この翻訳結果
は、モデム205に供給され、そこから、図示せぬ通信
回線を介して、音声翻訳器210に送信される。
According to the translation system configured as described above, the user of the language A or B can have a conversation by using the voice translator 200 or 210, respectively.
That is, when the user of the language A inputs a voice into the voice recognition unit 201, the voice is recognized. Then, the speech recognition result of the language A obtained as a result is supplied to the translation unit 202, where it is translated into the common language C. The translation result is supplied to the modem 205, and from there, transmitted to the speech translator 210 via a communication line (not shown).

【0022】音声翻訳器210では、音声翻訳器200
(モデム205)から送信されてくる共通言語Cへの翻
訳結果が、モデム215によって受信され、翻訳部21
4に供給される。翻訳部214では、共通言語Cへの翻
訳結果が、言語Bに翻訳され、その翻訳結果は、音声合
成部213に出力される。音声合成部213では、言語
Bへの翻訳結果に対応した合成音が生成されて出力され
る。なお、翻訳結果の出力は、合成音により行うのでは
なく、CRTやLCDなどのモニタに表示することによ
って行うようにすることも可能である。
In the speech translator 210, the speech translator 200
The translation result into the common language C transmitted from (modem 205) is received by the modem 215, and the translation unit 21
4 is supplied. The translation unit 214 translates the translation result into the common language C into the language B, and the translation result is output to the speech synthesis unit 213. The speech synthesis unit 213 generates and outputs a synthetic sound corresponding to the result of translation into the language B. It is also possible to output the translation result by displaying it on a monitor such as a CRT or an LCD, instead of outputting the synthesized sound.

【0023】一方、言語Bのユーザが発した音声は、音
声認識部211に入力され、そこで音声認識される。こ
の言語Bの音声認識結果は、翻訳部212に供給され、
共通言語Cに翻訳されて、モデム215に出力される。
モデム215は、共通言語Cへの翻訳結果を受信する
と、それを音声翻訳器200に送信する。
On the other hand, the voice uttered by the user of language B is input to the voice recognition unit 211 and is recognized there. The speech recognition result of this language B is supplied to the translation unit 212,
It is translated into the common language C and output to the modem 215.
Upon receiving the translation result into the common language C, the modem 215 transmits it to the voice translator 200.

【0024】音声翻訳器200では、音声翻訳器210
(モデム215)から送信されてくる共通言語Cへの翻
訳結果が、モデム205によって受信され、翻訳部20
4に供給される。翻訳部204では、共通言語Cへの翻
訳結果が、言語Aに翻訳され、その翻訳結果は、音声合
成部203に出力される。音声合成部203では、言語
Aへの翻訳結果に対応した合成音が生成されて出力され
る。
In the voice translator 200, the voice translator 210
The result of translation into the common language C transmitted from (modem 215) is received by the modem 205, and the translation unit 20
4 is supplied. The translation unit 204 translates the translation result into the common language C into the language A, and the translation result is output to the speech synthesis unit 203. The voice synthesis unit 203 generates and outputs a synthesized voice corresponding to the translation result into the language A.

【0025】ところで、図1は、音声翻訳器200(音
声翻訳器210についても同様)を、機能ブロックに分
けて構成した場合のブロック図を示しているが、そのハ
ードウェアは、実際には、例えば図2に示すように、モ
デム205、マイク301、A/D変換器302、DS
P(Digital Signal Proccessor)303、CPU(Cen
tral Processor Unit)304、ICカード306、D
/A変換器307、およびスピーカ308で構成されて
いる。
By the way, FIG. 1 shows a block diagram in the case where the speech translator 200 (the same applies to the speech translator 210) is divided into functional blocks, but its hardware is actually For example, as shown in FIG. 2, a modem 205, a microphone 301, an A / D converter 302, a DS
P (Digital Signal Proccessor) 303, CPU (Cen
tral Processor Unit) 304, IC card 306, D
The A / A converter 307 and the speaker 308 are included.

【0026】なお、音声認識部201は、マイク30
1、A/D変換器302、DSP303、ICカード3
06に相当し、翻訳部202および204は、CPU3
04およびICカード306に相当する。また、音声合
成部203は、DSP303、ICカード306、D/
A変換器307、およびスピーカ308に相当する。
The voice recognition unit 201 is provided with the microphone 30.
1, A / D converter 302, DSP 303, IC card 3
06, and the translation units 202 and 204 have the CPU 3
04 and IC card 306. Further, the voice synthesis unit 203 includes a DSP 303, an IC card 306, a D /
It corresponds to the A converter 307 and the speaker 308.

【0027】マイク301では、そこに入力された言語
Aの音声が、電気信号としての音声信号に変換され、A
/D変換器302に出力される。A/D変換器302で
は、マイク301からの音声信号がA/D変換され(量
子化および離散時間化)され、その結果得られるディジ
タルの音声信号が、DSP303に出力される。DSP
303は、A/D変換器302から音声信号を受信する
と、言語Aの音声を認識するためのプログラム(音声認
識プログラム)を実行し、これによりマイク301に入
力された音声を認識する。その認識結果は、バスを介し
て、CPU304に供給される。CPU304は、言語
Aの音声認識結果を受信すると、それを共通言語Cに翻
訳するためのプログラム(翻訳プログラム)を実行し、
これにより、言語Aの音声認識結果を共通言語Cに翻訳
する。この翻訳結果は、モデム205に出力されて送信
される。
In the microphone 301, the voice of the language A input therein is converted into a voice signal as an electric signal, and A
It is output to the / D converter 302. In the A / D converter 302, the audio signal from the microphone 301 is A / D converted (quantized and converted into a discrete time), and the resulting digital audio signal is output to the DSP 303. DSP
Upon receiving the voice signal from the A / D converter 302, the 303 executes a program (voice recognition program) for recognizing the voice of the language A, and thereby recognizes the voice input to the microphone 301. The recognition result is supplied to the CPU 304 via the bus. When the CPU 304 receives the speech recognition result of the language A, it executes a program (translation program) for translating it into the common language C,
As a result, the speech recognition result of the language A is translated into the common language C. The translation result is output to the modem 205 and transmitted.

【0028】一方、モデム205で受信された共通言語
Cへの翻訳結果は、CPU304に出力され、CPU3
04は、モデム205から共通言語Cへの翻訳結果を受
信すると、それを言語Aに翻訳するためのプログラム
(翻訳プログラム)を実行し、これにより共通言語Cへ
の翻訳結果を言語Aに翻訳する。この翻訳結果は、バス
を介して、DSP303に供給される。DSP303
は、言語Aへの翻訳結果を受信すると、それに対応する
合成音を生成するためのプログラム(音声合成プログラ
ム)を実行し、その結果得られる合成音のデータをD/
A変換器307に出力する。D/A変換器307では、
合成音のデータがD/A変換され、スピーカ308に供
給される。これにより、スピーカ308からは、言語A
への翻訳結果に対応する合成音が出力される。
On the other hand, the result of translation into the common language C received by the modem 205 is output to the CPU 304 and the CPU 3
Upon receiving the translation result for the common language C from the modem 205, 04 executes a program (translation program) for translating it into the language A, and thereby translates the translation result for the common language C into the language A. . The translation result is supplied to the DSP 303 via the bus. DSP303
Upon receiving the translation result into the language A, executes a program (speech synthesis program) for generating a synthesized voice corresponding to the translation result, and D / S the resultant synthesized voice data.
Output to the A converter 307. In the D / A converter 307,
The synthesized voice data is D / A converted and supplied to the speaker 308. As a result, the language A is output from the speaker 308.
A synthesized voice corresponding to the result of translation to is output.

【0029】CPU304が実行する翻訳プログラムお
よび翻訳を行うのに必要なデータ(例えば、翻訳のため
の規則や辞書など)は、ICカード306に記憶されて
おり、CPU304は、バスを介して、ICカード30
6から必要なデータ(プログラムを含む)を読み出し、
上述したような処理を行うようになされている。同様
に、DSP303が実行する音声認識プログラム、音声
合成プログラム、およびそれらに必要なデータも、IC
カード306に記憶されており、DSP303は、バス
を介して、ICカード306から必要なデータを読み出
し、上述したような処理を行うようになされている。そ
して、ICカード306は、音声翻訳器200に対して
着脱可能になされている。
A translation program executed by the CPU 304 and data necessary for translation (eg, rules for translation and a dictionary) are stored in the IC card 306. Card 30
Read necessary data (including program) from 6,
The processing as described above is performed. Similarly, the voice recognition program executed by the DSP 303, the voice synthesis program, and the data necessary for them are also stored in the IC.
The data is stored in the card 306, and the DSP 303 reads necessary data from the IC card 306 via the bus and performs the above-described processing. The IC card 306 is attachable to and detachable from the voice translator 200.

【0030】従って、音声翻訳器200は、そこに装着
するICカードを変えることで、言語A以外の言語を共
通言語Cに翻訳する音声翻訳器とすることができる。即
ち、様々な言語を共通言語Cに翻訳する音声翻訳器が、
ハードウェアを共通にして、そこに装着するICカード
を変えることだけで(ソフトウェアを変えることだけ
で)構成することができる。よって、音声翻訳器の融通
性、システムの拡張性を向上させることができ、またそ
の製造コストの低減化も図ることができる。
Therefore, the speech translator 200 can be made into a speech translator which translates a language other than the language A into the common language C by changing the IC card mounted therein. That is, a voice translator that translates various languages into the common language C
The hardware can be made common, and the configuration can be achieved only by changing the IC card mounted therein (by changing the software). Therefore, the flexibility of the speech translator and the expandability of the system can be improved, and the manufacturing cost thereof can be reduced.

【0031】次に、図3は、3以上の音声翻訳器を接続
してネットワークを構成するようにした音声翻訳システ
ムの構成例を示している。音声翻訳器200または21
0は、図1で説明したように、言語AまたはBそれぞれ
と共通言語Cとの間の双方向の翻訳を行うようになされ
ている。音声翻訳器401および402は、図1で説明
した音声翻訳器200(音声翻訳器210)と同様に構
成されている。但し、音声翻訳器401は、共通言語C
間の翻訳(共通言語Cから共通言語Cへの翻訳)を行う
ようになされており、音声翻訳器402は、言語Dと共
通言語Cとの間の双方向の翻訳を行うようになされてい
る。
Next, FIG. 3 shows a configuration example of a speech translation system in which three or more speech translators are connected to form a network. Speech translator 200 or 21
0 is adapted to perform bidirectional translation between the language A or B and the common language C, respectively, as described in FIG. The speech translators 401 and 402 are configured similarly to the speech translator 200 (speech translator 210) described with reference to FIG. However, the voice translator 401 uses the common language C
Between the languages D and C (common language C to common language C), and the speech translator 402 bidirectionally translates between the language D and the common language C. .

【0032】この場合、音声翻訳器200(他の音声翻
訳器についても同様)から他の音声翻訳器へ送信される
翻訳結果の言語は共通言語Cであり、また、そこに、他
の音声翻訳器から送信されてくる翻訳結果の言語も共通
言語Cであるから、音声翻訳器200は、図1に示した
場合と構成を変える必要はなく、そのままネットワーク
に接続することができる。即ち、この場合、音声翻訳器
200によれば、その構成を変えずに、言語Bの他、言
語CやDを、言語Aに翻訳することができる。
In this case, the language of the translation result transmitted from the voice translator 200 (similarly to other voice translators) to the other voice translator is the common language C, and the other voice translations are included therein. Since the language of the translation result transmitted from the device is also the common language C, the voice translator 200 can be directly connected to the network without changing the configuration as in the case shown in FIG. That is, in this case, the speech translator 200 can translate the languages C and D into the language A in addition to the language B without changing the configuration.

【0033】但し、以上のように、音声翻訳器200
を、他の音声翻訳器とネットワーク接続する際には、通
信プロトコルをあらかじめ決定しておき、モデム205
の入出力を、ネットワーク化可能な形態にしておく必要
がある。
However, as described above, the speech translator 200
When connecting to another voice translator, the communication protocol is determined in advance and the modem 205
It is necessary to make the input and output of the above into a form that can be networked.

【0034】なお、図3では、4つの音声翻訳器が接続
されることによってネットワークが構成されているが、
接続する音声翻訳器の数は、特に限定されるものではな
い。
In FIG. 3, a network is constructed by connecting four speech translators,
The number of voice translators to be connected is not particularly limited.

【0035】ここで、以下、適宜、図3に示したように
共通言語Cをやりとりするように構成されたネットワー
クを、共通言語Cのネットワークという。
Hereinafter, a network configured to exchange the common language C as shown in FIG. 3 will be referred to as a network of the common language C as appropriate.

【0036】ところで、図3に示した音声翻訳器401
は、上述したように、共通言語C間の翻訳を行うもので
あるが、共通言語Cを共通言語Cに翻訳することは、行
っても行わなくても結果は同じことになる。従って、こ
の音声翻訳器401には、図1に示した音声翻訳器20
0の翻訳部202および204に相当するブロックを設
ける必要がない。そこで、共通言語C間の翻訳を行う音
声翻訳器401は、図4に示すように、共通言語Cの音
声を音声認識する音声認識部501、共通言語Cの合成
音を生成する音声合成部401、および共通言語Cを送
受信するモデム505で構成することができる。即ち、
音声翻訳器401は、他の音声翻訳器に比較して、簡易
かつ低コストで構成することができる。
By the way, the speech translator 401 shown in FIG.
As described above, the translation between the common languages C is performed, but the translation of the common language C into the common language C has the same result whether it is performed or not. Therefore, the voice translator 401 shown in FIG.
It is not necessary to provide blocks corresponding to 0 translation units 202 and 204. Therefore, as shown in FIG. 4, a voice translator 401 for translating between common languages C, a voice recognition unit 501 that recognizes a voice of a common language C, and a voice synthesis unit 401 that generates a synthesized sound of a common language C. , And a common language C for transmitting and receiving a modem 505. That is,
The voice translator 401 can be configured easily and at low cost as compared with other voice translators.

【0037】その結果、図3に示したように、複数の音
声翻訳器を接続してネットワークを構成するときには、
ユーザが使用する言語のうち、数の最も多い言語を、共
通言語とするのが望ましい。この場合、そのような言語
のユーザが使用する音声翻訳器は、上述したように低コ
ストで製造することができるので、システム全体の低コ
スト化も図ることができる。
As a result, as shown in FIG. 3, when a plurality of speech translators are connected to form a network,
Of the languages used by users, it is desirable that the most common language is the common language. In this case, since the speech translator used by the user of such a language can be manufactured at low cost as described above, the cost of the entire system can be reduced.

【0038】なお、以上の効果は、共通言語を自然言語
の中から選択することによって得ることができる。ま
た、従来の翻訳方法には、いわゆる中間言語を用いるも
のがあるが、この方法では、ある意味表現をどのような
中間表現とするのかを決めるのが難しく、これを、様々
な言語について行うのは、実際上不可能に近い。本実施
例においては、共通言語として自然言語を採用している
ので、上述のような問題を回避することができる。な
お、共通言語としては、例えば英語などを採用すること
ができる。これは、英語に翻訳するための辞書や規則が
多くの言語について存在することが期待でき、これによ
り、その作成のための工数を低減することが可能となる
からである。
The above effects can be obtained by selecting the common language from natural languages. Also, some conventional translation methods use so-called intermediate languages, but it is difficult to determine what kind of intermediate expression a certain semantic expression is, and this method is used for various languages. Is practically impossible. In this embodiment, since the natural language is adopted as the common language, the above problems can be avoided. Note that, for example, English or the like can be adopted as the common language. This is because it can be expected that there are dictionaries and rules for translating into English for many languages, which makes it possible to reduce the man-hours for creating the dictionaries.

【0039】ところで、ある言語に翻訳するのは容易で
あるが、共通言語Cに翻訳するのは困難な言語Fが存在
する場合がある。即ち、共通言語Cとして、例えば英語
を採用した場合に、英語に翻訳するための辞書や規則
は、未だ揃えられていないが、例えば中国語に翻訳する
ための辞書や規則が揃えられている言語Fが存在するこ
とがある。この場合、中国語を、いわば第2の共通言語
(サブ共通言語)Eとし、この第2の共通言語Eのネッ
トワークを構成し、図5に示すように、共通言語Cのネ
ットワークと、共通言語Cと第2の共通言語Eとの双方
向の翻訳を行う音声翻訳器をゲートウェイとして接続す
ることで、言語Fを共通言語Cに翻訳するための辞書や
規則を用意しなくても、音声翻訳システムを構成するこ
とが可能となる。
By the way, there may be a language F that is easy to translate into a certain language but difficult to translate into the common language C. That is, when, for example, English is adopted as the common language C, a dictionary or rule for translating into English has not been prepared yet, but a dictionary or rule for translating into Chinese, for example, is prepared. F may be present. In this case, Chinese is, so to speak, a second common language (sub-common language) E, and a network of this second common language E is configured. As shown in FIG. By connecting a voice translator that performs bidirectional translation between C and the second common language E as a gateway, voice translation can be performed without preparing a dictionary or rules for translating the language F into the common language C. It is possible to configure the system.

【0040】即ち、図3で説明したようにして、共通言
語Cのネットワークを構成し、さらに、同様にして、第
2の共通言語Eのネットワークを構成する。なお、図5
においては、言語A,B、またはCそれぞれと共通言語
Cとの双方向の翻訳を行う音声翻訳器200,210、
または401が共通言語Cのネットワークを構成し、言
語Fと第2の共通言語Eとの双方向の翻訳を行う音声翻
訳器404が第2の共通言語Eのネットワーク(サブネ
ットワーク)を構成している。
That is, the network of the common language C is constructed as described with reference to FIG. 3, and further, the network of the second common language E is constructed in the same manner. Note that FIG.
In the above, speech translators 200 and 210 for bidirectionally translating each of the languages A, B or C and the common language C,
Alternatively, 401 constitutes a network of the common language C, and a voice translator 404 which performs bidirectional translation between the language F and the second common language E constitutes a network (subnetwork) of the second common language E. There is.

【0041】そして、これらのネットワークを、共通言
語Cと第2の共通言語Eとの双方向の翻訳を行う音声翻
訳器403を介して接続する。この場合、音声翻訳器4
03は、共通言語Cのネットワークにおいて送受信され
る共通言語Cを、第2の共通言語Eに翻訳して、第2の
共通言語Eのネットワークに出力するとともに、第2の
共通言語Eのネットワークにおいて送受信される第2の
共通言語Eを、共通言語Cに翻訳して、共通言語Cのネ
ットワークに出力するようになされている。
Then, these networks are connected via a voice translator 403 which performs bidirectional translation between the common language C and the second common language E. In this case, the voice translator 4
03 translates the common language C transmitted / received in the network of the common language C into the second common language E, outputs it to the network of the second common language E, and in the network of the second common language E. The second common language E that is transmitted and received is translated into the common language C and output to the network of the common language C.

【0042】従って、音声翻訳器200,210、およ
び401から出力される共通言語Cは、音声翻訳器40
3を介することにより第2の共通言語Eに翻訳されて、
音声翻訳器404に供給され、また、音声翻訳器404
から出力される第2の共通言語Eは、音声翻訳器403
を介することにより共通言語Cに翻訳されて、音声翻訳
器200,210、および401に供給されるので、言
語A,B,C,Fのユーザは、相互に会話することがで
きる。
Therefore, the common language C output from the speech translators 200, 210 and 401 is the speech translator 40.
Is translated into the second common language E by way of 3,
The speech translator 404 is also supplied to the speech translator 404.
The second common language E output from the speech translator 403 is
Is translated into the common language C by way of and is supplied to the voice translators 200, 210 and 401, so that the users of the languages A, B, C and F can talk with each other.

【0043】なお、図5に示したようなネットワークど
うしの接続は、拡張することが可能である。即ち、第3
の共通言語Gをさらに設定して、第3の共通言語Gのネ
ットワークを構成し、それと、第2の共通言語Eのネッ
トワークとを、第2の共通言語Eと第3の共通言語Gと
の双方向の翻訳を行う音声翻訳器をゲートウェイとして
接続することができる。また、第3の共通言語Gのネッ
トワークと、共通言語Cのネットワークとを、共通言語
Cと第3の共通言語Gとの双方向の翻訳を行う音声翻訳
器をゲートウェイとして接続することができる。
The connection between the networks as shown in FIG. 5 can be expanded. That is, the third
Common language G is further set to configure a network of the third common language G, and the network of the second common language E is connected to the second common language E and the third common language G. A voice translator for bidirectional translation can be connected as a gateway. In addition, the network of the third common language G and the network of the common language C can be connected by using a speech translator that performs bidirectional translation between the common language C and the third common language G as a gateway.

【0044】次に、図6は、図5の音声翻訳器403の
構成例を示している。この音声翻訳器403は、上述し
たようにゲートウェイとして機能するが、他の音声翻訳
器と同様の処理を行うことができるようにもなされてい
る。即ち、音声翻訳器403は、図1で説明した音声認
識部201、翻訳部202、音声合成部203、翻訳部
204、またはモデム205とそれぞれ同様に構成され
る音声認識部601、翻訳部602、音声合成部60
3、翻訳部604、またはモデム605に加え、スイッ
チSW1およびSW2、並びにモデム606が設けられ
て構成されている。
Next, FIG. 6 shows a configuration example of the speech translator 403 of FIG. The voice translator 403 functions as a gateway as described above, but is also configured to be able to perform the same processing as other voice translators. That is, the speech translator 403 includes a speech recognition unit 201, a translation unit 202, a speech synthesis unit 203, a translation unit 204, or a speech recognition unit 601, a translation unit 602, which have the same configurations as the modem 205 described in FIG. Speech synthesizer 60
3, the translation unit 604, or the modem 605, switches SW1 and SW2, and a modem 606 are provided.

【0045】なお、音声認識部601では、第2の共通
言語Eの音声の音声認識が行われ、翻訳部602では、
第2の共通言語Eの音声認識結果が共通言語Cに翻訳さ
れるようになされている。また、翻訳部604では、共
通言語Cが第2の共通言語Eに翻訳されるようになされ
ており、音声合成部603では、第2の共通言語Eへの
翻訳結果に対応する合成音が出力されるようになされて
いる。
The voice recognition unit 601 performs voice recognition of the voice of the second common language E, and the translation unit 602 performs the voice recognition.
The speech recognition result of the second common language E is translated into the common language C. Further, the translation unit 604 is adapted to translate the common language C into the second common language E, and the speech synthesis unit 603 outputs a synthesized sound corresponding to the translation result into the second common language E. It is designed to be done.

【0046】さらに、スイッチSW1は、音声認識部6
01と翻訳部602との間に、スイッチSW2は、音声
合成部603と翻訳部604との間にそれぞれ設けられ
ている。また、モデム605は、共通言語Cのネットワ
ークと接続され、モデム606は、第2の共通言語Eの
ネットワークと接続されている。
Further, the switch SW1 is provided in the voice recognition section 6
The switch SW2 is provided between 01 and the translation unit 602 between the speech synthesis unit 603 and the translation unit 604, respectively. The modem 605 is connected to the common language C network, and the modem 606 is connected to the second common language E network.

【0047】以上のように構成される音声翻訳器403
が、他の音声翻訳器と同様に使用される場合、スイッチ
SW1またはSW2が、端子b1またはb2側に切り換
えられる。これにより、音声認識部601の出力はスイ
ッチSW1を介して翻訳部602に供給され、また、翻
訳部604の出力はスイッチSW2を介して音声合成部
603に供給されるようになる。従って、音声翻訳器4
03は、共通言語Cのネットワークにおいて、言語(第
2の共通言語)Eのユーザが使用可能な音声翻訳器とし
て動作することになる。
The speech translator 403 configured as described above
, Is used like any other speech translator, the switch SW1 or SW2 is switched to the terminal b1 or b2 side. As a result, the output of the speech recognition unit 601 is supplied to the translation unit 602 via the switch SW1, and the output of the translation unit 604 is supplied to the speech synthesis unit 603 via the switch SW2. Therefore, the voice translator 4
03 will operate as a speech translator that can be used by a user of language (second common language) E in the network of common language C.

【0048】次に、音声翻訳器403がゲートウェイと
して使用される場合、スイッチSW1またはSW2が、
端子a1またはa2側に切り換えられる。これにより、
モデム606の出力は、スイッチSW1を介して翻訳部
602に供給され、また、翻訳部604の出力はスイッ
チSW2を介してモデム606に供給されるようにな
る。
Next, when the speech translator 403 is used as a gateway, the switch SW1 or SW2 is
It is switched to the terminal a1 or a2 side. This allows
The output of the modem 606 is supplied to the translation unit 602 via the switch SW1, and the output of the translation unit 604 is supplied to the modem 606 via the switch SW2.

【0049】上述したように、モデム605は、共通言
語Cのネットワークと接続され、モデム606は、第2
の共通言語Eのネットワークと接続されているから、共
通言語Cのネットワークからの共通言語Cは、モデム6
05、翻訳部604、スイッチSW2、およびモデム6
06を介することにより、第2の共通言語Eに翻訳され
て、第2の共通言語Eのネットワークに出力される。ま
た、第2の共通言語Eのネットワークからの第2の共通
言語Eは、モデム606、スイッチSW1、翻訳部60
2、およびモデム605を介することにより、共通言語
Cに翻訳されて、共通言語Cのネットワークに出力され
る。即ち、音声翻訳器403は、共通言語Cのネットワ
ークと第2の共通言語Eのネットワークとを接続するゲ
ートウェイとして動作することになる。
As described above, the modem 605 is connected to the network of the common language C, and the modem 606 is the second
The common language C from the common language C network is connected to the modem 6 because it is connected to the common language E network.
05, translation unit 604, switch SW2, and modem 6
Through 06, it is translated into the second common language E and output to the network of the second common language E. The second common language E from the network of the second common language E is the modem 606, the switch SW1, the translation unit 60.
2 and via the modem 605, it is translated into the common language C and output to the network of the common language C. That is, the voice translator 403 operates as a gateway that connects the network of the common language C and the network of the second common language E.

【0050】なお、スイッチSW1の端子a1とb1と
を接続するとともに、スイッチSW2の端子a2とb2
とを接続するようにした場合、音声翻訳器403は、第
2の共通言語Eのネットワーク上における、言語E間の
翻訳を行う音声翻訳器として動作することとなる(これ
は、音声翻訳器403が、図4に示した音声翻訳器40
1と同様の構成となるためである)。
The terminals a1 and b1 of the switch SW1 are connected and the terminals a2 and b2 of the switch SW2 are connected.
When connecting with, the speech translator 403 operates as a speech translator for translating between languages E on the network of the second common language E (this is the speech translator 403). Is the speech translator 40 shown in FIG.
This is because the configuration is the same as that of 1.).

【0051】以上、本発明を、音声で入力された言語
を、他の言語に翻訳する音声翻訳システムに適用した場
合について説明したが、本発明は、その他、例えばテキ
ストなどで入力されたものを翻訳する翻訳システムなど
にも適用可能である。
The case where the present invention is applied to a voice translation system for translating a language input by voice into another language has been described above. It is also applicable to a translation system that translates.

【0052】[0052]

【発明の効果】以上の如く、本発明の翻訳システムによ
れば、複数の翻訳器が備えられており、各翻訳器では、
入力された所定の言語が、ある共通言語に翻訳され、そ
の共通言語への翻訳結果が、他の翻訳器に送信される。
また、他の翻訳器から送信されてくる共通言語への翻訳
結果が、所定の言語に翻訳され、その所定の言語への翻
訳結果が出力される。従って、共通言語によって、他の
翻訳器とのやりとりがなされるので、多言語間の翻訳を
行うシステムを、簡易かつ低コストで構成することが可
能となる。
As described above, according to the translation system of the present invention, a plurality of translators are provided, and each translator has:
The input predetermined language is translated into a certain common language, and the result of translation into the common language is transmitted to another translator.
In addition, the translation result to the common language transmitted from another translator is translated to a predetermined language, and the translation result to the predetermined language is output. Therefore, since the common language communicates with other translators, a system for translating between multiple languages can be configured easily and at low cost.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用した音声翻訳システムの第1実施
例の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of a speech translation system to which the present invention has been applied.

【図2】図1の音声翻訳器200のハードウェア構成を
示すブロック図である。
2 is a block diagram showing a hardware configuration of a speech translator 200 of FIG.

【図3】本発明を適用した音声翻訳システムの第2実施
例の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of a second embodiment of a speech translation system to which the present invention has been applied.

【図4】図3の音声翻訳器401の構成例を示すブロッ
ク図である。
4 is a block diagram showing a configuration example of a speech translator 401 of FIG.

【図5】本発明を適用した音声翻訳システムの第3実施
例の構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a third embodiment of a speech translation system to which the present invention has been applied.

【図6】図5の音声翻訳器403の構成例を示すブロッ
ク図である。
6 is a block diagram showing a configuration example of a speech translator 403 of FIG.

【図7】従来の音声翻訳システムの一例の構成を示すブ
ロック図である。
FIG. 7 is a block diagram showing a configuration of an example of a conventional speech translation system.

【符号の説明】[Explanation of symbols]

200 音声翻訳器 201 音声認識部(音声認識手段) 202 翻訳部(第1の翻訳手段) 203 音声合成部(出力手段) 204 翻訳部(第2の翻訳手段) 205 モデム(送信手段) 210 音声翻訳器 211 音声認識部(音声認識手段) 212 翻訳部(第1の翻訳手段) 213 音声合成部(出力手段) 214 翻訳部(第2の翻訳手段) 215 モデム(送信手段) 200 voice translator 201 voice recognition unit (voice recognition means) 202 translation unit (first translation means) 203 voice synthesis unit (output means) 204 translation unit (second translation means) 205 modem (transmission means) 210 voice translation Device 211 Speech recognition unit (speech recognition unit) 212 Translation unit (first translation unit) 213 Speech synthesis unit (output unit) 214 Translation unit (second translation unit) 215 Modem (transmission unit)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 靖彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 加賀美 徹也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 渡 雅男 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 赤羽 誠 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 角田 弘史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yasuhiko Kato 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Tetsuya Kagami 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Masao Watanabe 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Makoto Akabane 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Incorporated (72) Inventor Yuko Tanaka 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Hiroshi Tsunoda 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation Within

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の翻訳器を備える翻訳システムであ
って、 前記翻訳器は、 入力された所定の言語を、ある共通言語に翻訳する第1
の翻訳手段と、 前記第1の翻訳手段による前記共通言語への翻訳結果
を、他の前記翻訳器に送信する送信手段と、 他の前記翻訳器から送信されてくる前記共通言語への翻
訳結果を、前記所定の言語に翻訳する第2の翻訳手段
と、 前記第2の翻訳手段による前記所定の言語への翻訳結果
を出力する出力手段とを有することを特徴とする翻訳シ
ステム。
1. A translation system comprising a plurality of translators, wherein the translator translates an input predetermined language into a certain common language.
Translation means, transmitting means for transmitting the translation result to the common language by the first translation means to the other translator, and translation result to the common language transmitted from the other translator. And a second translation means for translating into a predetermined language, and an output means for outputting a result of translation by the second translation means into the predetermined language.
【請求項2】 前記所定の言語が、前記共通言語である
とき、 前記翻訳器は、前記第1および第2の翻訳手段を除いて
構成され、 前記送信手段は、入力された前記所定の言語をそのま
ま、他の前記翻訳器に送信し、 前記出力手段は、他の前記翻訳器から送信されてくる前
記共通言語への翻訳結果をそのまま出力することを特徴
とする請求項1に記載の翻訳システム。
2. When the predetermined language is the common language, the translator is configured without the first and second translation means, and the transmission means is the input predetermined language. 2. The translation according to claim 1, wherein the translation unit directly outputs the translation result to the common language, which is transmitted from the other translation unit, to the other translation unit. system.
【請求項3】 前記共通言語は、自然言語であることを
特徴とする請求項1に記載の翻訳システム。
3. The translation system according to claim 1, wherein the common language is a natural language.
【請求項4】 前記共通言語は、英語であることを特徴
とする請求項3に記載の翻訳システム。
4. The translation system according to claim 3, wherein the common language is English.
【請求項5】 前記翻訳器は、入力された音声を音声認
識する音声認識手段をさらに有し、 前記第1の翻訳手段は、前記音声認識手段による音声認
識結果を翻訳することを特徴とする請求項1に記載の翻
訳システム。
5. The translator further comprises voice recognition means for voice-recognizing the input voice, and the first translation means translates the voice recognition result by the voice recognition means. The translation system according to claim 1.
【請求項6】 前記共通言語が2種類ある場合におい
て、 前記第1の翻訳手段が、前記所定の言語を、一方の前記
共通言語に翻訳し、前記第2の翻訳手段が、一方の前記
共通言語を、前記所定の言語に翻訳する前記翻訳器どう
しが接続されて第1のネットワークを構成し、 前記第1の翻訳手段が、前記所定の言語を、他方の前記
共通言語に翻訳し、前記第2の翻訳手段が、他方の前記
共通言語を、前記所定の言語に翻訳する前記翻訳器どう
しが接続されて第2のネットワークを構成していると
き、 前記第1および第2のネットワークは、前記第1の翻訳
手段が、一方の前記共通言語を、他方の前記共通言語に
翻訳し、前記第2の翻訳手段が、他方の前記共通言語
を、一方の前記共通言語に翻訳する前記翻訳器をゲート
ウェイとして接続されていることを特徴とする請求項1
に記載の翻訳システム。
6. When there are two types of the common language, the first translation means translates the predetermined language into one of the common languages, and the second translation means includes one of the common languages. The translators that translate a language into the predetermined language are connected to each other to form a first network, and the first translation unit translates the predetermined language into the other common language, When the second translation means configures a second network by connecting the translators that translate the other common language into the predetermined language, the first and second networks include: The translator in which the first translation unit translates one of the common languages into the other common language, and the second translation unit translates the other common language into one of the common languages. Connected as a gateway Claim 1 characterized in that
The translation system described in.
JP7178623A 1995-07-14 1995-07-14 Translation system Pending JPH0934895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7178623A JPH0934895A (en) 1995-07-14 1995-07-14 Translation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7178623A JPH0934895A (en) 1995-07-14 1995-07-14 Translation system

Publications (1)

Publication Number Publication Date
JPH0934895A true JPH0934895A (en) 1997-02-07

Family

ID=16051692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7178623A Pending JPH0934895A (en) 1995-07-14 1995-07-14 Translation system

Country Status (1)

Country Link
JP (1) JPH0934895A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015521404A (en) * 2012-04-25 2015-07-27 コピン コーポレーション Instant translation system
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium
JP2018018490A (en) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ Terminal device, translation method, and translation program
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10579324B2 (en) 2008-01-04 2020-03-03 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US11237594B2 (en) 2011-05-10 2022-02-01 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US11947387B2 (en) 2011-05-10 2024-04-02 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP2015521404A (en) * 2012-04-25 2015-07-27 コピン コーポレーション Instant translation system
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium
JP2018018490A (en) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ Terminal device, translation method, and translation program

Similar Documents

Publication Publication Date Title
US6173250B1 (en) Apparatus and method for speech-text-transmit communication over data networks
US20030115059A1 (en) Real time translator and method of performing real time translation of a plurality of spoken languages
GB2114401A (en) Radio transceivers
JP2005513619A (en) Real-time translator and method for real-time translation of multiple spoken languages
US8606560B2 (en) Automatic simultaneous interpertation system
TW201843604A (en) Interactive translation system
JP2667408B2 (en) Translation communication system
US5093855A (en) Method for speaker recognition in a telephone switching system
JPH0934895A (en) Translation system
JP3473204B2 (en) Translation device and portable terminal device
RU2324296C1 (en) Method for message exchanging and devices for implementation of this method
JP2000206983A (en) Device and method for information processing and providing medium
JP2009122989A (en) Translation apparatus
JPH08190518A (en) Electronic community system
JP3225682U (en) Voice translation terminal, mobile terminal and translation system
US6498834B1 (en) Speech information communication system
CN112820272A (en) Instant multi-language translation method and device and electronic equipment
JP2002101203A (en) Speech processing system, speech processing method and storage medium storing the method
JP2655086B2 (en) Telephone line voice input system
JP2001127846A (en) Radio telephone set
CN109346041A (en) Audio data processing method and device for robot
JPH10124086A (en) Voice interactive system
CN113593573B (en) Machine interaction method and device
JP2000194700A (en) Information processing device and method and information providing medium
JPH01316874A (en) Interactive translation system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020920