JP6856277B1 - Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program - Google Patents

Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program Download PDF

Info

Publication number
JP6856277B1
JP6856277B1 JP2019215053A JP2019215053A JP6856277B1 JP 6856277 B1 JP6856277 B1 JP 6856277B1 JP 2019215053 A JP2019215053 A JP 2019215053A JP 2019215053 A JP2019215053 A JP 2019215053A JP 6856277 B1 JP6856277 B1 JP 6856277B1
Authority
JP
Japan
Prior art keywords
language
voice
translation
speaker
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019215053A
Other languages
Japanese (ja)
Other versions
JP2021086404A (en
Inventor
ゆり 柴田
ゆり 柴田
Original Assignee
ゆり 柴田
ゆり 柴田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゆり 柴田, ゆり 柴田 filed Critical ゆり 柴田
Priority to JP2019215053A priority Critical patent/JP6856277B1/en
Application granted granted Critical
Publication of JP6856277B1 publication Critical patent/JP6856277B1/en
Publication of JP2021086404A publication Critical patent/JP2021086404A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現する。【解決手段】第1会話者A(日本人)が発する第1言語(日本語)の音声と、この第1言語と異なる第2会話者B(外国人)が発する第2言語(母国語)の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであり、音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力し、その音声データを翻訳管理サーバ11に送信し、翻訳管理サーバ11で翻訳する言語(第1言語)を分析して特定することで、双方の翻訳言語が設定され、その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を音声翻訳端末器1へ送信し、音声を発する。【選択図】図2PROBLEM TO BE SOLVED: To easily set a language to be translated by discriminating the type of language only by issuing a simple word (speech) such as a greeting, and realize bidirectional automatic voice translation by a simple operation. SOLUTION: A voice of a first language (Japanese) uttered by a first speaker A (Japanese) and a second language (native language) uttered by a second speaker B (foreigner) different from the first language. It is an automatic voice translation system that translates the voice of the above in both directions and sets the translation language by voice input. The voice data of the second language emitted by the second speaker B is input to the voice translation terminal 1 and the voice is input. By transmitting the data to the translation management server 11 and analyzing and specifying the language (first language) to be translated by the translation management server 11, both translation languages are set, and the set language (second language) is set. And the voice translation content is transmitted to the voice translation terminal 1 in both directions of the first language, and the voice is emitted. [Selection diagram] Fig. 2

Description

本発明は、ある言語で表現された会話の内容を他の言語の音声に翻訳する音声翻訳技術に係り、特に、会話している相手が発する言語が判別できないときに、その音声を入力し、その言語の種類を判別して音声翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムに関する。 The present invention relates to a voice translation technique for translating the content of a conversation expressed in one language into a voice of another language, and in particular, when the language spoken by the conversation partner cannot be determined, the voice is input. The present invention relates to an automatic voice translation system, an automatic voice translation method, and a program thereof that discriminates the type of the language and performs voice translation, and sets a translation language by voice input.

従来の音声翻訳装置(通訳装置)は、それを使用する人の言語(例えば日本語)と、会話している相手の言語(例えば英語)との双方向に音声翻訳するものである。 A conventional voice translation device (interpreter device) translates speech in both directions between the language of the person who uses it (for example, Japanese) and the language of the other party with whom it is talking (for example, English).

この音声翻訳装置を用いて会話をする方法は、図12の「レンタカーを借りるときの会話」の作業概略図に示すように、この音声翻訳装置51は、先ず使用者の言語、例えば「日本語」を設定するスイッチを押し、次に会話相手の言語、例えば「英語」を設定するスイッチを押す。その後、使用者は音声翻訳装置51に「1日だけレンタカーを借りたいのですが」と音声をマイク52から入力する。この音声翻訳装置51はこの音声を取り込み、その音声データを、無線LANを通じて、音声翻訳を管理する管理サーバ53に送信する。この管理サーバ53では、データベースに蓄積された「レンタカーを借りたいのですが」に相当する英語表現を選択し、「I’d like to rent a car.」を選択し、この音声データを送信する。この音声データを受信した音声翻訳装置51が「I’d like to rent a car.」の音声に変換して、その音声をスピーカ54から出力する。この音声を会話の相手が聞いて、双方の会話が成立するようになっている。 As for the method of having a conversation using this voice translation device, as shown in the work schematic diagram of “Conversation when renting a rental car” in FIG. 12, the voice translation device 51 first uses the user's language, for example, “Japanese”. Press the switch to set ", and then press the switch to set the language of the conversation partner, for example," English ". After that, the user inputs voice to the voice translation device 51 from the microphone 52, saying "I want to rent a car for only one day." The voice translation device 51 takes in the voice and transmits the voice data to the management server 53 that manages the voice translation through the wireless LAN. In this management server 53, the English expression corresponding to "I want to rent a car" stored in the database is selected, "I'd like directly a car." Is selected, and this voice data is transmitted. .. Upon receiving this voice data, the voice translation device 51 converts the voice into the voice of "I'd like rental car." And outputs the voice from the speaker 54. The other party in the conversation listens to this voice, and both conversations are established.

このような翻訳装置に関する技術は種々提案されている。例えば、特許文献1の特開2019−174786号公報「音声翻訳装置、音声翻訳方法及びそのプログラム」のように、音声翻訳装置であって、前記音声翻訳装置の使用者または前記使用者の会話相手に操作されることにより翻訳開始を指示する翻訳開始ボタンと、マイクロホンアレイ部により取得された音響信号を信号処理することにより、音源方向を推定する音源方向推定部と、使用者、前記会話相手、及び、ディスプレイの異なる位置関係を示し、記憶部に記憶されている複数のレイアウト情報のうち、予め選択された一のレイアウト情報に示される位置関係を用いて、前記翻訳開始ボタンにより翻訳開始が指示された後において前記音源方向推定部により推定された音源方向に基づき、音声を発した会話者が前記使用者及び前記会話相手のうちの一方の者であることを特定し、かつ、第1言語と前記第1言語と異なる第2言語のうち前記音響信号の内容を認識する一方の言語と翻訳する他方の言語とを示す翻訳方向を決定する制御部と、前記制御部により決定された前記翻訳方向に従って、認識処理部に前記音響信号を前記一方の言語で認識させて得た、前記音響信号の内容を示すテキスト文、及び、翻訳処理部に当該テキスト文を他方の言語で翻訳させて得た、前記音響信号の内容を示す翻訳テキスト文を取得する翻訳部と、特定された前記一方の者の位置に対応する前記ディスプレイの領域に、前記テキスト文を表示させ、前記一方と異なる他方の者の位置に対応する、前記ディスプレイの領域に前記翻訳テキスト文を表示させるディスプレイ部とを備える、音声翻訳装置が提案されている。 Various techniques related to such a translation device have been proposed. For example, as in Japanese Patent Application Laid-Open No. 2019-174786 "Speech translation device, voice translation method and program thereof" of Patent Document 1, the voice translation device is a user of the speech translation device or a conversation partner of the user. A translation start button that instructs the start of translation by being operated by, a sound source direction estimation unit that estimates the sound source direction by processing an acoustic signal acquired by the microphone array unit, a user, the conversation partner, And, using the positional relationship shown in one layout information selected in advance among the plurality of layout information stored in the storage unit, which indicates different positional relationships of the displays, the translation start button is instructed to start translation. After that, based on the sound source direction estimated by the sound source direction estimation unit, it is specified that the speaker who uttered the voice is one of the user and the conversation partner, and the first language. And a second language different from the first language, a control unit that determines a translation direction indicating one language that recognizes the content of the acoustic signal and the other language that translates, and the translation determined by the control unit. According to the direction, a text sentence indicating the content of the acoustic signal obtained by having the recognition processing unit recognize the acoustic signal in the one language, and a text sentence indicating the content of the acoustic signal obtained by having the translation processing unit translate the text sentence in the other language. In addition, the text sentence is displayed in the area of the display corresponding to the position of the specified one person and the translation unit that acquires the translated text sentence indicating the content of the acoustic signal, and the other is different from the one. A voice translation device has been proposed, which includes a display unit for displaying the translated text sentence in the display area corresponding to the position of the person.

特開2019−174786号公報Japanese Unexamined Patent Publication No. 2019-174786

特許文献1に開示された「音声翻訳装置、音声翻訳方法及びそのプログラム」は、使用者とその会話相手とは、毎回ボタン操作を行ってから会話する必要があり、操作が煩雑であるという課題を解決したものである。使用者とその会話相手とが会話を開始する度にボタン操作をしなくても、翻訳開始時に翻訳開始ボタンを1度押すことで、音源方向に基づき、音声を発した会話者が使用者及び会話相手のうちの一方の者であることを特定することで、使用者と会話相手との会話に応じて認識言語と翻訳言語との切替が自動で行われるものである。しかし、会話相手が発する言語を判別できないときは、翻訳開始ボタンを押せないという問題を有していた。 The "speech translation device, voice translation method, and its program" disclosed in Patent Document 1 has a problem that the user and the conversation partner need to perform a button operation each time before having a conversation, which is complicated. Is the solution. Even if the user and the conversation partner do not operate the button each time they start a conversation, by pressing the translation start button once at the start of translation, the speaker who utters the voice based on the direction of the sound source can be the user and the speaker. By identifying one of the conversation partners, the recognition language and the translation language are automatically switched according to the conversation between the user and the conversation partner. However, there is a problem that the translation start button cannot be pressed when the language spoken by the conversation partner cannot be determined.

従来の音声翻訳装置は、会話相手の言語の種類が明確に判別できるときは容易に利用できる。英語、フランス語、ドイツ語、中国語といった主要な言語のときは判別しやすく、その言語の種類のスイッチを容易に押すことができる。しかしながら、最近は日本において馴染みの少ない言語に出会う機会が多くなってきた。このような場合には、会話相手が発する言語を判別しづらく、音声翻訳装置を容易に使用できないという問題を有していた。 A conventional speech translation device can be easily used when the type of language of the conversation partner can be clearly determined. It is easy to distinguish between major languages such as English, French, German, and Chinese, and you can easily press the switch for that language type. However, recently, there have been many opportunities to come across languages that are unfamiliar in Japan. In such a case, it is difficult to determine the language spoken by the conversation partner, and there is a problem that the voice translation device cannot be easily used.

また、主要な言語であっても、いわゆる方言、訛り(なまり)がある音声の場合も言語を区別できないことがあった。例えば、英語といってもアメリカ英語、イギリス英語、オーストラリア英語、カナダ英語のように種々あり、それぞれ微妙に言語表現が相違している。 In addition, even if it is a major language, it may not be possible to distinguish the language even if the voice has a so-called dialect or accent. For example, there are various types of English such as American English, British English, Australian English, and Canadian English, and their linguistic expressions are slightly different.

また、従来の音声翻訳装置では、日本人が海外旅行において病気、けがをしたときに、病院や周囲の人たちに、病気、けがの状況を正確に伝達しづらいことがあった。特に、言語そのものが不明なときは音声翻訳装置を的確に使用できないという問題を有していた。同様に、外国人が日本に旅行しているときに、病気、けがをしたときにも、その病気、けがの状況を正確に伝達できず、緊急に対応できないという問題を有していた。 In addition, with conventional speech translation devices, when a Japanese person gets sick or injured while traveling abroad, it may be difficult to accurately convey the situation of the illness or injury to the hospital or the people around him. In particular, when the language itself is unknown, there is a problem that the speech translation device cannot be used accurately. Similarly, when a foreigner is traveling to Japan and is sick or injured, there is a problem that the situation of the illness or injury cannot be accurately communicated and an urgent response cannot be made.

更に、日本人が海外旅行において、又は外国人が日本に旅行しているときに、犯罪や事件に巻き込まれたときに、従来の音声翻訳装置では、警察や事件現場においてその状況について、正確に伝達できないことがあった。このときも言語そのものが不明なときは音声翻訳装置を使用できないという問題を有していた。 Furthermore, when a Japanese person is traveling abroad or a foreigner is traveling to Japan and is involved in a crime or incident, conventional voice translators can accurately describe the situation at the police or at the scene of the incident. Sometimes I couldn't communicate. At this time as well, there was a problem that the speech translation device could not be used when the language itself was unknown.

本発明は、かかる問題点を解決するために創案されたものである。すなわち、本発明の目的は、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムを提供することにある。 The present invention has been devised to solve such a problem. That is, an object of the present invention is that the type of language can be easily determined and the language to be translated can be easily set by simply issuing a simple word (speech) such as a greeting, and bidirectional automatic voice translation is simplified. It is an object of the present invention to provide an automatic voice translation system, an automatic voice translation method, and a program thereof for setting a translation language by voice input that can be realized by operation.

本発明の自動音声翻訳システムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ及び第2言語を使用している第2会話者(B)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語と第2言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語及び第2言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語を第1言語に音声翻訳し、第1言語を第2言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データを入力し、
その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語)を分析して特定することで、その翻訳言語が設定され、
その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする。
The automatic speech translation system of the present invention bidirectionally translates the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. It is an automatic voice translation system that sets the translation language by voice input.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. The voice input unit (4) for inputting the voice data of the conversation emitted by the speaker (B), the voice data of the second language voice-translated by the translation management server (11), and the voice-translated first language The voice output unit (5) that outputs voice data and the voice data of the first language and the second language input by the voice input unit (4) are transmitted to the translation management server (11), and the translation management server. A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving the second language and the voice data of the first language output from (11), and
The control unit (12) controlled by the operation of the input unit (14) and the voice data of the first language and the second language input from the voice input unit (4) of the voice translation terminal (1) are received. A transmitter / receiver (13) that transmits voice data of the second language and the first language output from the translation management server (11), and a multilingual information database (18a) that stores information data related to language type identification. , "Dialogue" and medical-related terms, technical terms / dialect information database (18b) that accumulates "technical terms" such as criminal case-related terms, and the second conversation entered in the transmitter / receiver (13) The multilingual information database (18a) and the specialty from the voice data of the conversation content related to the technical term in the second language issued by the person (B) or the voice data of the second language issued by the second speaker (B) in the dialect. A language analysis unit (16) that identifies the type of the second language using the term / dialect information database (18b) and a second language set by the language analysis unit (16) are transliterated into the first language. A translation management server (11) having a translation unit (15) for translating a first language into a second language.
In the voice translation terminal (1), voice data of conversation contents related to technical terms in a second language issued by a second speaker (B) or voice data of a second language issued by a second speaker (B) in a dialect. Enter and
The translation language is set by transmitting the voice data to the translation management server (11) and analyzing and specifying the language (second language) to be translated by the translation management server (11).
The feature is that the voice translation content is transmitted to the voice translation terminal (1) in both directions of the set language (second language) and the first language, and the voice is emitted.

また、本発明の自動音声翻訳システムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ、第2言語を使用している第2会話者(B)が発する会話の音声データ及び第3言語を使用している第3会話者(C)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語、第2言語及び第3言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部(6)と、有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語、第3言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語、第3言語が発する会話の音声を第1言語に音声翻訳し、第1言語を第2言語、第3言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)、第3会話者(C)が発する第2言語、第3言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データを入力し、その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする。
Further, the automatic speech translation system of the present invention includes a first language voice emitted by the first speaker (A), a second language voice emitted by a second speaker (B) different from the first language, and further. It is an automatic voice translation system that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C), which is different from the first language and the second language, into each.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. A voice input unit (4) for inputting voice data of a conversation issued by a speaker (B) and voice data of a conversation issued by a third speaker (C) using a third language, and a translation management server (11). A voice output unit (5) that outputs the voice data of the second language and the third language that has been voice-translated in the above, and the voice data of the first language that has also been voice-translated in Voice data of one language, second language and third language is transmitted to the translation management server (11), and voice data of the second language, third language and first language output from the translation management server (11). A transmitter / receiver (6) that receives the above, a voice translation terminal (1) that has the
Voice data of the first language, the second language, and the third language input from the control unit (12) controlled by the operation of the input unit (14) and the voice input unit (4) of the voice translation terminal (1). Is received, and the transmitter / receiver (13) that transmits the voice data of the second language, the third language, and the first language output from the translation management server (11), and the information data related to the type identification of the language are accumulated. A multilingual information database (18a), a technical term / dialect information database (18b) that accumulates "technical terms" such as "dialogs", medical terms, and criminal case related terms, and a transmitter / receiver (13). ), The second language spoken by the second speaker (B), the conversation content voice data related to the technical terms in the third language spoken by the third speaker (C), or the second speaker (B), the third. From the voice data of the second language and the third language uttered by the speaker (C) in the dialect, the second language and the third language are used by using the multilingual information database (18a) and the technical term / dialect information database (18b). The language analysis unit (16) that specifies the type of language and the voices of the conversations of the second and third languages set by the language analysis unit (16) are voice-translated into the first language, and the first language is converted. It is equipped with a translation unit (15) that translates into a second language and a third language, and a translation management server (11) that has.
The voice translation terminal (1) is provided with voice data of conversation contents related to a second language, a technical term in a third language, or a second speaker (a second speaker (B), a third speaker (C), or a second speaker (C). B), the voice data of the second language and the third language uttered by the third speaker (C) in the dialect are input, the voice data is transmitted to the translation management server (11), and the translation management server (11) By analyzing and identifying the language to be translated in (2nd language, 3rd language), each translation language is set, and both the set language (2nd language, 3rd language) and the 1st language are set. It is characterized in that it is configured to transmit the voice translation content to the voice translation terminal (1) and emit a voice.

本発明の自動音声翻訳方法は、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データが入力され、
この第2言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声について、その第2言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語と第1言語の双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする。
The automatic speech translation method of the present invention bidirectionally translates the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. It is an automatic voice translation method that sets the translation language by voice input.
The voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2).
The voice data of this second language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). The type of the second language is set for the voice data of the conversation content related to the technical term in the second language uttered by) or the voice of the second language uttered by the second speaker (B) in the dialect.
After that, when the voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1), the voice translated by the translation management server (11) into the first language is said to be the same. Output to the voice translation terminal (1)
The voice translated by the translation management server (11) in both directions of the set second language and the first language is output to the voice translation terminal (1).

また、本発明の自動音声翻訳方法は、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声データが入力され、
この第2言語、第3言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声について、その第2言語、第3言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語、第3言語と第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする。
Further, the automatic speech translation method of the present invention includes a first language voice emitted by the first speaker (A), a second language voice emitted by a second speaker (B) different from the first language, and further. It is an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C) different from the first language and the second language, respectively.
Second language voice data emitted by the second speaker (B) to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2), the third speaker (C). The voice data of the third language emitted by is input,
The voice data of the second language and the third language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice data related to the technical terms in the third language issued by the third speaker (C), or the second spoken by the second speaker (B) and the third speaker (C) in a dialect. For the language and the voice of the third language, the types of the second language and the third language are set, and
After that, when the voice data of the second language emitted by the second speaker (B) and the third language emitted by the third speaker (C) are input to the voice translation terminal (1), the first language is described as described above. The voice translated by the translation management server (11) is output to the voice translation terminal (1).
The voice translated by the translation management server (11) into each of the set second language, third language, and first language is output to the voice translation terminal (1).

本発明の自動音声翻訳のプログラムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声、又は第2会話者(B)が方言により発する第2言語の音声から、その第2言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語に、及び第2会話者(B)が発する第2言語の音声データが入力されると第1言語に双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行る、ことを特徴とする。
The automatic speech translation program of the present invention bidirectionally transmits the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. A program that executes an automatic voice translation method that translates and sets the translation language by voice input.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, to receive translation management server (11), a receiving step ,
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks of the conversation content related to the technical term in the second language, or the second language spoken by the second speaker (B) in the dialect, the type of the second language is specified and the translation language is set. Translation language setting steps and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the voice data of the second language emitted by the second speaker (B) and in the second language. a speech translation step but the voice translated into the first language is input by the translation management server bidirectionally (11) outputs the speech translation terminal unit (1), translation management server (11) is made of run the automatic speech translation method, characterized in that.

また、本発明の自動音声翻訳のプログラムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データ、第3会話者(C)が発した第3言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声から、その第2言語、第3言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語、第3言語に、及び第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声が入力されると第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行る、ことを特徴とする。
Further, the automatic speech translation program of the present invention includes a first language voice emitted by the first speaker (A) and a second language voice emitted by a second speaker (B) different from the first language. Furthermore, it is a program that executes an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C) different from the first language and the second language, respectively.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, the third language third conversation party (C) has been issued The voice data of the above is received by the translation management server (11), the reception step, and
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice related to the technical term in the third language uttered by the third speaker (C), or the second language uttered by the second speaker (B) and the third speaker (C) in the dialect. , The translation language setting step to specify the type of the second language and the third language from the sound of the third language and set the translation language, and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the second language, the third language, and the second speaker (B) emit the second language. When the voice data of the language and the voice of the third language emitted by the third speaker (C) are input, the voice translated by the translation management server (11) into each of the first languages is the voice translation terminal (1). a speech translation step of outputting, the translation management server consisting of (11) to run an automatic speech translation process, it is characterized.

上記構成の音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムでは、会話相手(第2会話者(B)、第3会話者(C))の発する言語(第2言語、第3言語)が不明な場合であっても、その会話相手が発する一言、例えば挨拶などの簡易な言葉(音声)を音声翻訳端末器(1)に話しかけるだけで、容易にその不明な言語の国名(種類)を判別し、双方の翻訳する言語の種類を容易に設定することができる。会話が必要な場面で迅速に双方向の自動音声翻訳を簡易な操作で実現することができる。 In the automatic voice translation system, the automatic voice translation method, and its program in which the translation language is set by the voice input having the above configuration, the language (second) spoken by the conversation partner (second speaker (B), third speaker (C)). Even if the language (third language) is unknown, it can be easily understood by simply speaking a word (voice) such as a greeting from the conversation partner to the voice translation terminal (1). It is possible to identify the country name (type) of a different language and easily set the type of language to be translated by both. Two-way automatic speech translation can be quickly realized with a simple operation in situations where conversation is required.

また、第2会話者(B)、第3会話者(C)の発する言語(第2言語、第3言語)が主要国の言語であってもいわゆる方言がある音声の場合においても容易に言語を判別できる。日本人が海外旅行において、又は外国人が日本に滞在しているときに、病気、けがをしたときに、病院や周囲の人に、病気、けがの状況を正確に伝達できる。日本人が海外旅行において、又は外国人が日本に滞在しているときに、犯罪や事件に巻き込まれたときに、警察や事件現場においてその状況について正確に伝達できる。
音声翻訳端末器(1)に、不明な言語を特定した際にその言語の種類をデータベース化した翻訳設定蓄積部(9)を備えているので、同様な不明な言語について、翻訳管理サーバ(11)からの分析を経ることなく言語の種類を迅速に特定できる。
Further, even if the languages (second language, third language) uttered by the second speaker (B) and the third speaker (C) are the languages of the major countries, the language can be easily spoken even when there is a so-called dialect. Can be determined. When a Japanese person is traveling abroad or a foreigner is staying in Japan and is sick or injured, the situation of the illness or injury can be accurately communicated to the hospital or those around him. When a Japanese person is traveling abroad or a foreigner is staying in Japan and is involved in a crime or incident, the police or the scene of the incident can accurately convey the situation.
Since the voice translation terminal (1) is provided with a translation setting storage unit (9) that creates a database of the types of unknown languages when an unknown language is identified, a translation management server (11) is provided for similar unknown languages. ) Can quickly identify the type of language without going through the analysis.

本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムを説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は双方向の音声翻訳の段階である。It is a schematic explanatory diagram explaining the automatic voice translation system which sets a translation language by the voice input of Example 1 of this invention, (a) is a step of setting a translation language, (b) is a stage of bidirectional voice translation. Is. 本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの構成を示すブロック図である。It is a block diagram which shows the structure of the automatic speech translation system which sets the translation language by the speech input of Example 1 of this invention. 第1言語の翻訳言語を設定する、言語分析1の作業フロー図である。It is a work flow diagram of the language analysis 1 which sets the translation language of the 1st language. 第2言語の翻訳言語を設定する、言語分析2の作業フロー図である。It is a work flow diagram of the language analysis 2 which sets the translation language of the second language. 第1言語と第2言語の翻訳言語を共に設定する、言語分析1、2の作業フロー図である。It is a work flow diagram of language analysis 1 and 2 which sets both the translation language of the 1st language and the translation language of the 2nd language. 本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は第2会話者との音声翻訳の段階である。It is a schematic explanatory diagram explaining the modification 1 of the automatic speech translation system which sets a translation language by the voice input of Example 1 of this invention, (a) is a step of setting a translation language, (b) is a second conversation. It is the stage of voice translation with a person. 本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(c)は第3会話者Cとの音声翻訳の段階である。It is a schematic explanatory diagram explaining the modification 1 of the automatic voice translation system which sets a translation language by the voice input of Example 1 of this invention, and (c) is a stage of voice translation with a third speaker C. 方言を有する第2言語の翻訳言語を設定する設定方法の変形例1の言語分析の作業フロー図である。It is a work flow diagram of the language analysis of the modification 1 of the setting method which sets the translation language of the second language which has a dialect. 専門用語を有する第2言語の翻訳言語を設定する設定方法の変形例2の言語分析の作業フロー図である。It is a work flow diagram of the language analysis of the modification 2 of the setting method which sets the translation language of the second language which has a technical term. 本発明の自動音声翻訳方法を説明する概略説明図であり、(a)は第1言語と第2言語共に音声による翻訳言語を設定する状態、(b)は第2言語のみ音声による翻訳言語を設定する状態である。It is a schematic explanatory diagram explaining the automatic speech translation method of this invention, (a) is the state which sets the translation language by voice for both 1st language and 2nd language, (b) is the translation language by voice only in 2nd language. It is in the state to be set. 本発明の実施例3の音声入力で翻訳言語を設定する自動音声翻訳装置の構成を示すブロック図である。It is a block diagram which shows the structure of the automatic speech translation apparatus which sets a translation language by the speech input of Example 3 of this invention. 従来の自動音声翻訳システムの構成を示す概略構成図である。It is a schematic block diagram which shows the structure of the conventional automatic speech translation system.

本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、日本国内において、例えば外国人がその母国語で表現した会話の内容を、その母国語と異なる日本人の日本語の音声に双方向に翻訳する際に、この相手の言語を音声で判別し、設定するシステムである。 In the automatic voice translation system that sets the translation language by voice input of the present invention, for example, in Japan, the content of a conversation expressed by a foreigner in his / her mother tongue can be translated into Japanese voice that is different from his / her mother tongue. This is a system that determines and sets the language of the other party by voice when translating.

以下、本発明の好ましい実施の形態を図面を参照して説明する。
<自動音声翻訳システムの構成>
図1は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムを説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は双方向の音声翻訳の段階である。図2は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの構成を示すブロック図である。
実施例1の本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、音声翻訳を欲する会話者(第1会話者A)が使用する音声翻訳端末器1と、無線LANでデータが送受信される、翻訳に関する情報を管理する翻訳管理サーバ11とから構成されるシステムである。第1会話者Aの第1言語で表現された会話の内容を、第1言語と異なる第2会話者Bの第2言語の音声に双方向に翻訳する際に、この第2会話者Bの第2言語の相手の言語を音声で判別し、翻訳言語を設定するシステムである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
<Configuration of automatic speech translation system>
FIG. 1 is a schematic explanatory diagram illustrating an automatic voice translation system for setting a translation language by voice input according to the first embodiment of the present invention, (a) is a stage of setting a translation language, and (b) is a bidirectional voice. It is in the translation stage. FIG. 2 is a block diagram showing a configuration of an automatic speech translation system that sets a translation language by voice input according to the first embodiment of the present invention.
The automatic voice translation system of the first embodiment, which sets a translation language by voice input, transmits and receives data via a wireless LAN to a voice translation terminal 1 used by a speaker (first speaker A) who desires voice translation. It is a system composed of a translation management server 11 that manages information related to translation. When bidirectionally translating the content of the conversation expressed in the first language of the first speaker A into the voice of the second language of the second speaker B different from the first language, the second speaker B It is a system that determines the language of the other party of the second language by voice and sets the translation language.

ここで第1会話者A、第1言語、第2会話者B、第2言語と表現しているが、これらは順番、等級とは関係なく、便宜的に表現したものである。例えば、第1会話者Aは日本人で、第1言語は日本語を意味する。第2会話者Bは外国人で、第2言語は日本語以外の母国語を意味する。即ち、本発明の自動音声翻訳システムを利用する人が、第1会話者Aとなる。例えば音声翻訳端末器1を持っている人がスペイン人のときは、第1会話者Aとなり、第1言語がスペイン語となる。その会話の相手がフランス人のときは、第2会話者Bとなり、第2言語が例えばフランス語となる。これらに例示した言語に限定されないことは勿論である。 Here, the first speaker A, the first language, the second speaker B, and the second language are expressed, but these are expressed for convenience regardless of the order and grade. For example, the first speaker A is Japanese, and the first language means Japanese. The second speaker B is a foreigner, and the second language means a native language other than Japanese. That is, the person who uses the automatic speech translation system of the present invention is the first speaker A. For example, when the person who has the voice translation terminal 1 is Spanish, it becomes the first speaker A and the first language is Spanish. When the conversation partner is French, it becomes the second speaker B, and the second language is, for example, French. Of course, it is not limited to the languages exemplified by these.

<音声翻訳端末器の構成>
第1会話者Aが使用する音声翻訳端末器1は、図2に示すように、ON/OFFの電源スイッチの入力部2と、この入力部(操作ボタン)2の操作により制御されるCPUなどの制御部3を有する。この音声翻訳端末器1は、音声入力部4と音声出力部5を有する。音声入力部4は、第1言語を使用している第1会話者Aが発する会話の音声データと、第2言語を使用している第2会話者Bが発する会話の音声データを入力するマイクなどである。音声出力部5は、後述する翻訳管理サーバ11で音声翻訳された第2言語の音声データと、同じく音声翻訳された第1言語の音声データを出力するスピーカなどである。なお、図示例では、2個の音声翻訳端末器1しか表示されていないが、これが多数あることは勿論である。
<Speech translation terminal configuration>
As shown in FIG. 2, the voice translation terminal 1 used by the first speaker A includes an input unit 2 of an ON / OFF power switch and a CPU controlled by the operation of the input unit (operation button) 2. It has a control unit 3 of the above. The voice translation terminal 1 has a voice input unit 4 and a voice output unit 5. The voice input unit 4 is a microphone that inputs the voice data of the conversation uttered by the first speaker A using the first language and the voice data of the conversation uttered by the second speaker B using the second language. And so on. The voice output unit 5 is a speaker or the like that outputs the voice data of the second language that has been voice-translated by the translation management server 11 described later and the voice data of the first language that has also been voice-translated. In the illustrated example, only two speech translation terminals 1 are displayed, but it goes without saying that there are many of them.

音声翻訳端末器1は、その送信部・受信部6が音声入力部4で入力した第1言語と第2言語の音声データを翻訳管理サーバ11の送信部・受信部13に送信すると共に、この翻訳管理サーバ11から出力した第2言語と第1言語の音声データを受信する。この音声翻訳端末器1はインターネット21に接続して、翻訳管理サーバ11の送信部・受信部13に送信・受信する。 The voice translation terminal 1 transmits the voice data of the first language and the second language input by the transmission unit / reception unit 6 in the voice input unit 4 to the transmission unit / reception unit 13 of the translation management server 11, and also transmits the voice data of the first language and the second language. Receives the second language and first language audio data output from the translation management server 11. The voice translation terminal 1 connects to the Internet 21 and transmits / receives to the transmission / reception unit 13 of the translation management server 11.

この音声翻訳端末器1には、翻訳管理サーバ11により音声翻訳すべき言語が判別されたきに、それぞれの言語を設定する翻訳設定部7を有する。この翻訳設定部7は、例えば第2会話者Bの第2言語が「英語」と判別され、第1会話者Aの第1言語の「日本語」との間で双方向に音声翻訳することを設定する。 The voice translation terminal 1 has a translation setting unit 7 that sets each language when the translation management server 11 determines the language to be translated. For example, the translation setting unit 7 determines that the second language of the second speaker B is "English" and bidirectionally translates the voice with the first language "Japanese" of the first speaker A. To set.

この音声翻訳端末器1には、表示部8と翻訳設定蓄積部9を有する。表示部8はスイッチのON/OFF、現在の言語の種類、無線LANの受信状況、バッテリー残量などの情報を表示する。音声翻訳端末器1のモニター画面(表示部8)がタッチパネルのときは、そのまま第1言語、第2言語、専門用語等を入力する入力部2として機能する。キーボード、操作ボタンがあるときはこれが入力部2となる。 The voice translation terminal 1 has a display unit 8 and a translation setting storage unit 9. The display unit 8 displays information such as switch ON / OFF, current language type, wireless LAN reception status, and battery level. When the monitor screen (display unit 8) of the voice translation terminal 1 is a touch panel, it functions as an input unit 2 for inputting a first language, a second language, technical terms, and the like as it is. When there is a keyboard and operation buttons, this is the input unit 2.

翻訳設定蓄積部9は、後述する不明な言語を特定した際にその言語の種類をデータベース化したものである。同様な不明な言語について、翻訳管理サーバ11からの分析を経ることなく言語の種類を迅速に特定できるようになっている。 Translation setting storage unit 9 is a database of the type of language when identifying the unknown language to be described later. For a similar unknown language, the type of language can be quickly identified without undergoing analysis from the translation management server 11.

<翻訳管理サーバの構成>
翻訳管理サーバ11は、図2に示すように、例えばCPUなどの制御部12によって構成され、送信部・受信部13、入力部14、翻訳部15、言語分析部16、表示部17とから成る。更に、各国の言語に関するデータを格納する多言語情報データベース18aと、専門用語、方言に関する情報を格納する専門用語・方言情報データベース18bとを有する。
<Translation management server configuration>
As shown in FIG. 2, the translation management server 11 is composed of, for example, a control unit 12 such as a CPU, and includes a transmission unit / reception unit 13, an input unit 14, a translation unit 15, a language analysis unit 16, and a display unit 17. .. Further, it has a multilingual information database 18a that stores data on the languages of each country, and a technical term / dialect information database 18b that stores information on technical terms and dialects.

多言語情報データベース18aは、例えば日本語に相当する意味合いを有する外国語の表現に関する情報データを蓄積したデータベースである。更に英語とスペイン語の双方向の音声翻訳、ドイツ語と中国語の双方向の音声翻訳にも対応できるようになっている。その他種々の音声翻訳に対応するようになっている。
専門用語・方言情報データベース18bは、専門用語、方言に関する情報データを蓄積したデータベースである。これは例えば英語であれば、アメリカ英語、イギリス英語、オーストラリア英語、カナダ英語の微妙な相違に関する情報データを蓄積したデータベースがある。病気・ケガについて各言語の表現に関する情報データを蓄積したデータベースがある。更に、犯罪・事件について各言語の表現に関する情報データを蓄積したデータベースがある。これらの専門用語・方言情報データベースは一例であって、その他の種々の言語に関する情報データが該当する。
The multilingual information database 18a is a database that stores information data related to expressions in a foreign language having a meaning equivalent to, for example, Japanese. In addition, it can support two-way voice translation between English and Spanish, and two-way voice translation between German and Chinese. It is designed to support various other voice translations.
The technical term / dialect information database 18b is a database that stores information data related to technical terms and dialects. For example, in the case of English, there is a database that stores information data on subtle differences between American English, British English, Australian English, and Canadian English. There is a database that stores information data on expressions in each language for illnesses and injuries. In addition, there is a database that stores information data on expressions in each language for crimes and incidents. These technical term / dialect information databases are examples, and information data related to various other languages are applicable.

翻訳管理サーバ11は、音声翻訳端末器1から送信された音声データについて翻訳部15が所定の言語に音声翻訳する。英語を日本語に音声翻訳し、第1会話者Aの第1言語(英語)の会話内容を理解する。次に第2会話者Bの第2言語(日本語)を英語に音声翻訳し、会話相手(第1会話者A)に会話内容を理解してもらうようになっている。 In the translation management server 11, the translation unit 15 translates the voice data transmitted from the voice translation terminal 1 into a predetermined language. Translate English into Japanese and understand the conversation content of the first speaker A in the first language (English). Next, the second language (Japanese) of the second speaker B is voice-translated into English so that the conversation partner (first speaker A) can understand the conversation content.

翻訳管理サーバ11は、言語一時蓄積部(メモリ)19を有し、ここには翻訳部15が過去に翻訳した双方向の翻訳内容を一時的に蓄積する。 The translation management server 11 has a language temporary storage unit (memory) 19, in which the bidirectional translation contents translated in the past by the translation unit 15 are temporarily stored.

<翻訳言語の設定方法>
翻訳言語を設定する際は2種類の方法がある。第1の設定方法は、上述したような第2言語の判別し、翻訳言語の設定と同様な手順で、第1言語の翻訳言語についても設定することができる。例えば、日本語を第1言語にしたいときは、音声翻訳端末器1の音声入力部4に「おはよう」と発して、翻訳管理サーバ11において第1言語が「日本語」であることを特定し、翻訳言語とする設定方法である。
第2の設定方法は、本発明の音声翻訳端末器1を操作する第1会話者Aは、第1言語は予め自ら選択できるので、音声翻訳端末器1に第1言語の種類を入力部2で特定する設定方法である。
<How to set the translation language>
There are two ways to set the translation language. In the first setting method, the translation language of the first language can also be set by the same procedure as the setting of the second language and the translation language as described above. For example, when Japanese is to be the first language, "Good morning" is issued to the voice input unit 4 of the voice translation terminal 1, and the translation management server 11 specifies that the first language is "Japanese". , It is a setting method to use as a translation language.
In the second setting method, since the first speaker A who operates the voice translation terminal 1 of the present invention can select the first language by himself / herself in advance, the type of the first language is input to the voice translation terminal 1 by the input unit 2. This is the setting method specified by.

図3は第1言語の翻訳言語を設定する、言語分析1の作業フロー図である。図4は第2言語の翻訳言語を設定する、言語分析2の作業フロー図である。図5は第1言語と第2言語の翻訳言語を共に設定する、言語分析1、2の作業フロー図である。
音声翻訳端末器1を有する第1会話者Aは、図3と図5に示すように、「おはよう」とスピーカなどの音声入力部4に発する。この音声翻訳端末器1に入力された音声データは、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。
FIG. 3 is a work flow diagram of language analysis 1 in which a translation language of the first language is set. FIG. 4 is a work flow diagram of language analysis 2 in which a translation language of a second language is set. FIG. 5 is a work flow diagram of language analysis 1 and 2 in which both the first language and the translation language of the second language are set.
As shown in FIGS. 3 and 5, the first speaker A having the voice translation terminal 1 emits "Good morning" to the voice input unit 4 such as a speaker. The voice data input to the voice translation terminal 1 is transmitted to the translation management server 11 via the transmission / reception units 6 and 13 and the Internet 21.

翻訳管理サーバ11では、受信した音声データについて、言語情報データベース18aに格納されたデータと比較し、音声データの言語について判定、推測する。例えば、第1言語の音声について、その第1言語の種類が「日本語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(日本語)が設定される。翻訳機能の起動中は、第1言語は日本語で出力する。 The translation management server 11 compares the received voice data with the data stored in the language information database 18a, and determines and estimates the language of the voice data. For example, with respect to the voice of the first language, the type of the first language is determined to be "Japanese". The translation language setting information is transmitted to the voice translation terminal 1 via the transmission / reception units 6 and 13 and the Internet 21, and the translation language determined by the translation setting unit 7 of the voice translation terminal 1 (Japan). Word) is set. While the translation function is running, the first language is output in Japanese.

次に、言語が不明な第2会話者Bは、図4と図5に示すように、音声入力部4に「Buenos dias.」と発する。この音声翻訳端末器1に入力された音声データが、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、その第2言語の種類が「スペイン語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(英語)が設定される。翻訳機能の起動中は、第2言語はスペイン語で出力する。 Next, the second speaker B whose language is unknown issues "Buenos dias." To the voice input unit 4, as shown in FIGS. 4 and 5. The voice data input to the voice translation terminal 1 is transmitted to the translation management server 11 via the transmission / reception units 6 and 13 and the Internet 21. With respect to the received voice data, the type of the second language is determined to be "Spanish" for the voice of the second language based on the language information database 18a stored in the translation management server 11. The translation language setting information is transmitted to the voice translation terminal 1 via the transmission / reception units 6 and 13 and the Internet 21, and the translation language (English) determined by the translation setting unit 7 of the voice translation terminal 1. ) Is set. While the translation function is activated, the second language is output in Spanish.

その後、図5に示すように、特定された第1言語と第2言語の双方向に翻訳された音声が音声翻訳端末器1に出力される。この翻訳設定部7に基づき、「スペイン語」の会話音声が音声翻訳端末器1に取り込まれると、その会話内容が翻訳管理サーバ11で「日本語」に音声翻訳される。「日本語」の会話音声が音声翻訳端末器1に取り込まれると、その会話内容が翻訳管理サーバ11で「スペイン語」に音声翻訳される。これにより音声翻訳が双方向になされ、第1会話者Aと第2会話者Bの間で会話の意思の疎通が図れる。 After that, as shown in FIG. 5, the bidirectionally translated voice of the specified first language and the second language is output to the voice translation terminal 1. When the conversation voice of "Spanish" is taken into the voice translation terminal 1 based on the translation setting unit 7, the conversation content is voice-translated into "Japanese" by the translation management server 11. When the conversational voice of "Japanese" is taken into the voice translation terminal 1, the conversation content is voice-translated into "Spanish" by the translation management server 11. As a result, the voice translation is bidirectional, and the intention of the conversation can be communicated between the first speaker A and the second speaker B.

本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、これを使用中に、緊急放送が入った場合に、その言語をセットして優先的に翻訳する機能を含めることが可能である。 The automatic voice translation system that sets the translation language by voice input of the present invention can include a function of setting the language and preferentially translating when an emergency broadcast comes in while using the system. ..

<翻訳言語の設定方法の変形例1>
図6は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は第2会話者との音声翻訳の段階である。図7は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(c)は第3会話者Cとの音声翻訳の段階である。
変形例1の自動音声翻訳システムは、会話者が3名の場合にも使用できる。変形例1の自動音声翻訳システムは、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声とをそれぞれに翻訳するシステムである。
<Transformation example 1 of translation language setting method>
FIG. 6 is a schematic explanatory view illustrating a modification 1 of an automatic speech translation system in which a translation language is set by voice input according to the first embodiment of the present invention. FIG. 6A is a step of setting a translation language, and FIG. This is the stage of voice translation with the second speaker. FIG. 7 is a schematic explanatory view illustrating a modification 1 of an automatic voice translation system in which a translation language is set by voice input according to the first embodiment of the present invention, and FIG. 7C is a stage of voice translation with a third speaker C. Is.
The automatic speech translation system of the first modification can be used even when there are three speakers. In the automatic voice translation system of the first modification, the voice of the first language emitted by the first speaker A, the voice of the second language emitted by the second speaker B different from the first language, and the first language and the first language are further provided. It is a system that translates the voice of the third language emitted by the third speaker C, which is different from the two languages.

変形例1の音声翻訳端末器1は、入力部2の操作により制御される制御部3と、第1言語を使用している第1会話者Aが発する会話の音声データ、第2言語を使用している第2会話者Bが発する会話の音声データ及び第3言語を使用している第3会話者Cが発する会話の音声データを入力する音声入力部4と、翻訳管理サーバ11で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部5と、音声入力部4で入力した第1言語、第2言語と第3言語の音声データを翻訳管理サーバ11に送信すると共に、翻訳管理サーバ11から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部6と、を有する。 The voice translation terminal 1 of the modification 1 uses the control unit 3 controlled by the operation of the input unit 2, the voice data of the conversation uttered by the first speaker A who is using the first language, and the second language. Voice translation by the voice input unit 4 for inputting the voice data of the conversation uttered by the second speaker B and the voice data of the conversation uttered by the third speaker C using the third language, and the translation management server 11. A voice output unit 5 that outputs the voice data of the second language and the third language and the voice data of the first language that is also voice-translated, and a first language, a second language, and a second language input by the voice input unit 4. It has a transmission unit / reception unit 6 that transmits voice data in three languages to the translation management server 11 and receives voice data in the second language, the third language, and the first language output from the translation management server 11.

変形例1の翻訳管理サーバ11は、入力部14の操作により制御される制御部12と、音声翻訳端末器1の音声入力部4から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ11から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部13と、言語の種類特定に関する情報データを蓄積した言語情報データベース18aと、送信部・受信部13で入力した第2言語、第3言語の音声データから、該言語情報データベース18aを用いてその第2言語、第3言語の種類を特定する言語分析部16と、言語分析部16で設定された第2言語、第3言語を第1言語に音声翻訳し、第2言語、第3言語を第1言語に音声翻訳する翻訳部15と、を有する。 The translation management server 11 of the first modification is the control unit 12 controlled by the operation of the input unit 14 and the voices of the first language, the second language, and the third language input from the voice input unit 4 of the voice translation terminal 1. A transmitter / receiver 13 that receives data and transmits audio data of the second language, the third language, and the first language output from the translation management server 11, and a language information database that stores information data related to language type identification. From the 18a and the voice data of the second language and the third language input by the transmitting unit / receiving unit 13, the language analysis unit 16 and the language analysis unit 16 that specify the type of the second language and the third language using the language information database 18a. , A translation unit 15 that voice-translates the second language and the third language set by the language analysis unit 16 into the first language, and voice-translates the second language and the third language into the first language.

変形例1の自動音声翻訳システムは、音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力し、その音声データを翻訳管理サーバ11に送信し、翻訳管理サーバ11で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器1へ送信し、音声を発するようになっている。 In the automatic voice translation system of the first modification, the voice data of the second language emitted by the second speaker B is input to the voice translation terminal 1, the voice data is transmitted to the translation management server 11, and the translation management server 11 By analyzing and identifying the language to be translated in (2nd language, 3rd language), each translation language is set, and both the set language (2nd language, 3rd language) and the 1st language are set. The voice translation content is transmitted to the voice translation terminal 1 to emit voice.

図示例では、不明な第2会話者Bの第2言語を「スペイン語」と設定した後に、更に不明な第3会話者Cの第3言語を「イタリア語」と設定した状態を示す。言語が不明な第3会話者Cは、図6(a)に示すように、音声入力部4に「Buongiorno.」と発する。この音声翻訳端末器1に入力された音声データが、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された多言語情報データベース18aに基づいて、第3言語の音声について、その第3言語の種類が「イタリア語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(英語)が設定される。翻訳機能の起動中は、第3言語はイタリア語で出力する。 In the illustrated example, after the second language of the unknown second speaker B is set to "Spanish", the third language of the unknown third speaker C is set to "Italian". As shown in FIG. 6A, the third speaker C whose language is unknown emits "Boongiorno." To the voice input unit 4. The voice data input to the voice translation terminal 1 is transmitted to the translation management server 11 via the transmission / reception units 6 and 13 and the Internet 21. With respect to the received voice data, the type of the third language is determined to be "Italian" for the voice of the third language based on the multilingual information database 18a stored in the translation management server 11. The translation language setting information is transmitted to the voice translation terminal 1 via the transmission / reception units 6 and 13 and the Internet 21, and the translation language (English) determined by the translation setting unit 7 of the voice translation terminal 1. ) Is set. While the translation function is activated, the third language is output in Italian.

<翻訳言語の設定方法の変形例2>
図8は方言を有する第2言語の翻訳言語を設定する設定方法の変形例2の言語分析の作業フロー図である。
言語が不明な第2会話者Bが方言を有する場合は、図8に示すように、「Good day」と音声入力部4に発する。この音声翻訳端末器1に入力された音声データが、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、種々ある英語のいずれかであると判定される。その判断基準は、方言、イントネーション、語尾、語頭、特徴的発音(巻き舌、濃音など)から判断される。アメリカ英語、イギリス英語、オーストラリア英語、カナダ英語などの中から、あいさつが「Good day」となるため、オーストラリア英語と判断される。
専門用語・方言情報データベース18bには、英語に限らず、例えば、フランス語についてフランス国のほかにカナダ仏語、アフリカの仏語などが含まれる。また、ドイツ語もヨーロッパのドイツ国のほかにスイス独語などが含まれる。
<Transformation example 2 of translation language setting method>
FIG. 8 is a work flow diagram of language analysis of variant 2 of the setting method for setting a translation language of a second language having a dialect.
When the second speaker B whose language is unknown has a dialect, as shown in FIG. 8, "Good day" is emitted to the voice input unit 4. The voice data input to the voice translation terminal 1 is transmitted to the translation management server 11. The received voice data is determined to be one of various English words with respect to the voice of the second language based on the language information database 18a stored in the translation management server 11. The judgment criteria are judged from dialect, intonation, ending, beginning of word, and characteristic pronunciation (rolled tongue, deep tone, etc.). From American English, British English, Australian English, Canadian English, etc., the greeting is "Good day", so it is judged to be Australian English.
The technical term / dialect information database 18b includes not only English but also French, such as Canadian French and African French, in addition to French. In addition to German in Europe, German also includes Swiss German.

<翻訳言語の設定方法の変形例3>
図9は専門用語を有する第2言語の翻訳言語を設定する設定方法の変形例3の言語分析の作業フロー図である。
日本人である第1会話者Aは第1言語を日本語に設定する。
第2会話者Bは第2言語を判別してもらうために、図9に示すように、「Gunaydin」と音声入力部4に発する。この音声翻訳端末器1に入力された音声データが、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、「トルコ語」と判別し、翻訳言語は「トルコ語」と設定する。
<Modification 3 of translation language setting method>
FIG. 9 is a work flow diagram of a language analysis of a modification 3 of a setting method for setting a translation language of a second language having technical terms.
The first speaker A, who is Japanese, sets the first language to Japanese.
As shown in FIG. 9, the second speaker B emits "Gunaydin" to the voice input unit 4 in order to have the second language discriminated. The voice data input to the voice translation terminal 1 is transmitted to the translation management server 11. The received voice data is determined to be "Turkish" for the voice of the second language based on the language information database 18a stored in the translation management server 11, and the translation language is set to "Turkish".

次に、第2会話者Bは「Cuzdnim Calindi」と音声入力部4に発する。これは「財布を盗まれた」の意味を有するので、受信した音声データは、翻訳管理サーバ11に格納された専門用語・方言情報データベース18bに基づいて、第2言語の音声について、翻訳言語は「トルコ語」であり、犯罪に関する専門用語が必要であると設定する。
その第1言語が日本語と共に、第2言語はトルコ語となり、犯罪用語が主な内容になるとも判断される。その設定情報が音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(日本語、犯罪用語)が設定される。翻訳機能の起動中は、第1言語は「日本語」で、第2言語は「トルコ語」で出力する。
専門用語・方言情報データベース18bには、犯罪用語に限定されず、科学用語、法律用語などの種々の専門用語を含む。
Next, the second speaker B emits "Cuzdinim Calindi" to the voice input unit 4. Since this has the meaning of "the wallet was stolen", the received voice data is based on the technical term / dialect information database 18b stored in the translation management server 11, and the translation language is the second language voice. Set as "Turkish" and need jargon about crime.
It is judged that the first language will be Japanese and the second language will be Turkish, and criminal terms will be the main content. The setting information is transmitted to the voice translation terminal 1, and the determined translation language (Japanese, criminal term) is set in the translation setting unit 7 of the voice translation terminal 1. While the translation function is activated, the first language is output in "Japanese" and the second language is output in "Turkish".
The technical term / dialect information database 18b includes not only criminal terms but also various technical terms such as scientific terms and legal terms.

<自動音声翻訳方法の構成>
図10は本発明の自動音声翻訳方法を説明する概略説明図であり、(a)は第1言語と第2言語共に音声による翻訳言語を設定する状態、(b)は第2言語のみ音声による翻訳言語を設定する状態である。
本発明の音声入力で翻訳言語を設定する自動音声翻訳方法には、図10(a)に示すように、第1言語と第2言語共に音声による翻訳言語を設定する方法がある。この自動音声翻訳方法は、入力部2の操作により制御される制御部3を有する音声翻訳端末器1に、第1会話者Aが発する第1言語の音声データが入力され、この第1言語の音声データが、翻訳管理サーバ11に送信され、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、この送信部・受信部13で入力した第1言語の音声について、その第1言語の種類が判別される。
<Structure of automatic speech translation method>
10A and 10B are schematic explanatory views for explaining the automatic voice translation method of the present invention, in which FIG. 10A is a state in which a voice translation language is set for both the first language and the second language, and FIG. 10B is a state in which only the second language is voiced. It is in the state of setting the translation language.
As shown in FIG. 10A, there is a method of setting a voice translation language for both the first language and the second language in the automatic voice translation method for setting a translation language by voice input of the present invention. In this automatic voice translation method, the voice data of the first language emitted by the first speaker A is input to the voice translation terminal 1 having the control unit 3 controlled by the operation of the input unit 2, and the voice data of the first language is input. The voice data is transmitted to the translation management server 11, and based on the language information database 18a stored in the translation management server 11, the voice of the first language input by the transmitting unit / receiving unit 13 is the first language. The type of is determined.

次に、同じく音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データが入力され、この第2言語の音声データが、翻訳管理サーバ11に送信され、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、送信部・受信部13で入力した第2言語の音声について、その第2言語の種類が判別される。 Next, the voice data of the second language emitted by the second speaker B is input to the voice translation terminal 1, and the voice data of the second language is transmitted to the translation management server 11, and the translation management server 11 Based on the language information database 18a stored in, the type of the second language is determined for the voice of the second language input by the transmitting unit / receiving unit 13.

音声翻訳端末器1に第2会話者Bが発する第2言語の音声データが入力されると、第2言語に翻訳された音声が音声翻訳端末器1に出力され、この音声翻訳端末器1に第1言語の音声データが入力されて双方の言語が設定される。その後、設定された第2言語と第1言語の双方向に翻訳された音声が音声翻訳端末器1に出力される。 When the voice data of the second language emitted by the second speaker B is input to the voice translation terminal 1, the voice translated into the second language is output to the voice translation terminal 1 and is output to the voice translation terminal 1. The voice data of the first language is input and both languages are set. After that, the bidirectionally translated voice of the set second language and the first language is output to the voice translation terminal 1.

図10(b)に示すように、第2言語のみ音声による翻訳言語を設定する方法がある。この自動音声翻訳方法は、第1会話者Aは、現在自己が使用している言語であるため、予め第1言語を設定することができる。第2言語の設定は、上述した方法で設定する。
その後は、本発明の音声入力で自動音声翻訳方法は、設定された第1言語と第2言語について、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に音声翻訳する。
この自動音声翻訳方法の場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
As shown in FIG. 10B, there is a method of setting a voice translation language only for the second language. In this automatic speech translation method, since the first speaker A is the language he / she is currently using, the first language can be set in advance. The second language is set by the method described above.
After that, in the voice input automatic voice translation method of the present invention, for the set first language and the second language, the voice of the first language uttered by the first speaker A and the second conversation different from the first language. The voice of the second language emitted by the person B is translated into two directions.
In the case of this automatic voice translation method as well, the function of setting the translation language and translating the voice of the third language emitted by the third speaker C, which is different from the first language and the second language, into the first language is provided. It is also possible to have it.

<自動音声翻訳方法を実行するプログラムの構成>
実施例2は音声入力で翻訳言語を設定する自動音声翻訳方法を実行させるプログラムである。実施例2のプログラムは、第1会話者Aが使用する音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力する、入力ステップと、この第2言語の音声データを、翻訳管理サーバ11に送信する、送信ステップと、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、送信部・受信部13で入力した第2言語の音声から、その第2言語の種類を特定して設定する、言語設定ステップと、音声翻訳端末器1に第1会話者Aが発する第1言語の音声データが入力されると第2言語に、及び第2会話者Bが発する第2言語の音声データが入力されると第1言語に双方向に翻訳された音声が音声翻訳端末器1に出力する音声翻訳ステップと、とをコンピュータに実行させるプログラムである。
<Structure of a program that executes the automatic speech translation method>
The second embodiment is a program for executing an automatic voice translation method for setting a translation language by voice input. The program of the second embodiment includes an input step of inputting the voice data of the second language emitted by the second speaker B into the voice translation terminal 1 used by the first speaker A, and the voice data of the second language. From the second language voice input by the transmitting unit / receiving unit 13 based on the transmission step of transmitting to the translation management server 11 and the language information database 18a stored in the translation management server 11. When the language setting step for specifying and setting the type of language and the voice data of the first language emitted by the first speaker A are input to the voice translation terminal 1, the second language and the second speaker B This is a program that causes a computer to execute a voice translation step in which voice data bidirectionally translated into the first language is output to the voice translation terminal 1 when voice data in the second language emitted by is input.

実施例2のプログラムは、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行させるプログラムである。これにより、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる。 The program of the second embodiment bidirectionally translates the voice of the first language uttered by the first speaker A and the voice of the second language uttered by the second speaker B different from the first language, and is translated by voice input. It is a program that executes an automatic speech translation method that sets the language. This makes it possible to determine the type of language and easily set the language to be translated by simply issuing simple words (speech) such as greetings, and realize bidirectional automatic voice translation with a simple operation. Can be done.

なお、これらのうちの一部の具体的な態様は、音声翻訳システム、音声翻訳方法、音声翻訳コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体を用いて実現される。また、音声翻訳システム、音声翻訳方法、音声翻訳コンピュータプログラムまたは記録媒体の任意な組み合わせを用いて実現される。
このプログラムの場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
Some specific embodiments of these are realized by using a voice translation system, a voice translation method, a voice translation computer program, or a recording medium such as a computer-readable CD-ROM. It is also implemented using any combination of speech translation system, speech translation method, speech translation computer program or recording medium.
In the case of this program as well, the translation language of the voice of the third language emitted by the third speaker C, which is different from the first language and the second language, should be set and the function of translating into the first language should be provided. Is also possible.

<自動音声翻訳装置の構成>
図11は本発明の実施例3の音声入力で翻訳言語を設定する自動音声翻訳装置の構成を示すブロック図である。
実施例3の音声入力で翻訳言語を設定する自動音声翻訳装置31は、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳装置である。実施例3の自動音声翻訳装置31は、入力部32の操作により制御される制御部33と、第1言語を使用している第1会話者Aが発する会話の音声データ及び第2言語を使用している第2会話者Bが発する会話の音声データを入力する音声入力部34と、言語の種類特定に関する情報データを蓄積した言語情報データベース35と、この音声入力部34で入力した第2言語の音声データから、この言語情報データベース35を用いてその第2言語の種類を特定する言語分析部36と、この言語分析部36で特定された第2言語を第1言語に音声翻訳し、第2言語が発する会話の音声を第1言語に音声翻訳する翻訳部37と、この翻訳部37で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部38と、音声翻訳すべき言語が判別されたきに、それぞれの言語を設定する翻訳設定部39と、翻訳部37が過去に翻訳した双方向の翻訳内容を一時的に蓄積する言語一時蓄積部(メモリ)40と、を備えたものである。
<Configuration of automatic speech translator>
FIG. 11 is a block diagram showing a configuration of an automatic voice translation device that sets a translation language by voice input according to a third embodiment of the present invention.
The automatic voice translation device 31 that sets the translation language by the voice input of the third embodiment has the voice of the first language uttered by the first speaker A and the second language uttered by the second speaker B different from the first language. It is an automatic voice translation device that translates voice in both directions and sets the translation language by voice input. The automatic voice translation device 31 of the third embodiment uses the control unit 33 controlled by the operation of the input unit 32, the voice data of the conversation uttered by the first speaker A who is using the first language, and the second language. A voice input unit 34 for inputting voice data of a conversation uttered by the second speaker B, a language information database 35 for storing information data related to language type identification, and a second language input by the voice input unit 34. The language analysis unit 36 that specifies the type of the second language using the language information database 35 and the second language specified by the language analysis unit 36 are voice-translated into the first language from the voice data of the first language. A translation unit 37 that translates the voice of a conversation uttered by two languages into a first language, a second language voice data that is voice-translated by this translation unit 37, and a voice data of the first language that is also voice-translated are output. A language that temporarily stores the bidirectional translation contents translated in the past by the translation setting unit 39 that sets each language and the translation unit 37 when the language to be translated is determined. It is provided with a temporary storage unit (memory) 40.

実施例3の自動音声翻訳装置31は、音声入力部34に、第2会話者Bが発する第2言語の音声データを入力し、言語分析部36が翻訳する言語(第2言語)を分析して特定することで、双方の翻訳言語が設定され、その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容の音声を発するように構成されたものである。 The automatic voice translation device 31 of the third embodiment inputs the voice data of the second language emitted by the second speaker B into the voice input unit 34, and analyzes the language (second language) translated by the language analysis unit 36. By specifying the above, both translation languages are set, and the voice of the voice translation content is emitted in both directions of the set language (second language) and the first language.

更に、実施例3の自動音声翻訳装置31は、音声翻訳すべき言語が判別されたときに、それぞれの言語を設定する翻訳設定部39と、翻訳部37が過去に翻訳した双方向の翻訳内容を一時的に蓄積する。スイッチのON/OFF、現在の言語の種類、バッテリー残量などの情報は表示部41に表示される。
この自動音声翻訳装置31の場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
Further, the automatic speech translation device 31 of the third embodiment has a translation setting unit 39 that sets each language when a language to be translated by speech is determined, and a bidirectional translation content that the translation unit 37 has translated in the past. Temporarily accumulate. Information such as switch ON / OFF, current language type, and remaining battery level is displayed on the display unit 41.
Also in the case of this automatic voice translation device 31, a function of setting the translation language and translating the voice of the third language emitted by the third speaker C, which is different from the first language and the second language, into the first language. It is also possible to have.

なお、本発明は、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる構成であれば、上述した発明の実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更できることは勿論である。 In the present invention, the type of language can be determined and the language to be translated can be easily set by simply issuing a simple word (speech) such as a greeting, and bidirectional automatic voice translation can be performed by a simple operation. As long as the configuration can be realized, it is not limited to the above-described embodiment of the invention, and it goes without saying that various changes can be made without departing from the gist of the present invention.

本発明の音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムは、次のような場面に利用することができる。
(a)コンビニ、スーパー、ドラックストア等で外国人のお客様と接客する際
(b)外国人店員向けの接客アシストする場面
(c)日本語の方言に対応することで、地方の店舗などでも対応可能(例 英語→関西弁)(d)スマートスピーカーの対応言語を切り替える際
(e)スマートホンアプリなどで自国語設定したスマートホン等を持っていれば、公共の音声案内が、あらかじめスマートホン等に設定された自国語で公共の音声案内が再生する際
The automatic voice translation system, the automatic voice translation method, and the program thereof for setting a translation language by voice input of the present invention can be used in the following situations.
(A) When serving foreign customers at convenience stores, supermarkets, drug stores, etc. (b) Scenes of assisting customer service for foreign clerk (c) By supporting Japanese dialects, it is possible to handle even local stores (Example: English → Kansai dialect) (d) When switching the supported language of the smart speaker (e) If you have a smartphone, etc. set in your own language with a smart phone app, etc. When the public voice guidance is played in the set native language

1 音声翻訳端末器
2 入力部
3 制御部
4 音声入力部
5 音声出力部
6 送信部・受信部
11 翻訳管理サーバ
12 制御部
13 送信部・受信部
14 入力部
15 翻訳部
16 言語分析部
18a 多言語情報データベース
18b 専門用語・方言情報データベース
31 自動音声翻訳装置
32 入力部
33 制御部
34 音声入力部
35 言語情報データベース
36 言語分析部
37 翻訳部
38 音声出力部
A 第1会話者
B 第2会話者
C 第3会話者
1 Voice translation terminal 2 Input unit 3 Control unit 4 Voice input unit 5 Voice output unit 6 Transmitter / receiver 11 Translation management server 12 Control unit 13 Transmitter / receiver 14 Input unit 15 Translation unit 16 Language analysis unit 18a Many Language information database 18b Technical term / dialect information database 31 Automatic voice translation device 32 Input unit 33 Control unit 34 Voice input unit 35 Language information database 36 Language analysis unit 37 Translation unit 38 Voice output unit A First speaker B Second speaker C Third speaker

Claims (6)

第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ及び第2言語を使用している第2会話者(B)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語と第2言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語及び第2言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語を第1言語に音声翻訳し、第1言語を第2言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データを入力し、
その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語)を分析して特定することで、その翻訳言語が設定され、
その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳システム。
A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. It is an automatic speech translation system that
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. The voice input unit (4) for inputting the voice data of the conversation emitted by the speaker (B), the voice data of the second language voice-translated by the translation management server (11), and the voice-translated first language The voice output unit (5) that outputs voice data and the voice data of the first language and the second language input by the voice input unit (4) are transmitted to the translation management server (11), and the translation management server. A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving the second language and the voice data of the first language output from (11), and
The control unit (12) controlled by the operation of the input unit (14) and the voice data of the first language and the second language input from the voice input unit (4) of the voice translation terminal (1) are received. A transmitter / receiver (13) that transmits voice data of the second language and the first language output from the translation management server (11), and a multilingual information database (18a) that stores information data related to language type identification. , "Dialogue" and medical-related terms, technical terms / dialect information database (18b) that accumulates "technical terms" such as criminal case-related terms, and the second conversation entered in the transmitter / receiver (13) The multilingual information database (18a) and the specialty from the voice data of the conversation content related to the technical term in the second language issued by the person (B) or the voice data of the second language issued by the second speaker (B) in the dialect. A language analysis unit (16) that identifies the type of the second language using the term / dialect information database (18b) and a second language set by the language analysis unit (16) are transliterated into the first language. A translation management server (11) having a translation unit (15) for translating a first language into a second language.
In the voice translation terminal (1), voice data of conversation contents related to technical terms in a second language issued by a second speaker (B) or voice data of a second language issued by a second speaker (B) in a dialect. Enter and
The translation language is set by transmitting the voice data to the translation management server (11) and analyzing and specifying the language (second language) to be translated by the translation management server (11).
A voice input characterized in that the voice translation content is transmitted to the voice translation terminal (1) in both directions of the set language (second language) and the first language, and the voice is emitted. An automatic speech translation system that sets the translation language with.
第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ、第2言語を使用している第2会話者(B)が発する会話の音声データ及び第3言語を使用している第3会話者(C)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語、第2言語及び第3言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語、第3言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語、第3言語が発する会話の音声を第1言語に音声翻訳し、第1言語を第2言語、第3言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)、第3会話者(C)が発する第2言語、第3言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データを入力し、その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳システム。
The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is an automatic voice translation system that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. A voice input unit (4) for inputting voice data of a conversation issued by a speaker (B) and voice data of a conversation issued by a third speaker (C) using a third language, and a translation management server (11). A voice output unit (5) that outputs the voice data of the second language and the third language that has been voice-translated in the above, and the voice data of the first language that has also been voice-translated in Voice data of one language, second language and third language is transmitted to the translation management server (11), and voice data of the second language, third language and first language output from the translation management server (11). A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving
Voice data of the first language, the second language, and the third language input from the control unit (12) controlled by the operation of the input unit (14) and the voice input unit (4) of the voice translation terminal (1). Is received, and the transmitter / receiver (13) that transmits the voice data of the second language, the third language, and the first language output from the translation management server (11), and the information data related to the type identification of the language are accumulated. A multilingual information database (18a), a technical term / dialect information database (18b) that accumulates "technical terms" such as "dialogs", medical terms, and criminal case related terms, and a transmitter / receiver (13). ), The second language spoken by the second speaker (B), the conversation content voice data related to the technical terms in the third language spoken by the third speaker (C), or the second speaker (B), the third. From the voice data of the second language and the third language uttered by the speaker (C) in the dialect, the second language and the third language are used by using the multilingual information database (18a) and the technical term / dialect information database (18b). The language analysis unit (16) that specifies the type of language and the voices of the conversations of the second and third languages set by the language analysis unit (16) are voice-translated into the first language, and the first language is converted. It is equipped with a translation unit (15) that translates into a second language and a third language, and a translation management server (11) that has.
The voice translation terminal (1) is provided with voice data of conversation contents related to a second language, a technical term in a third language, or a second speaker (a second speaker (B), a third speaker (C), or a second speaker (C). B), the voice data of the second language and the third language uttered by the third speaker (C) in the dialect are input, the voice data is transmitted to the translation management server (11), and the translation management server (11) By analyzing and identifying the language to be translated in (2nd language, 3rd language), each translation language is set, and both the set language (2nd language, 3rd language) and the 1st language are set. An automatic voice translation system for setting a translation language by voice input, which is configured to transmit voice translation contents to the voice translation terminal (1) and emit voice.
第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データが入力され、
この第2言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声について、その第2言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語と第1言語の双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法。
A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. It is an automatic speech translation method that
The voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2).
The voice data of this second language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). The type of the second language is set for the voice data of the conversation content related to the technical term in the second language uttered by) or the voice of the second language uttered by the second speaker (B) in the dialect.
After that, when the voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1), the voice translated by the translation management server (11) into the first language is said to be the same. Output to the voice translation terminal (1)
A translation language by voice input, characterized in that the voice translated by the translation management server (11) is output to the voice translation terminal (1) in both directions of the set second language and the first language. Automatic speech translation method to set.
第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声データが入力され、
この第2言語、第3言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声について、その第2言語、第3言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語、第3言語と第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法。
The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
Second language voice data emitted by the second speaker (B) to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2), the third speaker (C). The voice data of the third language emitted by is input,
The voice data of the second language and the third language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice data related to the technical terms in the third language issued by the third speaker (C), or the second spoken by the second speaker (B) and the third speaker (C) in a dialect. For the language and the voice of the third language, the types of the second language and the third language are set, and
After that, when the voice data of the second language emitted by the second speaker (B) and the third language emitted by the third speaker (C) are input to the voice translation terminal (1), the first language is described as described above. The voice translated by the translation management server (11) is output to the voice translation terminal (1).
A voice input characterized in that the voice translated by the translation management server (11) into each of the set second language, third language, and first language is output to the voice translation terminal (1). An automatic speech translation method that sets the translation language.
第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声、又は第2会話者(B)が方言により発する第2言語の音声から、その第2言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語に、及び第2会話者(B)が発する第2言語の音声データが入力されると第1言語に双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行る、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラム。
A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. A program that executes an automatic speech translation method
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, to receive translation management server (11), a receiving step ,
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks of the conversation content related to the technical term in the second language, or the second language spoken by the second speaker (B) in the dialect, the type of the second language is specified and the translation language is set. Translation language setting steps and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the voice data of the second language emitted by the second speaker (B) is input to the second language. Is input, a speech translation step consisting of a speech translation step in which the speech translated by the translation management server (11) bidirectionally in the first language is output to the speech translation terminal (1), and a translation management server (11). that perform automatic speech translation process, a program for performing an automatic speech translation process to set the translation language speech input, characterized in that.
第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データ、第3会話者(C)が発した第3言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声から、その第2言語、第3言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語、第3言語に、及び第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声が入力されると第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行る、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラム。

The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is a program that executes an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, the third language third conversation party (C) has been issued The voice data of the above is received by the translation management server (11), the reception step, and
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice related to the technical term in the third language uttered by the third speaker (C), or the second language uttered by the second speaker (B) and the third speaker (C) in the dialect. , The translation language setting step to specify the type of the second language and the third language from the sound of the third language and set the translation language, and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the second language, the third language, and the second speaker (B) emit the second language. When the voice data of the language and the voice of the third language emitted by the third speaker (C) are input, the voice translated by the translation management server (11) into each of the first languages is the voice translation terminal (1). program for executing a speech translation step, the translation management server consisting of (11) to run an automatic speech translation process, the automatic speech translation process to set the translation language speech input and outputting to.

JP2019215053A 2019-11-28 2019-11-28 Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program Active JP6856277B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215053A JP6856277B1 (en) 2019-11-28 2019-11-28 Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215053A JP6856277B1 (en) 2019-11-28 2019-11-28 Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program

Publications (2)

Publication Number Publication Date
JP6856277B1 true JP6856277B1 (en) 2021-04-07
JP2021086404A JP2021086404A (en) 2021-06-03

Family

ID=75267955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215053A Active JP6856277B1 (en) 2019-11-28 2019-11-28 Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program

Country Status (1)

Country Link
JP (1) JP6856277B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5733566B2 (en) * 2011-03-24 2015-06-10 カシオ計算機株式会社 Translation apparatus, translation method, and program
US9734142B2 (en) * 2015-09-22 2017-08-15 Facebook, Inc. Universal translation
JP6723907B2 (en) * 2016-11-30 2020-07-15 株式会社日立製作所 Language recognition system, language recognition method, and language recognition program
CN107045498A (en) * 2017-05-18 2017-08-15 深圳双猴科技有限公司 Synchronous translation equipment, method, device and the electronic equipment of a kind of double-sided display

Also Published As

Publication number Publication date
JP2021086404A (en) 2021-06-03

Similar Documents

Publication Publication Date Title
US9430467B2 (en) Mobile speech-to-speech interpretation system
KR101689290B1 (en) Device for extracting information from a dialog
US20060253272A1 (en) Voice prompts for use in speech-to-speech translation system
JP3822990B2 (en) Translation device, recording medium
US20150331665A1 (en) Information provision method using voice recognition function and control method for device
JP5731998B2 (en) Dialog support device, dialog support method, and dialog support program
JPWO2019123775A1 (en) Information processing equipment, information processing systems, information processing methods, and programs
US20210350784A1 (en) Correct pronunciation of names in text-to-speech synthesis
JP7026004B2 (en) Conversation aids, conversation aid methods and programs
JP2018045675A (en) Information presentation method, information presentation program and information presentation system
KR102300589B1 (en) Sign language interpretation system
JP6856277B1 (en) Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program
JP2020113150A (en) Voice translation interactive system
JP4079275B2 (en) Conversation support device
JP2005283972A (en) Speech recognition method, and information presentation method and information presentation device using the speech recognition method
JP2007286376A (en) Voice guide system
KR102000282B1 (en) Conversation support device for performing auditory function assistance
Kodirov et al. Implementation of web application based on Augmentative and Alternative Communication (AAC) method for People with Hearing and Speech Impairment
JP2022018724A (en) Information processing device, information processing method, and information processing program
JP6383748B2 (en) Speech translation device, speech translation method, and speech translation program
JP6110539B1 (en) Speech translation device, speech translation method, and speech translation program
JP3870722B2 (en) Translation device, recording medium
JP2000184077A (en) Intercom system
JP2002323969A (en) Communication supporting method, system and device using the method
JP2002101204A (en) Communication meditating system and telephone set for aurally handicapped person

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201029

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20201029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201029

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201119

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201120

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201204

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201208

C305 Report on accelerated appeal examination

Free format text: JAPANESE INTERMEDIATE CODE: C305

Effective date: 20201209

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201210

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201224

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210205

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210304

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R150 Certificate of patent or registration of utility model

Ref document number: 6856277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250