JP6856277B1 - Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program - Google Patents
Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program Download PDFInfo
- Publication number
- JP6856277B1 JP6856277B1 JP2019215053A JP2019215053A JP6856277B1 JP 6856277 B1 JP6856277 B1 JP 6856277B1 JP 2019215053 A JP2019215053 A JP 2019215053A JP 2019215053 A JP2019215053 A JP 2019215053A JP 6856277 B1 JP6856277 B1 JP 6856277B1
- Authority
- JP
- Japan
- Prior art keywords
- language
- voice
- translation
- speaker
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 476
- 238000000034 method Methods 0.000 title claims description 56
- 230000008569 process Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 22
- 230000002457 bidirectional effect Effects 0.000 abstract description 10
- 230000014616 translation Effects 0.000 description 373
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 230000006378 damage Effects 0.000 description 4
- 208000014674 injury Diseases 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現する。【解決手段】第1会話者A(日本人)が発する第1言語(日本語)の音声と、この第1言語と異なる第2会話者B(外国人)が発する第2言語(母国語)の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであり、音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力し、その音声データを翻訳管理サーバ11に送信し、翻訳管理サーバ11で翻訳する言語(第1言語)を分析して特定することで、双方の翻訳言語が設定され、その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を音声翻訳端末器1へ送信し、音声を発する。【選択図】図2PROBLEM TO BE SOLVED: To easily set a language to be translated by discriminating the type of language only by issuing a simple word (speech) such as a greeting, and realize bidirectional automatic voice translation by a simple operation. SOLUTION: A voice of a first language (Japanese) uttered by a first speaker A (Japanese) and a second language (native language) uttered by a second speaker B (foreigner) different from the first language. It is an automatic voice translation system that translates the voice of the above in both directions and sets the translation language by voice input. The voice data of the second language emitted by the second speaker B is input to the voice translation terminal 1 and the voice is input. By transmitting the data to the translation management server 11 and analyzing and specifying the language (first language) to be translated by the translation management server 11, both translation languages are set, and the set language (second language) is set. And the voice translation content is transmitted to the voice translation terminal 1 in both directions of the first language, and the voice is emitted. [Selection diagram] Fig. 2
Description
本発明は、ある言語で表現された会話の内容を他の言語の音声に翻訳する音声翻訳技術に係り、特に、会話している相手が発する言語が判別できないときに、その音声を入力し、その言語の種類を判別して音声翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムに関する。 The present invention relates to a voice translation technique for translating the content of a conversation expressed in one language into a voice of another language, and in particular, when the language spoken by the conversation partner cannot be determined, the voice is input. The present invention relates to an automatic voice translation system, an automatic voice translation method, and a program thereof that discriminates the type of the language and performs voice translation, and sets a translation language by voice input.
従来の音声翻訳装置(通訳装置)は、それを使用する人の言語(例えば日本語)と、会話している相手の言語(例えば英語)との双方向に音声翻訳するものである。 A conventional voice translation device (interpreter device) translates speech in both directions between the language of the person who uses it (for example, Japanese) and the language of the other party with whom it is talking (for example, English).
この音声翻訳装置を用いて会話をする方法は、図12の「レンタカーを借りるときの会話」の作業概略図に示すように、この音声翻訳装置51は、先ず使用者の言語、例えば「日本語」を設定するスイッチを押し、次に会話相手の言語、例えば「英語」を設定するスイッチを押す。その後、使用者は音声翻訳装置51に「1日だけレンタカーを借りたいのですが」と音声をマイク52から入力する。この音声翻訳装置51はこの音声を取り込み、その音声データを、無線LANを通じて、音声翻訳を管理する管理サーバ53に送信する。この管理サーバ53では、データベースに蓄積された「レンタカーを借りたいのですが」に相当する英語表現を選択し、「I’d like to rent a car.」を選択し、この音声データを送信する。この音声データを受信した音声翻訳装置51が「I’d like to rent a car.」の音声に変換して、その音声をスピーカ54から出力する。この音声を会話の相手が聞いて、双方の会話が成立するようになっている。
As for the method of having a conversation using this voice translation device, as shown in the work schematic diagram of “Conversation when renting a rental car” in FIG. 12, the
このような翻訳装置に関する技術は種々提案されている。例えば、特許文献1の特開2019−174786号公報「音声翻訳装置、音声翻訳方法及びそのプログラム」のように、音声翻訳装置であって、前記音声翻訳装置の使用者または前記使用者の会話相手に操作されることにより翻訳開始を指示する翻訳開始ボタンと、マイクロホンアレイ部により取得された音響信号を信号処理することにより、音源方向を推定する音源方向推定部と、使用者、前記会話相手、及び、ディスプレイの異なる位置関係を示し、記憶部に記憶されている複数のレイアウト情報のうち、予め選択された一のレイアウト情報に示される位置関係を用いて、前記翻訳開始ボタンにより翻訳開始が指示された後において前記音源方向推定部により推定された音源方向に基づき、音声を発した会話者が前記使用者及び前記会話相手のうちの一方の者であることを特定し、かつ、第1言語と前記第1言語と異なる第2言語のうち前記音響信号の内容を認識する一方の言語と翻訳する他方の言語とを示す翻訳方向を決定する制御部と、前記制御部により決定された前記翻訳方向に従って、認識処理部に前記音響信号を前記一方の言語で認識させて得た、前記音響信号の内容を示すテキスト文、及び、翻訳処理部に当該テキスト文を他方の言語で翻訳させて得た、前記音響信号の内容を示す翻訳テキスト文を取得する翻訳部と、特定された前記一方の者の位置に対応する前記ディスプレイの領域に、前記テキスト文を表示させ、前記一方と異なる他方の者の位置に対応する、前記ディスプレイの領域に前記翻訳テキスト文を表示させるディスプレイ部とを備える、音声翻訳装置が提案されている。
Various techniques related to such a translation device have been proposed. For example, as in Japanese Patent Application Laid-Open No. 2019-174786 "Speech translation device, voice translation method and program thereof" of
特許文献1に開示された「音声翻訳装置、音声翻訳方法及びそのプログラム」は、使用者とその会話相手とは、毎回ボタン操作を行ってから会話する必要があり、操作が煩雑であるという課題を解決したものである。使用者とその会話相手とが会話を開始する度にボタン操作をしなくても、翻訳開始時に翻訳開始ボタンを1度押すことで、音源方向に基づき、音声を発した会話者が使用者及び会話相手のうちの一方の者であることを特定することで、使用者と会話相手との会話に応じて認識言語と翻訳言語との切替が自動で行われるものである。しかし、会話相手が発する言語を判別できないときは、翻訳開始ボタンを押せないという問題を有していた。
The "speech translation device, voice translation method, and its program" disclosed in
従来の音声翻訳装置は、会話相手の言語の種類が明確に判別できるときは容易に利用できる。英語、フランス語、ドイツ語、中国語といった主要な言語のときは判別しやすく、その言語の種類のスイッチを容易に押すことができる。しかしながら、最近は日本において馴染みの少ない言語に出会う機会が多くなってきた。このような場合には、会話相手が発する言語を判別しづらく、音声翻訳装置を容易に使用できないという問題を有していた。 A conventional speech translation device can be easily used when the type of language of the conversation partner can be clearly determined. It is easy to distinguish between major languages such as English, French, German, and Chinese, and you can easily press the switch for that language type. However, recently, there have been many opportunities to come across languages that are unfamiliar in Japan. In such a case, it is difficult to determine the language spoken by the conversation partner, and there is a problem that the voice translation device cannot be easily used.
また、主要な言語であっても、いわゆる方言、訛り(なまり)がある音声の場合も言語を区別できないことがあった。例えば、英語といってもアメリカ英語、イギリス英語、オーストラリア英語、カナダ英語のように種々あり、それぞれ微妙に言語表現が相違している。 In addition, even if it is a major language, it may not be possible to distinguish the language even if the voice has a so-called dialect or accent. For example, there are various types of English such as American English, British English, Australian English, and Canadian English, and their linguistic expressions are slightly different.
また、従来の音声翻訳装置では、日本人が海外旅行において病気、けがをしたときに、病院や周囲の人たちに、病気、けがの状況を正確に伝達しづらいことがあった。特に、言語そのものが不明なときは音声翻訳装置を的確に使用できないという問題を有していた。同様に、外国人が日本に旅行しているときに、病気、けがをしたときにも、その病気、けがの状況を正確に伝達できず、緊急に対応できないという問題を有していた。 In addition, with conventional speech translation devices, when a Japanese person gets sick or injured while traveling abroad, it may be difficult to accurately convey the situation of the illness or injury to the hospital or the people around him. In particular, when the language itself is unknown, there is a problem that the speech translation device cannot be used accurately. Similarly, when a foreigner is traveling to Japan and is sick or injured, there is a problem that the situation of the illness or injury cannot be accurately communicated and an urgent response cannot be made.
更に、日本人が海外旅行において、又は外国人が日本に旅行しているときに、犯罪や事件に巻き込まれたときに、従来の音声翻訳装置では、警察や事件現場においてその状況について、正確に伝達できないことがあった。このときも言語そのものが不明なときは音声翻訳装置を使用できないという問題を有していた。 Furthermore, when a Japanese person is traveling abroad or a foreigner is traveling to Japan and is involved in a crime or incident, conventional voice translators can accurately describe the situation at the police or at the scene of the incident. Sometimes I couldn't communicate. At this time as well, there was a problem that the speech translation device could not be used when the language itself was unknown.
本発明は、かかる問題点を解決するために創案されたものである。すなわち、本発明の目的は、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムを提供することにある。 The present invention has been devised to solve such a problem. That is, an object of the present invention is that the type of language can be easily determined and the language to be translated can be easily set by simply issuing a simple word (speech) such as a greeting, and bidirectional automatic voice translation is simplified. It is an object of the present invention to provide an automatic voice translation system, an automatic voice translation method, and a program thereof for setting a translation language by voice input that can be realized by operation.
本発明の自動音声翻訳システムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ及び第2言語を使用している第2会話者(B)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語と第2言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語及び第2言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語を第1言語に音声翻訳し、第1言語を第2言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データを入力し、
その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語)を分析して特定することで、その翻訳言語が設定され、
その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする。
The automatic speech translation system of the present invention bidirectionally translates the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. It is an automatic voice translation system that sets the translation language by voice input.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. The voice input unit (4) for inputting the voice data of the conversation emitted by the speaker (B), the voice data of the second language voice-translated by the translation management server (11), and the voice-translated first language The voice output unit (5) that outputs voice data and the voice data of the first language and the second language input by the voice input unit (4) are transmitted to the translation management server (11), and the translation management server. A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving the second language and the voice data of the first language output from (11), and
The control unit (12) controlled by the operation of the input unit (14) and the voice data of the first language and the second language input from the voice input unit (4) of the voice translation terminal (1) are received. A transmitter / receiver (13) that transmits voice data of the second language and the first language output from the translation management server (11), and a multilingual information database (18a) that stores information data related to language type identification. , "Dialogue" and medical-related terms, technical terms / dialect information database (18b) that accumulates "technical terms" such as criminal case-related terms, and the second conversation entered in the transmitter / receiver (13) The multilingual information database (18a) and the specialty from the voice data of the conversation content related to the technical term in the second language issued by the person (B) or the voice data of the second language issued by the second speaker (B) in the dialect. A language analysis unit (16) that identifies the type of the second language using the term / dialect information database (18b) and a second language set by the language analysis unit (16) are transliterated into the first language. A translation management server (11) having a translation unit (15) for translating a first language into a second language.
In the voice translation terminal (1), voice data of conversation contents related to technical terms in a second language issued by a second speaker (B) or voice data of a second language issued by a second speaker (B) in a dialect. Enter and
The translation language is set by transmitting the voice data to the translation management server (11) and analyzing and specifying the language (second language) to be translated by the translation management server (11).
The feature is that the voice translation content is transmitted to the voice translation terminal (1) in both directions of the set language (second language) and the first language, and the voice is emitted.
また、本発明の自動音声翻訳システムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳システムであって、
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ、第2言語を使用している第2会話者(B)が発する会話の音声データ及び第3言語を使用している第3会話者(C)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語、第2言語及び第3言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部(6)と、有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語、第3言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語、第3言語が発する会話の音声を第1言語に音声翻訳し、第1言語を第2言語、第3言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)、第3会話者(C)が発する第2言語、第3言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データを入力し、その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする。
Further, the automatic speech translation system of the present invention includes a first language voice emitted by the first speaker (A), a second language voice emitted by a second speaker (B) different from the first language, and further. It is an automatic voice translation system that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C), which is different from the first language and the second language, into each.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. A voice input unit (4) for inputting voice data of a conversation issued by a speaker (B) and voice data of a conversation issued by a third speaker (C) using a third language, and a translation management server (11). A voice output unit (5) that outputs the voice data of the second language and the third language that has been voice-translated in the above, and the voice data of the first language that has also been voice-translated in Voice data of one language, second language and third language is transmitted to the translation management server (11), and voice data of the second language, third language and first language output from the translation management server (11). A transmitter / receiver (6) that receives the above, a voice translation terminal (1) that has the
Voice data of the first language, the second language, and the third language input from the control unit (12) controlled by the operation of the input unit (14) and the voice input unit (4) of the voice translation terminal (1). Is received, and the transmitter / receiver (13) that transmits the voice data of the second language, the third language, and the first language output from the translation management server (11), and the information data related to the type identification of the language are accumulated. A multilingual information database (18a), a technical term / dialect information database (18b) that accumulates "technical terms" such as "dialogs", medical terms, and criminal case related terms, and a transmitter / receiver (13). ), The second language spoken by the second speaker (B), the conversation content voice data related to the technical terms in the third language spoken by the third speaker (C), or the second speaker (B), the third. From the voice data of the second language and the third language uttered by the speaker (C) in the dialect, the second language and the third language are used by using the multilingual information database (18a) and the technical term / dialect information database (18b). The language analysis unit (16) that specifies the type of language and the voices of the conversations of the second and third languages set by the language analysis unit (16) are voice-translated into the first language, and the first language is converted. It is equipped with a translation unit (15) that translates into a second language and a third language, and a translation management server (11) that has.
The voice translation terminal (1) is provided with voice data of conversation contents related to a second language, a technical term in a third language, or a second speaker (a second speaker (B), a third speaker (C), or a second speaker (C). B), the voice data of the second language and the third language uttered by the third speaker (C) in the dialect are input, the voice data is transmitted to the translation management server (11), and the translation management server (11) By analyzing and identifying the language to be translated in (2nd language, 3rd language), each translation language is set, and both the set language (2nd language, 3rd language) and the 1st language are set. It is characterized in that it is configured to transmit the voice translation content to the voice translation terminal (1) and emit a voice.
本発明の自動音声翻訳方法は、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データが入力され、
この第2言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声について、その第2言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語と第1言語の双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする。
The automatic speech translation method of the present invention bidirectionally translates the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. It is an automatic voice translation method that sets the translation language by voice input.
The voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2).
The voice data of this second language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). The type of the second language is set for the voice data of the conversation content related to the technical term in the second language uttered by) or the voice of the second language uttered by the second speaker (B) in the dialect.
After that, when the voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1), the voice translated by the translation management server (11) into the first language is said to be the same. Output to the voice translation terminal (1)
The voice translated by the translation management server (11) in both directions of the set second language and the first language is output to the voice translation terminal (1).
また、本発明の自動音声翻訳方法は、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法であって、
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声データが入力され、
この第2言語、第3言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声について、その第2言語、第3言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語、第3言語と第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする。
Further, the automatic speech translation method of the present invention includes a first language voice emitted by the first speaker (A), a second language voice emitted by a second speaker (B) different from the first language, and further. It is an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C) different from the first language and the second language, respectively.
Second language voice data emitted by the second speaker (B) to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2), the third speaker (C). The voice data of the third language emitted by is input,
The voice data of the second language and the third language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice data related to the technical terms in the third language issued by the third speaker (C), or the second spoken by the second speaker (B) and the third speaker (C) in a dialect. For the language and the voice of the third language, the types of the second language and the third language are set, and
After that, when the voice data of the second language emitted by the second speaker (B) and the third language emitted by the third speaker (C) are input to the voice translation terminal (1), the first language is described as described above. The voice translated by the translation management server (11) is output to the voice translation terminal (1).
The voice translated by the translation management server (11) into each of the set second language, third language, and first language is output to the voice translation terminal (1).
本発明の自動音声翻訳のプログラムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声、又は第2会話者(B)が方言により発する第2言語の音声から、その第2言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語に、及び第2会話者(B)が発する第2言語の音声データが入力されると第1言語に双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行する、ことを特徴とする。
The automatic speech translation program of the present invention bidirectionally transmits the speech of the first language emitted by the first speaker (A) and the speech of the second language emitted by the second speaker (B) different from the first language. A program that executes an automatic voice translation method that translates and sets the translation language by voice input.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, to receive translation management server (11), a receiving step ,
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks of the conversation content related to the technical term in the second language, or the second language spoken by the second speaker (B) in the dialect, the type of the second language is specified and the translation language is set. Translation language setting steps and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the voice data of the second language emitted by the second speaker (B) and in the second language. a speech translation step but the voice translated into the first language is input by the translation management server bidirectionally (11) outputs the speech translation terminal unit (1), translation management server (11) is made of run the automatic speech translation method, characterized in that.
また、本発明の自動音声翻訳のプログラムは、第1会話者(A)が発する第1言語の音声と、この第1言語と異なる第2会話者(B)が発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者(C)が発する第3言語の音声をそれぞれに翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラムであって、
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データと、第3会話者(C)が発した第3言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声から、その第2言語、第3言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語、第3言語に、及び第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声が入力されると第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行する、ことを特徴とする。
Further, the automatic speech translation program of the present invention includes a first language voice emitted by the first speaker (A) and a second language voice emitted by a second speaker (B) different from the first language. Furthermore, it is a program that executes an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the third speaker (C) different from the first language and the second language, respectively.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, the third language third conversation party (C) has been issued The voice data of the above is received by the translation management server (11), the reception step, and
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice related to the technical term in the third language uttered by the third speaker (C), or the second language uttered by the second speaker (B) and the third speaker (C) in the dialect. , The translation language setting step to specify the type of the second language and the third language from the sound of the third language and set the translation language, and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the second language, the third language, and the second speaker (B) emit the second language. When the voice data of the language and the voice of the third language emitted by the third speaker (C) are input, the voice translated by the translation management server (11) into each of the first languages is the voice translation terminal (1). a speech translation step of outputting, the translation management server consisting of (11) to run an automatic speech translation process, it is characterized.
上記構成の音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムでは、会話相手(第2会話者(B)、第3会話者(C))の発する言語(第2言語、第3言語)が不明な場合であっても、その会話相手が発する一言、例えば挨拶などの簡易な言葉(音声)を音声翻訳端末器(1)に話しかけるだけで、容易にその不明な言語の国名(種類)を判別し、双方の翻訳する言語の種類を容易に設定することができる。会話が必要な場面で迅速に双方向の自動音声翻訳を簡易な操作で実現することができる。 In the automatic voice translation system, the automatic voice translation method, and its program in which the translation language is set by the voice input having the above configuration, the language (second) spoken by the conversation partner (second speaker (B), third speaker (C)). Even if the language (third language) is unknown, it can be easily understood by simply speaking a word (voice) such as a greeting from the conversation partner to the voice translation terminal (1). It is possible to identify the country name (type) of a different language and easily set the type of language to be translated by both. Two-way automatic speech translation can be quickly realized with a simple operation in situations where conversation is required.
また、第2会話者(B)、第3会話者(C)の発する言語(第2言語、第3言語)が主要国の言語であってもいわゆる方言がある音声の場合においても容易に言語を判別できる。日本人が海外旅行において、又は外国人が日本に滞在しているときに、病気、けがをしたときに、病院や周囲の人に、病気、けがの状況を正確に伝達できる。日本人が海外旅行において、又は外国人が日本に滞在しているときに、犯罪や事件に巻き込まれたときに、警察や事件現場においてその状況について正確に伝達できる。
音声翻訳端末器(1)に、不明な言語を特定した際にその言語の種類をデータベース化した翻訳設定蓄積部(9)を備えているので、同様な不明な言語について、翻訳管理サーバ(11)からの分析を経ることなく言語の種類を迅速に特定できる。
Further, even if the languages (second language, third language) uttered by the second speaker (B) and the third speaker (C) are the languages of the major countries, the language can be easily spoken even when there is a so-called dialect. Can be determined. When a Japanese person is traveling abroad or a foreigner is staying in Japan and is sick or injured, the situation of the illness or injury can be accurately communicated to the hospital or those around him. When a Japanese person is traveling abroad or a foreigner is staying in Japan and is involved in a crime or incident, the police or the scene of the incident can accurately convey the situation.
Since the voice translation terminal (1) is provided with a translation setting storage unit (9) that creates a database of the types of unknown languages when an unknown language is identified, a translation management server (11) is provided for similar unknown languages. ) Can quickly identify the type of language without going through the analysis.
本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、日本国内において、例えば外国人がその母国語で表現した会話の内容を、その母国語と異なる日本人の日本語の音声に双方向に翻訳する際に、この相手の言語を音声で判別し、設定するシステムである。 In the automatic voice translation system that sets the translation language by voice input of the present invention, for example, in Japan, the content of a conversation expressed by a foreigner in his / her mother tongue can be translated into Japanese voice that is different from his / her mother tongue. This is a system that determines and sets the language of the other party by voice when translating.
以下、本発明の好ましい実施の形態を図面を参照して説明する。
<自動音声翻訳システムの構成>
図1は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムを説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は双方向の音声翻訳の段階である。図2は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの構成を示すブロック図である。
実施例1の本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、音声翻訳を欲する会話者(第1会話者A)が使用する音声翻訳端末器1と、無線LANでデータが送受信される、翻訳に関する情報を管理する翻訳管理サーバ11とから構成されるシステムである。第1会話者Aの第1言語で表現された会話の内容を、第1言語と異なる第2会話者Bの第2言語の音声に双方向に翻訳する際に、この第2会話者Bの第2言語の相手の言語を音声で判別し、翻訳言語を設定するシステムである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
<Configuration of automatic speech translation system>
FIG. 1 is a schematic explanatory diagram illustrating an automatic voice translation system for setting a translation language by voice input according to the first embodiment of the present invention, (a) is a stage of setting a translation language, and (b) is a bidirectional voice. It is in the translation stage. FIG. 2 is a block diagram showing a configuration of an automatic speech translation system that sets a translation language by voice input according to the first embodiment of the present invention.
The automatic voice translation system of the first embodiment, which sets a translation language by voice input, transmits and receives data via a wireless LAN to a
ここで第1会話者A、第1言語、第2会話者B、第2言語と表現しているが、これらは順番、等級とは関係なく、便宜的に表現したものである。例えば、第1会話者Aは日本人で、第1言語は日本語を意味する。第2会話者Bは外国人で、第2言語は日本語以外の母国語を意味する。即ち、本発明の自動音声翻訳システムを利用する人が、第1会話者Aとなる。例えば音声翻訳端末器1を持っている人がスペイン人のときは、第1会話者Aとなり、第1言語がスペイン語となる。その会話の相手がフランス人のときは、第2会話者Bとなり、第2言語が例えばフランス語となる。これらに例示した言語に限定されないことは勿論である。
Here, the first speaker A, the first language, the second speaker B, and the second language are expressed, but these are expressed for convenience regardless of the order and grade. For example, the first speaker A is Japanese, and the first language means Japanese. The second speaker B is a foreigner, and the second language means a native language other than Japanese. That is, the person who uses the automatic speech translation system of the present invention is the first speaker A. For example, when the person who has the
<音声翻訳端末器の構成>
第1会話者Aが使用する音声翻訳端末器1は、図2に示すように、ON/OFFの電源スイッチの入力部2と、この入力部(操作ボタン)2の操作により制御されるCPUなどの制御部3を有する。この音声翻訳端末器1は、音声入力部4と音声出力部5を有する。音声入力部4は、第1言語を使用している第1会話者Aが発する会話の音声データと、第2言語を使用している第2会話者Bが発する会話の音声データを入力するマイクなどである。音声出力部5は、後述する翻訳管理サーバ11で音声翻訳された第2言語の音声データと、同じく音声翻訳された第1言語の音声データを出力するスピーカなどである。なお、図示例では、2個の音声翻訳端末器1しか表示されていないが、これが多数あることは勿論である。
<Speech translation terminal configuration>
As shown in FIG. 2, the
音声翻訳端末器1は、その送信部・受信部6が音声入力部4で入力した第1言語と第2言語の音声データを翻訳管理サーバ11の送信部・受信部13に送信すると共に、この翻訳管理サーバ11から出力した第2言語と第1言語の音声データを受信する。この音声翻訳端末器1はインターネット21に接続して、翻訳管理サーバ11の送信部・受信部13に送信・受信する。
The
この音声翻訳端末器1には、翻訳管理サーバ11により音声翻訳すべき言語が判別されたきに、それぞれの言語を設定する翻訳設定部7を有する。この翻訳設定部7は、例えば第2会話者Bの第2言語が「英語」と判別され、第1会話者Aの第1言語の「日本語」との間で双方向に音声翻訳することを設定する。
The
この音声翻訳端末器1には、表示部8と翻訳設定蓄積部9を有する。表示部8はスイッチのON/OFF、現在の言語の種類、無線LANの受信状況、バッテリー残量などの情報を表示する。音声翻訳端末器1のモニター画面(表示部8)がタッチパネルのときは、そのまま第1言語、第2言語、専門用語等を入力する入力部2として機能する。キーボード、操作ボタンがあるときはこれが入力部2となる。
The
翻訳設定蓄積部9は、後述する不明な言語を特定した際にその言語の種類をデータベース化したものである。同様な不明な言語について、翻訳管理サーバ11からの分析を経ることなく言語の種類を迅速に特定できるようになっている。
Translation setting
<翻訳管理サーバの構成>
翻訳管理サーバ11は、図2に示すように、例えばCPUなどの制御部12によって構成され、送信部・受信部13、入力部14、翻訳部15、言語分析部16、表示部17とから成る。更に、各国の言語に関するデータを格納する多言語情報データベース18aと、専門用語、方言に関する情報を格納する専門用語・方言情報データベース18bとを有する。
<Translation management server configuration>
As shown in FIG. 2, the
多言語情報データベース18aは、例えば日本語に相当する意味合いを有する外国語の表現に関する情報データを蓄積したデータベースである。更に英語とスペイン語の双方向の音声翻訳、ドイツ語と中国語の双方向の音声翻訳にも対応できるようになっている。その他種々の音声翻訳に対応するようになっている。
専門用語・方言情報データベース18bは、専門用語、方言に関する情報データを蓄積したデータベースである。これは例えば英語であれば、アメリカ英語、イギリス英語、オーストラリア英語、カナダ英語の微妙な相違に関する情報データを蓄積したデータベースがある。病気・ケガについて各言語の表現に関する情報データを蓄積したデータベースがある。更に、犯罪・事件について各言語の表現に関する情報データを蓄積したデータベースがある。これらの専門用語・方言情報データベースは一例であって、その他の種々の言語に関する情報データが該当する。
The
The technical term /
翻訳管理サーバ11は、音声翻訳端末器1から送信された音声データについて翻訳部15が所定の言語に音声翻訳する。英語を日本語に音声翻訳し、第1会話者Aの第1言語(英語)の会話内容を理解する。次に第2会話者Bの第2言語(日本語)を英語に音声翻訳し、会話相手(第1会話者A)に会話内容を理解してもらうようになっている。
In the
翻訳管理サーバ11は、言語一時蓄積部(メモリ)19を有し、ここには翻訳部15が過去に翻訳した双方向の翻訳内容を一時的に蓄積する。
The
<翻訳言語の設定方法>
翻訳言語を設定する際は2種類の方法がある。第1の設定方法は、上述したような第2言語の判別し、翻訳言語の設定と同様な手順で、第1言語の翻訳言語についても設定することができる。例えば、日本語を第1言語にしたいときは、音声翻訳端末器1の音声入力部4に「おはよう」と発して、翻訳管理サーバ11において第1言語が「日本語」であることを特定し、翻訳言語とする設定方法である。
第2の設定方法は、本発明の音声翻訳端末器1を操作する第1会話者Aは、第1言語は予め自ら選択できるので、音声翻訳端末器1に第1言語の種類を入力部2で特定する設定方法である。
<How to set the translation language>
There are two ways to set the translation language. In the first setting method, the translation language of the first language can also be set by the same procedure as the setting of the second language and the translation language as described above. For example, when Japanese is to be the first language, "Good morning" is issued to the
In the second setting method, since the first speaker A who operates the
図3は第1言語の翻訳言語を設定する、言語分析1の作業フロー図である。図4は第2言語の翻訳言語を設定する、言語分析2の作業フロー図である。図5は第1言語と第2言語の翻訳言語を共に設定する、言語分析1、2の作業フロー図である。
音声翻訳端末器1を有する第1会話者Aは、図3と図5に示すように、「おはよう」とスピーカなどの音声入力部4に発する。この音声翻訳端末器1に入力された音声データは、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。
FIG. 3 is a work flow diagram of
As shown in FIGS. 3 and 5, the first speaker A having the
翻訳管理サーバ11では、受信した音声データについて、言語情報データベース18aに格納されたデータと比較し、音声データの言語について判定、推測する。例えば、第1言語の音声について、その第1言語の種類が「日本語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(日本語)が設定される。翻訳機能の起動中は、第1言語は日本語で出力する。
The
次に、言語が不明な第2会話者Bは、図4と図5に示すように、音声入力部4に「Buenos dias.」と発する。この音声翻訳端末器1に入力された音声データが、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、その第2言語の種類が「スペイン語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(英語)が設定される。翻訳機能の起動中は、第2言語はスペイン語で出力する。
Next, the second speaker B whose language is unknown issues "Buenos dias." To the
その後、図5に示すように、特定された第1言語と第2言語の双方向に翻訳された音声が音声翻訳端末器1に出力される。この翻訳設定部7に基づき、「スペイン語」の会話音声が音声翻訳端末器1に取り込まれると、その会話内容が翻訳管理サーバ11で「日本語」に音声翻訳される。「日本語」の会話音声が音声翻訳端末器1に取り込まれると、その会話内容が翻訳管理サーバ11で「スペイン語」に音声翻訳される。これにより音声翻訳が双方向になされ、第1会話者Aと第2会話者Bの間で会話の意思の疎通が図れる。
After that, as shown in FIG. 5, the bidirectionally translated voice of the specified first language and the second language is output to the
本発明の音声入力で翻訳言語を設定する自動音声翻訳システムは、これを使用中に、緊急放送が入った場合に、その言語をセットして優先的に翻訳する機能を含めることが可能である。 The automatic voice translation system that sets the translation language by voice input of the present invention can include a function of setting the language and preferentially translating when an emergency broadcast comes in while using the system. ..
<翻訳言語の設定方法の変形例1>
図6は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(a)は翻訳言語を設定する段階、(b)は第2会話者との音声翻訳の段階である。図7は本発明の実施例1の音声入力で翻訳言語を設定する自動音声翻訳システムの変形例1を説明する概略説明図であり、(c)は第3会話者Cとの音声翻訳の段階である。
変形例1の自動音声翻訳システムは、会話者が3名の場合にも使用できる。変形例1の自動音声翻訳システムは、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声と、更に第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声とをそれぞれに翻訳するシステムである。
<Transformation example 1 of translation language setting method>
FIG. 6 is a schematic explanatory view illustrating a
The automatic speech translation system of the first modification can be used even when there are three speakers. In the automatic voice translation system of the first modification, the voice of the first language emitted by the first speaker A, the voice of the second language emitted by the second speaker B different from the first language, and the first language and the first language are further provided. It is a system that translates the voice of the third language emitted by the third speaker C, which is different from the two languages.
変形例1の音声翻訳端末器1は、入力部2の操作により制御される制御部3と、第1言語を使用している第1会話者Aが発する会話の音声データ、第2言語を使用している第2会話者Bが発する会話の音声データ及び第3言語を使用している第3会話者Cが発する会話の音声データを入力する音声入力部4と、翻訳管理サーバ11で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部5と、音声入力部4で入力した第1言語、第2言語と第3言語の音声データを翻訳管理サーバ11に送信すると共に、翻訳管理サーバ11から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部6と、を有する。
The
変形例1の翻訳管理サーバ11は、入力部14の操作により制御される制御部12と、音声翻訳端末器1の音声入力部4から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ11から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部13と、言語の種類特定に関する情報データを蓄積した言語情報データベース18aと、送信部・受信部13で入力した第2言語、第3言語の音声データから、該言語情報データベース18aを用いてその第2言語、第3言語の種類を特定する言語分析部16と、言語分析部16で設定された第2言語、第3言語を第1言語に音声翻訳し、第2言語、第3言語を第1言語に音声翻訳する翻訳部15と、を有する。
The
変形例1の自動音声翻訳システムは、音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力し、その音声データを翻訳管理サーバ11に送信し、翻訳管理サーバ11で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器1へ送信し、音声を発するようになっている。
In the automatic voice translation system of the first modification, the voice data of the second language emitted by the second speaker B is input to the
図示例では、不明な第2会話者Bの第2言語を「スペイン語」と設定した後に、更に不明な第3会話者Cの第3言語を「イタリア語」と設定した状態を示す。言語が不明な第3会話者Cは、図6(a)に示すように、音声入力部4に「Buongiorno.」と発する。この音声翻訳端末器1に入力された音声データが、送信部・受信部6,13とインターネット21を介して、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された多言語情報データベース18aに基づいて、第3言語の音声について、その第3言語の種類が「イタリア語」と判別される。その翻訳言語の設定情報が、送信部・受信部6,13とインターネット21を介して、音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(英語)が設定される。翻訳機能の起動中は、第3言語はイタリア語で出力する。
In the illustrated example, after the second language of the unknown second speaker B is set to "Spanish", the third language of the unknown third speaker C is set to "Italian". As shown in FIG. 6A, the third speaker C whose language is unknown emits "Boongiorno." To the
<翻訳言語の設定方法の変形例2>
図8は方言を有する第2言語の翻訳言語を設定する設定方法の変形例2の言語分析の作業フロー図である。
言語が不明な第2会話者Bが方言を有する場合は、図8に示すように、「Good day」と音声入力部4に発する。この音声翻訳端末器1に入力された音声データが、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、種々ある英語のいずれかであると判定される。その判断基準は、方言、イントネーション、語尾、語頭、特徴的発音(巻き舌、濃音など)から判断される。アメリカ英語、イギリス英語、オーストラリア英語、カナダ英語などの中から、あいさつが「Good day」となるため、オーストラリア英語と判断される。
専門用語・方言情報データベース18bには、英語に限らず、例えば、フランス語についてフランス国のほかにカナダ仏語、アフリカの仏語などが含まれる。また、ドイツ語もヨーロッパのドイツ国のほかにスイス独語などが含まれる。
<Transformation example 2 of translation language setting method>
FIG. 8 is a work flow diagram of language analysis of
When the second speaker B whose language is unknown has a dialect, as shown in FIG. 8, "Good day" is emitted to the
The technical term /
<翻訳言語の設定方法の変形例3>
図9は専門用語を有する第2言語の翻訳言語を設定する設定方法の変形例3の言語分析の作業フロー図である。
日本人である第1会話者Aは第1言語を日本語に設定する。
第2会話者Bは第2言語を判別してもらうために、図9に示すように、「Gunaydin」と音声入力部4に発する。この音声翻訳端末器1に入力された音声データが、翻訳管理サーバ11に送信される。受信した音声データは、翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、第2言語の音声について、「トルコ語」と判別し、翻訳言語は「トルコ語」と設定する。
<
FIG. 9 is a work flow diagram of a language analysis of a
The first speaker A, who is Japanese, sets the first language to Japanese.
As shown in FIG. 9, the second speaker B emits "Gunaydin" to the
次に、第2会話者Bは「Cuzdnim Calindi」と音声入力部4に発する。これは「財布を盗まれた」の意味を有するので、受信した音声データは、翻訳管理サーバ11に格納された専門用語・方言情報データベース18bに基づいて、第2言語の音声について、翻訳言語は「トルコ語」であり、犯罪に関する専門用語が必要であると設定する。
その第1言語が日本語と共に、第2言語はトルコ語となり、犯罪用語が主な内容になるとも判断される。その設定情報が音声翻訳端末器1に送信され、音声翻訳端末器1の翻訳設定部7に判断された翻訳言語(日本語、犯罪用語)が設定される。翻訳機能の起動中は、第1言語は「日本語」で、第2言語は「トルコ語」で出力する。
専門用語・方言情報データベース18bには、犯罪用語に限定されず、科学用語、法律用語などの種々の専門用語を含む。
Next, the second speaker B emits "Cuzdinim Calindi" to the
It is judged that the first language will be Japanese and the second language will be Turkish, and criminal terms will be the main content. The setting information is transmitted to the
The technical term /
<自動音声翻訳方法の構成>
図10は本発明の自動音声翻訳方法を説明する概略説明図であり、(a)は第1言語と第2言語共に音声による翻訳言語を設定する状態、(b)は第2言語のみ音声による翻訳言語を設定する状態である。
本発明の音声入力で翻訳言語を設定する自動音声翻訳方法には、図10(a)に示すように、第1言語と第2言語共に音声による翻訳言語を設定する方法がある。この自動音声翻訳方法は、入力部2の操作により制御される制御部3を有する音声翻訳端末器1に、第1会話者Aが発する第1言語の音声データが入力され、この第1言語の音声データが、翻訳管理サーバ11に送信され、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、この送信部・受信部13で入力した第1言語の音声について、その第1言語の種類が判別される。
<Structure of automatic speech translation method>
10A and 10B are schematic explanatory views for explaining the automatic voice translation method of the present invention, in which FIG. 10A is a state in which a voice translation language is set for both the first language and the second language, and FIG. 10B is a state in which only the second language is voiced. It is in the state of setting the translation language.
As shown in FIG. 10A, there is a method of setting a voice translation language for both the first language and the second language in the automatic voice translation method for setting a translation language by voice input of the present invention. In this automatic voice translation method, the voice data of the first language emitted by the first speaker A is input to the
次に、同じく音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データが入力され、この第2言語の音声データが、翻訳管理サーバ11に送信され、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、送信部・受信部13で入力した第2言語の音声について、その第2言語の種類が判別される。
Next, the voice data of the second language emitted by the second speaker B is input to the
音声翻訳端末器1に第2会話者Bが発する第2言語の音声データが入力されると、第2言語に翻訳された音声が音声翻訳端末器1に出力され、この音声翻訳端末器1に第1言語の音声データが入力されて双方の言語が設定される。その後、設定された第2言語と第1言語の双方向に翻訳された音声が音声翻訳端末器1に出力される。
When the voice data of the second language emitted by the second speaker B is input to the
図10(b)に示すように、第2言語のみ音声による翻訳言語を設定する方法がある。この自動音声翻訳方法は、第1会話者Aは、現在自己が使用している言語であるため、予め第1言語を設定することができる。第2言語の設定は、上述した方法で設定する。
その後は、本発明の音声入力で自動音声翻訳方法は、設定された第1言語と第2言語について、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に音声翻訳する。
この自動音声翻訳方法の場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
As shown in FIG. 10B, there is a method of setting a voice translation language only for the second language. In this automatic speech translation method, since the first speaker A is the language he / she is currently using, the first language can be set in advance. The second language is set by the method described above.
After that, in the voice input automatic voice translation method of the present invention, for the set first language and the second language, the voice of the first language uttered by the first speaker A and the second conversation different from the first language. The voice of the second language emitted by the person B is translated into two directions.
In the case of this automatic voice translation method as well, the function of setting the translation language and translating the voice of the third language emitted by the third speaker C, which is different from the first language and the second language, into the first language is provided. It is also possible to have it.
<自動音声翻訳方法を実行するプログラムの構成>
実施例2は音声入力で翻訳言語を設定する自動音声翻訳方法を実行させるプログラムである。実施例2のプログラムは、第1会話者Aが使用する音声翻訳端末器1に、第2会話者Bが発する第2言語の音声データを入力する、入力ステップと、この第2言語の音声データを、翻訳管理サーバ11に送信する、送信ステップと、この翻訳管理サーバ11に格納された言語情報データベース18aに基づいて、送信部・受信部13で入力した第2言語の音声から、その第2言語の種類を特定して設定する、言語設定ステップと、音声翻訳端末器1に第1会話者Aが発する第1言語の音声データが入力されると第2言語に、及び第2会話者Bが発する第2言語の音声データが入力されると第1言語に双方向に翻訳された音声が音声翻訳端末器1に出力する音声翻訳ステップと、とをコンピュータに実行させるプログラムである。
<Structure of a program that executes the automatic speech translation method>
The second embodiment is a program for executing an automatic voice translation method for setting a translation language by voice input. The program of the second embodiment includes an input step of inputting the voice data of the second language emitted by the second speaker B into the
実施例2のプログラムは、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳方法を実行させるプログラムである。これにより、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる。 The program of the second embodiment bidirectionally translates the voice of the first language uttered by the first speaker A and the voice of the second language uttered by the second speaker B different from the first language, and is translated by voice input. It is a program that executes an automatic speech translation method that sets the language. This makes it possible to determine the type of language and easily set the language to be translated by simply issuing simple words (speech) such as greetings, and realize bidirectional automatic voice translation with a simple operation. Can be done.
なお、これらのうちの一部の具体的な態様は、音声翻訳システム、音声翻訳方法、音声翻訳コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体を用いて実現される。また、音声翻訳システム、音声翻訳方法、音声翻訳コンピュータプログラムまたは記録媒体の任意な組み合わせを用いて実現される。
このプログラムの場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
Some specific embodiments of these are realized by using a voice translation system, a voice translation method, a voice translation computer program, or a recording medium such as a computer-readable CD-ROM. It is also implemented using any combination of speech translation system, speech translation method, speech translation computer program or recording medium.
In the case of this program as well, the translation language of the voice of the third language emitted by the third speaker C, which is different from the first language and the second language, should be set and the function of translating into the first language should be provided. Is also possible.
<自動音声翻訳装置の構成>
図11は本発明の実施例3の音声入力で翻訳言語を設定する自動音声翻訳装置の構成を示すブロック図である。
実施例3の音声入力で翻訳言語を設定する自動音声翻訳装置31は、第1会話者Aが発する第1言語の音声と、この第1言語と異なる第2会話者Bが発する第2言語の音声を双方向に翻訳する、音声入力で翻訳言語を設定する自動音声翻訳装置である。実施例3の自動音声翻訳装置31は、入力部32の操作により制御される制御部33と、第1言語を使用している第1会話者Aが発する会話の音声データ及び第2言語を使用している第2会話者Bが発する会話の音声データを入力する音声入力部34と、言語の種類特定に関する情報データを蓄積した言語情報データベース35と、この音声入力部34で入力した第2言語の音声データから、この言語情報データベース35を用いてその第2言語の種類を特定する言語分析部36と、この言語分析部36で特定された第2言語を第1言語に音声翻訳し、第2言語が発する会話の音声を第1言語に音声翻訳する翻訳部37と、この翻訳部37で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部38と、音声翻訳すべき言語が判別されたきに、それぞれの言語を設定する翻訳設定部39と、翻訳部37が過去に翻訳した双方向の翻訳内容を一時的に蓄積する言語一時蓄積部(メモリ)40と、を備えたものである。
<Configuration of automatic speech translator>
FIG. 11 is a block diagram showing a configuration of an automatic voice translation device that sets a translation language by voice input according to a third embodiment of the present invention.
The automatic
実施例3の自動音声翻訳装置31は、音声入力部34に、第2会話者Bが発する第2言語の音声データを入力し、言語分析部36が翻訳する言語(第2言語)を分析して特定することで、双方の翻訳言語が設定され、その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容の音声を発するように構成されたものである。
The automatic
更に、実施例3の自動音声翻訳装置31は、音声翻訳すべき言語が判別されたときに、それぞれの言語を設定する翻訳設定部39と、翻訳部37が過去に翻訳した双方向の翻訳内容を一時的に蓄積する。スイッチのON/OFF、現在の言語の種類、バッテリー残量などの情報は表示部41に表示される。
この自動音声翻訳装置31の場合にも、第1言語、第2言語と異なる第3会話者Cが発する第3言語の音声についても、その翻訳言語を設定する共に、第1言語に翻訳する機能を持たせることも可能である。
Further, the automatic
Also in the case of this automatic
なお、本発明は、挨拶などの簡易な言葉(音声)を発するだけで、言語の種類を判別し、翻訳する言語を容易に設定することができ、双方向の自動音声翻訳を簡易な操作で実現することができる構成であれば、上述した発明の実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更できることは勿論である。 In the present invention, the type of language can be determined and the language to be translated can be easily set by simply issuing a simple word (speech) such as a greeting, and bidirectional automatic voice translation can be performed by a simple operation. As long as the configuration can be realized, it is not limited to the above-described embodiment of the invention, and it goes without saying that various changes can be made without departing from the gist of the present invention.
本発明の音声入力で翻訳言語を設定する自動音声翻訳システム、自動音声翻訳方法及びそのプログラムは、次のような場面に利用することができる。
(a)コンビニ、スーパー、ドラックストア等で外国人のお客様と接客する際
(b)外国人店員向けの接客アシストする場面
(c)日本語の方言に対応することで、地方の店舗などでも対応可能(例 英語→関西弁)(d)スマートスピーカーの対応言語を切り替える際
(e)スマートホンアプリなどで自国語設定したスマートホン等を持っていれば、公共の音声案内が、あらかじめスマートホン等に設定された自国語で公共の音声案内が再生する際
The automatic voice translation system, the automatic voice translation method, and the program thereof for setting a translation language by voice input of the present invention can be used in the following situations.
(A) When serving foreign customers at convenience stores, supermarkets, drug stores, etc. (b) Scenes of assisting customer service for foreign clerk (c) By supporting Japanese dialects, it is possible to handle even local stores (Example: English → Kansai dialect) (d) When switching the supported language of the smart speaker (e) If you have a smartphone, etc. set in your own language with a smart phone app, etc. When the public voice guidance is played in the set native language
1 音声翻訳端末器
2 入力部
3 制御部
4 音声入力部
5 音声出力部
6 送信部・受信部
11 翻訳管理サーバ
12 制御部
13 送信部・受信部
14 入力部
15 翻訳部
16 言語分析部
18a 多言語情報データベース
18b 専門用語・方言情報データベース
31 自動音声翻訳装置
32 入力部
33 制御部
34 音声入力部
35 言語情報データベース
36 言語分析部
37 翻訳部
38 音声出力部
A 第1会話者
B 第2会話者
C 第3会話者
1
Claims (6)
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ及び第2言語を使用している第2会話者(B)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語と第2言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語及び第2言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語を第1言語に音声翻訳し、第1言語を第2言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声データを入力し、
その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語)を分析して特定することで、その翻訳言語が設定され、
その設定された言語(第2言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳システム。 A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. It is an automatic speech translation system that
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. The voice input unit (4) for inputting the voice data of the conversation emitted by the speaker (B), the voice data of the second language voice-translated by the translation management server (11), and the voice-translated first language The voice output unit (5) that outputs voice data and the voice data of the first language and the second language input by the voice input unit (4) are transmitted to the translation management server (11), and the translation management server. A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving the second language and the voice data of the first language output from (11), and
The control unit (12) controlled by the operation of the input unit (14) and the voice data of the first language and the second language input from the voice input unit (4) of the voice translation terminal (1) are received. A transmitter / receiver (13) that transmits voice data of the second language and the first language output from the translation management server (11), and a multilingual information database (18a) that stores information data related to language type identification. , "Dialogue" and medical-related terms, technical terms / dialect information database (18b) that accumulates "technical terms" such as criminal case-related terms, and the second conversation entered in the transmitter / receiver (13) The multilingual information database (18a) and the specialty from the voice data of the conversation content related to the technical term in the second language issued by the person (B) or the voice data of the second language issued by the second speaker (B) in the dialect. A language analysis unit (16) that identifies the type of the second language using the term / dialect information database (18b) and a second language set by the language analysis unit (16) are transliterated into the first language. A translation management server (11) having a translation unit (15) for translating a first language into a second language.
In the voice translation terminal (1), voice data of conversation contents related to technical terms in a second language issued by a second speaker (B) or voice data of a second language issued by a second speaker (B) in a dialect. Enter and
The translation language is set by transmitting the voice data to the translation management server (11) and analyzing and specifying the language (second language) to be translated by the translation management server (11).
A voice input characterized in that the voice translation content is transmitted to the voice translation terminal (1) in both directions of the set language (second language) and the first language, and the voice is emitted. An automatic speech translation system that sets the translation language with.
入力部(2)の操作により制御される制御部(3)と、第1言語を使用している第1会話者(A)が発する会話の音声データ、第2言語を使用している第2会話者(B)が発する会話の音声データ及び第3言語を使用している第3会話者(C)が発する会話の音声データを入力する音声入力部(4)と、翻訳管理サーバ(11)で音声翻訳された第2言語、第3言語の音声データ及び、同じく音声翻訳された第1言語の音声データを出力する音声出力部(5)と、該音声入力部(4)で入力した第1言語、第2言語及び第3言語の音声データを前記翻訳管理サーバ(11)に送信すると共に、該翻訳管理サーバ(11)から出力した第2言語、第3言語と第1言語の音声データを受信する送信部・受信部(6)と、を有する音声翻訳端末器(1)と、
入力部(14)の操作により制御される制御部(12)と、前記音声翻訳端末器(1)の音声入力部(4)から入力した第1言語、第2言語及び第3言語の音声データを受信し、翻訳管理サーバ(11)から出力した第2言語、第3言語及び第1言語の音声データを送信する送信部・受信部(13)と、言語の種類特定に関する情報データを蓄積した多言語情報データベース(18a)と、「方言」と医療関係用語、刑事事件関係用語のような「専門用語」を蓄積した専門用語・方言情報データベース(18b)と、該送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データから、該多言語情報データベース(18a)と該専門用語・方言情報データベース(18b)を用いてその第2言語、第3言語の種類を特定する言語分析部(16)と、該言語分析部(16)で設定された第2言語、第3言語が発する会話の音声を第1言語に音声翻訳し、第1言語を第2言語、第3言語に音声翻訳する翻訳部(15)と、を有する翻訳管理サーバ(11)と、を備え、
前記音声翻訳端末器(1)に、第2会話者(B)、第3会話者(C)が発する第2言語、第3言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声データを入力し、その音声データを前記翻訳管理サーバ(11)に送信し、該翻訳管理サーバ(11)で翻訳する言語(第2言語、第3言語)を分析して特定することで、それぞれの翻訳言語が設定され、その設定された言語(第2言語、第3言語)と第1言語の双方向に音声翻訳内容を該音声翻訳端末器(1)へ送信し、音声を発するように構成された、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳システム。 The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is an automatic voice translation system that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
The control unit (3) controlled by the operation of the input unit (2), the voice data of the conversation uttered by the first speaker (A) using the first language, and the second language using the second language. A voice input unit (4) for inputting voice data of a conversation issued by a speaker (B) and voice data of a conversation issued by a third speaker (C) using a third language, and a translation management server (11). A voice output unit (5) that outputs the voice data of the second language and the third language that has been voice-translated in the above, and the voice data of the first language that has also been voice-translated in Voice data of one language, second language and third language is transmitted to the translation management server (11), and voice data of the second language, third language and first language output from the translation management server (11). A voice translation terminal (1) having a transmitting unit / receiving unit (6) for receiving
Voice data of the first language, the second language, and the third language input from the control unit (12) controlled by the operation of the input unit (14) and the voice input unit (4) of the voice translation terminal (1). Is received, and the transmitter / receiver (13) that transmits the voice data of the second language, the third language, and the first language output from the translation management server (11), and the information data related to the type identification of the language are accumulated. A multilingual information database (18a), a technical term / dialect information database (18b) that accumulates "technical terms" such as "dialogs", medical terms, and criminal case related terms, and a transmitter / receiver (13). ), The second language spoken by the second speaker (B), the conversation content voice data related to the technical terms in the third language spoken by the third speaker (C), or the second speaker (B), the third. From the voice data of the second language and the third language uttered by the speaker (C) in the dialect, the second language and the third language are used by using the multilingual information database (18a) and the technical term / dialect information database (18b). The language analysis unit (16) that specifies the type of language and the voices of the conversations of the second and third languages set by the language analysis unit (16) are voice-translated into the first language, and the first language is converted. It is equipped with a translation unit (15) that translates into a second language and a third language, and a translation management server (11) that has.
The voice translation terminal (1) is provided with voice data of conversation contents related to a second language, a technical term in a third language, or a second speaker (a second speaker (B), a third speaker (C), or a second speaker (C). B), the voice data of the second language and the third language uttered by the third speaker (C) in the dialect are input, the voice data is transmitted to the translation management server (11), and the translation management server (11) By analyzing and identifying the language to be translated in (2nd language, 3rd language), each translation language is set, and both the set language (2nd language, 3rd language) and the 1st language are set. An automatic voice translation system for setting a translation language by voice input, which is configured to transmit voice translation contents to the voice translation terminal (1) and emit voice.
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データが入力され、
この第2言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声データ、又は第2会話者(B)が方言により発する第2言語の音声について、その第2言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語と第1言語の双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法。 A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. It is an automatic speech translation method that
The voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2).
The voice data of this second language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). The type of the second language is set for the voice data of the conversation content related to the technical term in the second language uttered by) or the voice of the second language uttered by the second speaker (B) in the dialect.
After that, when the voice data of the second language emitted by the second speaker (B) is input to the voice translation terminal (1), the voice translated by the translation management server (11) into the first language is said to be the same. Output to the voice translation terminal (1)
A translation language by voice input, characterized in that the voice translated by the translation management server (11) is output to the voice translation terminal (1) in both directions of the set second language and the first language. Automatic speech translation method to set.
入力部(2)の操作により制御される制御部(3)を有する音声翻訳端末器(1)に、第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声データが入力され、
この第2言語、第3言語の音声データが、翻訳管理サーバ(11)に送信され、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声データ、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声について、その第2言語、第3言語の種類が設定され、
その後、前記音声翻訳端末器(1)に第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語の音声データが入力されると、第1言語に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力され、
設定された第2言語、第3言語と第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力される、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法。 The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
Second language voice data emitted by the second speaker (B) to the voice translation terminal (1) having the control unit (3) controlled by the operation of the input unit (2), the third speaker (C). The voice data of the third language emitted by is input,
The voice data of the second language and the third language is transmitted to the translation management server (11), and the voice data is transmitted to the translation management server (11).
A second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice data related to the technical terms in the third language issued by the third speaker (C), or the second spoken by the second speaker (B) and the third speaker (C) in a dialect. For the language and the voice of the third language, the types of the second language and the third language are set, and
After that, when the voice data of the second language emitted by the second speaker (B) and the third language emitted by the third speaker (C) are input to the voice translation terminal (1), the first language is described as described above. The voice translated by the translation management server (11) is output to the voice translation terminal (1).
A voice input characterized in that the voice translated by the translation management server (11) into each of the set second language, third language, and first language is output to the voice translation terminal (1). An automatic speech translation method that sets the translation language.
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語による専門用語に関する会話内容の音声、又は第2会話者(B)が方言により発する第2言語の音声から、その第2言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語に、及び第2会話者(B)が発する第2言語の音声データが入力されると第1言語に双方向に前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行する、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラム。 A translation language is set by voice input, which bidirectionally translates the voice of the first language emitted by the first speaker (A) and the voice of the second language emitted by the second speaker (B) different from the first language. A program that executes an automatic speech translation method
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, to receive translation management server (11), a receiving step ,
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks of the conversation content related to the technical term in the second language, or the second language spoken by the second speaker (B) in the dialect, the type of the second language is specified and the translation language is set. Translation language setting steps and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the voice data of the second language emitted by the second speaker (B) is input to the second language. Is input, a speech translation step consisting of a speech translation step in which the speech translated by the translation management server (11) bidirectionally in the first language is output to the speech translation terminal (1), and a translation management server (11). that perform automatic speech translation process, a program for performing an automatic speech translation process to set the translation language speech input, characterized in that.
第1会話者(A)が使用する音声翻訳端末器(1)に、第2会話者(B)が発した第2言語の音声データと、第3会話者(C)が発した第3言語の音声データを、翻訳管理サーバ(11)が受信する、受信ステップと、
前記翻訳管理サーバ(11)に格納された多言語情報データベース(18a)と専門用語・方言情報データベース(18b)に基づいて、送信部・受信部(13)で入力した、第2会話者(B)が発する第2言語、第3会話者(C)が発する第3言語による専門用語に関する会話内容音声、又は第2会話者(B)、第3会話者(C)が方言により発する第2言語、第3言語の音声から、その第2言語、第3言語の種類を特定して翻訳言語を設定する、翻訳言語設定ステップと、
前記音声翻訳端末器(1)に第1会話者(A)が発する第1言語の音声データが入力されると第2言語、第3言語に、及び第2会話者(B)が発する第2言語の音声データ、第3会話者(C)が発する第3言語の音声が入力されると第1言語それぞれに前記翻訳管理サーバ(11)によって翻訳された音声が該音声翻訳端末器(1)に出力する音声翻訳ステップと、から成る翻訳管理サーバ(11)が自動音声翻訳方法を実行する、ことを特徴とする音声入力で翻訳言語を設定する自動音声翻訳方法を実行するプログラム。
The voice of the first language emitted by the first speaker (A), the voice of the second language emitted by the second speaker (B) different from the first language, and the third language different from the first language and the second language. It is a program that executes an automatic voice translation method that sets the translation language by voice input, which translates the voice of the third language emitted by the speaker (C) into each.
The speech translation terminal unit (1) that first conversation party (A) is used, the audio data of the second language second conversation party (B) is issued, the third language third conversation party (C) has been issued The voice data of the above is received by the translation management server (11), the reception step, and
The second speaker (B) input by the transmitting unit / receiving unit (13) based on the multilingual information database (18a) and the technical term / dialect information database (18b) stored in the translation management server (11). ) Speaks in the second language, the conversation content voice related to the technical term in the third language uttered by the third speaker (C), or the second language uttered by the second speaker (B) and the third speaker (C) in the dialect. , The translation language setting step to specify the type of the second language and the third language from the sound of the third language and set the translation language, and
When the voice data of the first language emitted by the first speaker (A) is input to the voice translation terminal (1), the second language, the third language, and the second speaker (B) emit the second language. When the voice data of the language and the voice of the third language emitted by the third speaker (C) are input, the voice translated by the translation management server (11) into each of the first languages is the voice translation terminal (1). program for executing a speech translation step, the translation management server consisting of (11) to run an automatic speech translation process, the automatic speech translation process to set the translation language speech input and outputting to.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215053A JP6856277B1 (en) | 2019-11-28 | 2019-11-28 | Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215053A JP6856277B1 (en) | 2019-11-28 | 2019-11-28 | Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6856277B1 true JP6856277B1 (en) | 2021-04-07 |
JP2021086404A JP2021086404A (en) | 2021-06-03 |
Family
ID=75267955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019215053A Active JP6856277B1 (en) | 2019-11-28 | 2019-11-28 | Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6856277B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5733566B2 (en) * | 2011-03-24 | 2015-06-10 | カシオ計算機株式会社 | Translation apparatus, translation method, and program |
US9734142B2 (en) * | 2015-09-22 | 2017-08-15 | Facebook, Inc. | Universal translation |
JP6723907B2 (en) * | 2016-11-30 | 2020-07-15 | 株式会社日立製作所 | Language recognition system, language recognition method, and language recognition program |
CN107045498A (en) * | 2017-05-18 | 2017-08-15 | 深圳双猴科技有限公司 | Synchronous translation equipment, method, device and the electronic equipment of a kind of double-sided display |
-
2019
- 2019-11-28 JP JP2019215053A patent/JP6856277B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021086404A (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9430467B2 (en) | Mobile speech-to-speech interpretation system | |
KR101689290B1 (en) | Device for extracting information from a dialog | |
US20060253272A1 (en) | Voice prompts for use in speech-to-speech translation system | |
JP3822990B2 (en) | Translation device, recording medium | |
US20150331665A1 (en) | Information provision method using voice recognition function and control method for device | |
JP5731998B2 (en) | Dialog support device, dialog support method, and dialog support program | |
JPWO2019123775A1 (en) | Information processing equipment, information processing systems, information processing methods, and programs | |
US20210350784A1 (en) | Correct pronunciation of names in text-to-speech synthesis | |
JP7026004B2 (en) | Conversation aids, conversation aid methods and programs | |
JP2018045675A (en) | Information presentation method, information presentation program and information presentation system | |
KR102300589B1 (en) | Sign language interpretation system | |
JP6856277B1 (en) | Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program | |
JP2020113150A (en) | Voice translation interactive system | |
JP4079275B2 (en) | Conversation support device | |
JP2005283972A (en) | Speech recognition method, and information presentation method and information presentation device using the speech recognition method | |
JP2007286376A (en) | Voice guide system | |
KR102000282B1 (en) | Conversation support device for performing auditory function assistance | |
Kodirov et al. | Implementation of web application based on Augmentative and Alternative Communication (AAC) method for People with Hearing and Speech Impairment | |
JP2022018724A (en) | Information processing device, information processing method, and information processing program | |
JP6383748B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6110539B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP3870722B2 (en) | Translation device, recording medium | |
JP2000184077A (en) | Intercom system | |
JP2002323969A (en) | Communication supporting method, system and device using the method | |
JP2002101204A (en) | Communication meditating system and telephone set for aurally handicapped person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191218 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200730 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201029 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201029 |
|
C876 | Explanation why request for accelerated appeal examination is justified |
Free format text: JAPANESE INTERMEDIATE CODE: C876 Effective date: 20201029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201029 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201119 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201120 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20201204 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20201208 |
|
C305 | Report on accelerated appeal examination |
Free format text: JAPANESE INTERMEDIATE CODE: C305 Effective date: 20201209 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20201210 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20201224 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20210121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210205 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20210304 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |