JP2021117676A - Translator, translation method, and program - Google Patents

Translator, translation method, and program Download PDF

Info

Publication number
JP2021117676A
JP2021117676A JP2020010101A JP2020010101A JP2021117676A JP 2021117676 A JP2021117676 A JP 2021117676A JP 2020010101 A JP2020010101 A JP 2020010101A JP 2020010101 A JP2020010101 A JP 2020010101A JP 2021117676 A JP2021117676 A JP 2021117676A
Authority
JP
Japan
Prior art keywords
translation
language
voice
destination
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020010101A
Other languages
Japanese (ja)
Other versions
JP6710818B1 (en
Inventor
聡 黒川
Satoshi Kurokawa
聡 黒川
由敬 石橋
Yoshitaka Ishibashi
由敬 石橋
智 藤井
Satoshi Fujii
智 藤井
喜敏 須田
Yoshitoshi Suda
喜敏 須田
信公 明賀
Nobuhiro MYOGA
信公 明賀
昌司 吉田
Masashi Yoshida
昌司 吉田
英樹 嶋田
Hideki Shimada
英樹 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Sumitomo Mitsui Construction Co Ltd
Original Assignee
NEC Corp
Sumitomo Mitsui Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Sumitomo Mitsui Construction Co Ltd filed Critical NEC Corp
Priority to JP2020010101A priority Critical patent/JP6710818B1/en
Priority to PCT/JP2020/007593 priority patent/WO2021149267A1/en
Application granted granted Critical
Publication of JP6710818B1 publication Critical patent/JP6710818B1/en
Publication of JP2021117676A publication Critical patent/JP2021117676A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide a translator that can transmit voice to a transmission destination device without delay when converting input voice of a first language into output voice of one or more translation destination languages other than the first language and transmitting it to the transmission destination device.SOLUTION: A translator immediately converts, when input of input voice of a first language is detected, the input of the input voice into output voice of one or more translation destination languages different from the first language, and transmits the output voice of the one or more translation destination languages to a transmission destination device used by a user who speaks a corresponding language.SELECTED DRAWING: Figure 1

Description

本発明は、翻訳装置、翻訳方法、プログラムに関する。 The present invention relates to a translation device, a translation method, and a program.

複数の言語話者が協働して作業する場合、ある指示者などの第一話者が第一の言語で発した音声の内容が、第一の言語を習得していない他の言語の話者に正確に伝わる必要がある。関連する技術として、第一の言語の音声を翻訳した翻訳テキストデータを生成する技術が特許文献1に開示されている。 When multiple language speakers work together, the content of the voice produced by the first speaker, such as an instructor, in the first language is the story of another language that has not mastered the first language. It is necessary to convey it accurately to the person. As a related technique, Patent Document 1 discloses a technique for generating translated text data obtained by translating a voice of a first language.

特開2019−004392号公報Japanese Unexamined Patent Publication No. 2019-004392

上述のような翻訳において、第一話者が第一の言語で発した音声の内容が、第一の言語を習得していない他の言語の話者に、より短時間で伝わる仕組みが求められる。 In the above translation, a mechanism is required in which the content of the voice uttered by the first speaker in the first language is transmitted to speakers in other languages who have not mastered the first language in a shorter time. ..

そこでこの発明は、上述の課題を解決する翻訳装置、翻訳方法、プログラムを提供することを目的としている。 Therefore, an object of the present invention is to provide a translation device, a translation method, and a program that solve the above-mentioned problems.

発明の第一の態様によれば、翻訳装置は、第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する翻訳手段と、前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する音声送信手段と、を備えることを特徴とする。 According to the first aspect of the invention, when the translation device detects the input of the input voice of the first language, it immediately converts it into the output voice of one or more destination languages different from the first language. The translation means is provided, and the voice transmission means for transmitting the output voice of the one or more translation destination languages to the destination device used by the user who speaks the corresponding language.

発明の第二の態様によれば、翻訳方法は、第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換し、前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信することを特徴とする。 According to the second aspect of the invention, when the translation method detects the input of the input voice of the first language, it immediately converts it into the output voice of one or more destination languages different from the first language. However, the output voice of the one or more translation destination languages is transmitted to the destination device used by the user who speaks the corresponding language.

発明の第三の態様によれば、プログラムは、翻訳装置のコンピュータを、第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する翻訳手段、前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する音声送信手段、として機能させることを特徴とする。 According to the third aspect of the invention, when the computer of the translating device detects the input of the input voice of the first language, the program has one or more destination languages different from the first language. It is characterized in that it functions as a translation means for immediately converting to output voice, and a voice transmission means for transmitting the output voice of one or more translation destination languages to a destination device used by a user who speaks a corresponding language.

本発明によれば、第一話者が第一の言語で発した音声の内容が、第一の言語を習得していない他の言語の話者に、より短時間で伝わる翻訳装置を提供することができる。 According to the present invention, there is provided a translation device in which the content of a voice uttered by a first speaker in a first language is transmitted to a speaker in another language who has not mastered the first language in a shorter time. be able to.

本発明の一実施形態による翻訳システムの構成を示すブロック図である。It is a block diagram which shows the structure of the translation system by one Embodiment of this invention. 本発明の一実施形態による翻訳サーバ、トランシーバサーバ、仲介サーバのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the translation server, the transceiver server, and the intermediary server by one Embodiment of this invention. 本発明の一実施形態による翻訳サーバの機能ブロック図である。It is a functional block diagram of the translation server by one Embodiment of this invention. 本発明の一実施形態による翻訳部の詳細な機能構成を示す図である。It is a figure which shows the detailed functional structure of the translation part by one Embodiment of this invention. 本発明の一実施形態によるトランシーバサーバが記憶するユーザ管理テーブルを示す図である。It is a figure which shows the user management table stored in the transceiver server by one Embodiment of this invention. 本発明の一実施形態による翻訳システムの処理フローを示す図である。It is a figure which shows the processing flow of the translation system by one Embodiment of this invention. 本発明の一実施形態による翻訳サーバの最小構成を示す図である。It is a figure which shows the minimum structure of the translation server by one Embodiment of this invention. 本発明の一実施形態による最小構成による翻訳サーバの処理フローを示す図である。It is a figure which shows the processing flow of the translation server by the minimum configuration by one Embodiment of this invention.

以下、本発明の一実施形態による翻訳装置を図面を参照して説明する。
図1は本実施形態による翻訳装置を含む翻訳システムの構成を示すブロック図である。
翻訳システム100は、少なくとも翻訳サーバ1を備える。本実施形態による翻訳システム100は、さらにトランシーバサーバ2、仲介サーバ3を備える。
翻訳サーバ1は、入力した音声を、所定の翻訳先言語の音声に変換して出力する機能を有する。
トランシーバサーバ2は、ユーザ端末5と直接、通信を行う装置であり、グループに含まれる各ユーザ端末5の管理、音声通信処理、ユーザ管理などを行う。
仲介サーバ3は、音声データやテキストデータのトランシーバサーバ2と翻訳サーバ1との通信を仲介する。
Hereinafter, a translation apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a translation system including a translation device according to the present embodiment.
The translation system 100 includes at least a translation server 1. The translation system 100 according to the present embodiment further includes a transceiver server 2 and an intermediary server 3.
The translation server 1 has a function of converting the input voice into the voice of a predetermined translation destination language and outputting it.
The transceiver server 2 is a device that directly communicates with the user terminal 5, and manages each user terminal 5 included in the group, voice communication processing, user management, and the like.
The mediation server 3 mediates communication between the transceiver server 2 for voice data and text data and the translation server 1.

また図1ではユーザ端末51、52、53、54がトランシーバサーバ2と通信接続する態様を示している。ユーザ端末51、52、53、54を総称してユーザ端末5と呼ぶこととする。本実施形態においては、ユーザ端末51を、ある建設現場の管理者が利用する。またユーザ端末52、ユーザ端末53、ユーザ端末54を、建設現場の作業者が利用する。ユーザ端末52、ユーザ端末53、ユーザ端末54を利用する作業者は、それぞれが異なる言語を母国語として会話をする作業者であるとする。ユーザ端末5はトランシーバ端末の機能を有する。そして管理者がユーザ端末51を介して、各作業者に指示を音声で伝える。トランシーバサーバ2は、管理者の音声を受信して仲介サーバ3を介して翻訳サーバ1へ送信する。翻訳サーバ1は、管理者の音声を入力すると、直ちにユーザ端末52、53、54を利用する各作業者の利用する言語に変換して、対応するユーザ端末5へ送信する。これにより、翻訳サーバ1を備えた翻訳システム100は、管理者である第一話者が第一の言語で発した音声の内容が、第一の言語を習得していない他の言語の話者である作業者に、より短時間で伝わる仕組みを提供する。 Further, FIG. 1 shows a mode in which the user terminals 51, 52, 53, 54 communicate with the transceiver server 2. The user terminals 51, 52, 53, and 54 are collectively referred to as the user terminal 5. In the present embodiment, the user terminal 51 is used by a manager of a certain construction site. Further, the user terminal 52, the user terminal 53, and the user terminal 54 are used by workers at the construction site. It is assumed that the workers who use the user terminal 52, the user terminal 53, and the user terminal 54 are workers who have conversations in different languages as their mother tongues. The user terminal 5 has the function of a transceiver terminal. Then, the administrator transmits an instruction to each worker by voice via the user terminal 51. The transceiver server 2 receives the voice of the administrator and transmits it to the translation server 1 via the intermediary server 3. Upon inputting the voice of the administrator, the translation server 1 immediately converts the language into the language used by each worker who uses the user terminals 52, 53, and 54, and transmits the voice to the corresponding user terminal 5. As a result, in the translation system 100 provided with the translation server 1, the content of the voice uttered by the first speaker who is the administrator in the first language is a speaker of another language who has not acquired the first language. We will provide a mechanism to convey the information to the workers in a shorter time.

図2は、翻訳サーバ、トランシーバサーバ、仲介サーバのハードウェア構成を示す図である。
図2で示すように、翻訳サーバ1、トランシーバサーバ2、仲介サーバ3は、それぞれ、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。なおユーザ端末5も同様のハードウェアを備えたコンピュータである。
FIG. 2 is a diagram showing a hardware configuration of a translation server, a transceiver server, and an intermediary server.
As shown in FIG. 2, the translation server 1, the transceiver server 2, and the intermediary server 3 have a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a database 104, and communication, respectively. It is a computer equipped with each hardware such as a module 105. The user terminal 5 is also a computer equipped with the same hardware.

図3は、翻訳サーバの機能ブロック図である。
翻訳サーバ1は、翻訳管理プログラムを実行する。これにより翻訳サーバ1は、制御部11、翻訳部12、音声送信部13、テキストデータ送信部14を備える。
FIG. 3 is a functional block diagram of the translation server.
The translation server 1 executes a translation management program. As a result, the translation server 1 includes a control unit 11, a translation unit 12, a voice transmission unit 13, and a text data transmission unit 14.

制御部11は、他の機能部を制御する。
翻訳部12は、第一の言語の入力音声の入力を検知した場合に、第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する。翻訳部12は、入力音声をテキスト化した第一テキストデータと、当該第一テキストデータに対応する翻訳先言語のテキストデータとを生成し、当該翻訳先言語のテキストデータを音声変換して翻訳先言語の出力音声を生成する。
音声送信部13は、一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用するユーザ端末5(送信先装置)へ送信する。
テキストデータ送信部14は、ユーザ端末5からのテキストデータ送信要求があった場合に、当該ユーザ端末5に対応する言語を示す翻訳先言語の出力音声をテキスト化した翻訳先言語のテキストデータを当該ユーザ端末5へ送信する。
The control unit 11 controls other functional units.
When the translation unit 12 detects the input of the input voice of the first language, it immediately converts it into the output voice of one or more translation destination languages different from the first language. The translation unit 12 generates the first text data obtained by converting the input voice into text and the text data of the translation destination language corresponding to the first text data, and converts the text data of the translation destination language into voice to translate. Generates language output audio.
The voice transmission unit 13 transmits the output voice of one or more translation destination languages to the user terminal 5 (destination device) used by the user who speaks the corresponding language.
When a text data transmission request is received from the user terminal 5, the text data transmission unit 14 uses the text data of the translation destination language in which the output voice of the translation destination language indicating the language corresponding to the user terminal 5 is converted into text. It is transmitted to the user terminal 5.

図4は翻訳部の詳細な機能構成を示す図である。
図4で示すように、翻訳部12は、音声翻訳API(Application Programming Interface)121、機械翻訳API122、音声合成API123、音声認識機能124、翻訳機能125、音声合成機能126を備える。音声翻訳API121は、外部から入力した入力音声を音声認識機能124へ出力する。機械翻訳API122は、機械翻訳のためのAPIである。音声合成API123は、翻訳によって変換された翻訳先言語の出力音声を出力する。音声認識機能124は、入力音声をその音声の言語のテキストに変換する。翻訳機能125は、入力音声のテキストを、他の指定された翻訳先言語のテキストに変換する。音声合成機能126は、翻訳先言語のテキストを、その翻訳先言語の音声に変換して音声合成API123へ出力する。
FIG. 4 is a diagram showing a detailed functional configuration of the translation unit.
As shown in FIG. 4, the translation unit 12 includes a speech translation API (Application Programming Interface) 121, a machine translation API 122, a speech synthesis API 123, a speech recognition function 124, a translation function 125, and a speech synthesis function 126. The voice translation API 121 outputs the input voice input from the outside to the voice recognition function 124. Machine translation API 122 is an API for machine translation. The speech synthesis API 123 outputs the output speech of the translation destination language converted by the translation. The voice recognition function 124 converts the input voice into text in the language of the voice. The translation function 125 converts the text of the input voice into the text of another designated translation destination language. The speech synthesis function 126 converts the text of the translation destination language into the speech of the translation destination language and outputs it to the speech synthesis API 123.

図5はトランシーバサーバが記憶するユーザ管理テーブルを示す図である。
トランシーバサーバは、ある建設現場の管理者と作業者の利用する端末を、一つのグループに属するユーザの利用する端末として記憶する。例えば、端末IDに、建設現場ID、企業ID、ユーザIDを紐づけて記憶する。そのほか、ユーザIDに、管理者IDや、作業者IDを紐づけて記憶してよい。ユーザ端末51を利用するユーザをユーザA、ユーザ端末52を利用するユーザをユーザB、ユーザ端末53を利用するユーザをユーザC、ユーザ端末54を利用するユーザをユーザDと呼ぶこととする。ユーザAは、建設現場の管理者、ユーザB,C,Dは建設現場の作業者であるとする。
FIG. 5 is a diagram showing a user management table stored in the transceiver server.
The transceiver server stores the terminals used by the manager and the worker of a certain construction site as the terminals used by the users belonging to one group. For example, the terminal ID is associated with the construction site ID, the company ID, and the user ID and stored. In addition, the user ID may be associated with the administrator ID or the worker ID and stored. The user who uses the user terminal 51 is referred to as user A, the user who uses the user terminal 52 is referred to as user B, the user who uses the user terminal 53 is referred to as user C, and the user who uses the user terminal 54 is referred to as user D. It is assumed that user A is a construction site manager and users B, C, and D are construction site workers.

この場合、トランシーバサーバ2は、ユーザ端末51の端末IDに、ユーザAが管理する作業現場の建設現場ID、ユーザAが属する企業の企業ID、ユーザAの識別情報であるユーザID、ユーザAが管理者であることを示す管理者IDを紐づけて記憶する。またトランシーバサーバ2は、ユーザ端末52の端末IDに、ユーザBが管理する作業現場の建設現場ID、ユーザBを管理する企業の企業ID、ユーザBの識別情報であるユーザID、ユーザBが作業者であることを示す作業者IDを紐づけて記憶する。またトランシーバサーバ2は、ユーザ端末53の端末IDに、ユーザCが管理する作業現場の建設現場ID、ユーザCを管理する企業の企業ID、ユーザCの識別情報であるユーザID、ユーザCが作業者であることを示す作業者IDを紐づけて記憶する。またトランシーバサーバ2は、ユーザ端末54の端末IDに、ユーザDが管理する作業現場の建設現場ID、ユーザDを管理する企業の企業ID、ユーザDの識別情報であるユーザID、ユーザDが作業者であることを示す作業者IDを紐づけて記憶する。なおトランシーバサーバ2は、作業者IDや管理者IDに紐づけてそのユーザが母語とする言語を示す言語IDを記憶する。これら記憶する情報は、トランシーバサーバ2のユーザ管理テーブルにおいて記録される。 In this case, in the transceiver server 2, the terminal ID of the user terminal 51 includes the construction site ID of the work site managed by the user A, the company ID of the company to which the user A belongs, the user ID which is the identification information of the user A, and the user A. An administrator ID indicating that the user is an administrator is associated and stored. Further, in the transceiver server 2, the terminal ID of the user terminal 52 includes the construction site ID of the work site managed by the user B, the company ID of the company that manages the user B, the user ID that is the identification information of the user B, and the user B working. The worker ID indicating that the person is a person is associated and stored. Further, in the transceiver server 2, the terminal ID of the user terminal 53 includes the construction site ID of the work site managed by the user C, the company ID of the company that manages the user C, the user ID that is the identification information of the user C, and the user C working. The worker ID indicating that the person is a person is associated and stored. Further, in the transceiver server 2, the terminal ID of the user terminal 54 includes a construction site ID of a work site managed by the user D, a company ID of a company that manages the user D, a user ID that is identification information of the user D, and a user D working. The worker ID indicating that the person is a person is associated and stored. The transceiver server 2 stores a language ID that indicates the language of the user as the mother tongue in association with the worker ID and the administrator ID. These stored information are recorded in the user management table of the transceiver server 2.

図6は本実施形態による処理フローを示す図である。
次に図6を用いて本実施形態による処理フローを順を追って説明する。
各ユーザは自身が利用するユーザ端末5を起動させる。これによりユーザ端末51〜54のそれぞれは、トランシーバサーバ2と通信接続を行う。この状態で、各ユーザはユーザ端末5を用いて、他のユーザと会話を行うことができる。
FIG. 6 is a diagram showing a processing flow according to the present embodiment.
Next, the processing flow according to the present embodiment will be described step by step with reference to FIG.
Each user activates the user terminal 5 that he / she uses. As a result, each of the user terminals 51 to 54 makes a communication connection with the transceiver server 2. In this state, each user can have a conversation with another user by using the user terminal 5.

この時、まずユーザAが、ユーザ端末51のディスプレイに表示されている発話ボタンを押下する。ユーザ端末51は、呼開始指示をトランシーバサーバ2へ送信する(ステップS101)。呼開始指示にはユーザ端末51の端末IDと呼番号が含まれる。トランシーバサーバ2は、呼開始指示に基づいてユーザ端末5が属するグループに含まれるユーザ端末同士の音声通信処理を開始する(ステップS102)。トランシーバサーバ2は、呼開始指示に含まれる端末IDを取得する。 At this time, the user A first presses the utterance button displayed on the display of the user terminal 51. The user terminal 51 transmits a call start instruction to the transceiver server 2 (step S101). The call start instruction includes the terminal ID and the call number of the user terminal 51. The transceiver server 2 starts voice communication processing between user terminals included in the group to which the user terminal 5 belongs based on the call start instruction (step S102). The transceiver server 2 acquires the terminal ID included in the call start instruction.

トランシーバサーバ2は、端末IDに紐づいて同じグループに属する端末IDをトランシーバサーバ2のデータベースに記録されているユーザ管理テーブルから取得する。これら取得した端末IDは、ユーザ端末52,53,54の各端末IDであるとする。トランシーバサーバ2は、ユーザ端末51,52,53,54のそれぞれに紐づいてユーザ管理テーブルが記憶する言語IDを取得する。トランシーバサーバ2は、呼出元のユーザ端末51の端末IDと対応する言語ID、呼出先のユーザ端末52,53,54の端末ID、各端末IDに対応する言語ID、呼番号、を含む翻訳開始指示を、仲介サーバ3を介して翻訳サーバ1へ送信する(ステップS103)。仲介サーバ3は、翻訳開始指示を翻訳サーバ1へ送信する。 The transceiver server 2 acquires a terminal ID belonging to the same group in association with the terminal ID from the user management table recorded in the database of the transceiver server 2. It is assumed that the acquired terminal IDs are the terminal IDs of the user terminals 52, 53, and 54. The transceiver server 2 acquires a language ID stored in the user management table in association with each of the user terminals 51, 52, 53, and 54. The transceiver server 2 starts translation including a language ID corresponding to the terminal ID of the calling user terminal 51, a terminal ID of the calling destination user terminals 52, 53, 54, a language ID corresponding to each terminal ID, and a call number. The instruction is transmitted to the translation server 1 via the intermediary server 3 (step S103). The intermediary server 3 transmits a translation start instruction to the translation server 1.

そして、ユーザAはユーザ端末51に備わるマイクに向けて音声を発する。当該音声は作業者に対する指示などであってよい。ユーザ端末51は、ユーザ端末51の端末IDと音声データと、呼番号とを含む発話データを、トランシーバサーバ2へ送信する(ステップS104)。トランシーバサーバ2は発話データを、仲介サーバ3を介して翻訳サーバ1へ送信する(ステップS105)。ユーザAは、発話を終了すると、ユーザ端末51のディスプレイに表示されている終話ボタンを押下する。するとユーザ端末51は終話通知をトランシーバサーバ2へ送信する(ステップS106)。なおトランシーバサーバ2は、終話通知を受信する前に、ユーザAの翻訳しない音声データを、直ちに呼出先のユーザ端末5へ送信してもよい。 Then, the user A emits a voice into the microphone provided in the user terminal 51. The voice may be an instruction to the worker or the like. The user terminal 51 transmits the utterance data including the terminal ID of the user terminal 51, the voice data, and the call number to the transceiver server 2 (step S104). The transceiver server 2 transmits the utterance data to the translation server 1 via the intermediary server 3 (step S105). When the user A finishes speaking, the user A presses the end button displayed on the display of the user terminal 51. Then, the user terminal 51 transmits the end-of-call notification to the transceiver server 2 (step S106). The transceiver server 2 may immediately transmit the untranslated voice data of the user A to the called user terminal 5 before receiving the end-of-call notification.

翻訳サーバ1は翻訳開始指示を受信する。翻訳サーバ1は端末IDと発話データを受信する。翻訳サーバ1は呼番号に基づいて、翻訳開始指示と発話データの対応関係を検知する。翻訳サーバ1の翻訳部12は、呼番号に基づいて特定した翻訳開始指示に含まれる、呼出元のユーザ端末51の端末IDと対応する言語IDと、呼出先のユーザ端末52,53,54の端末IDと各端末IDに対応する言語IDとを取得する。翻訳部12は、呼出元のユーザ端末51の端末IDと対応する言語IDを翻訳元の言語の言語IDとして特定する。翻訳部12は、呼出先のユーザ端末52,53,54の端末IDと対応する各言語IDを翻訳先の言語の言語IDとして特定する。 The translation server 1 receives the translation start instruction. The translation server 1 receives the terminal ID and the utterance data. The translation server 1 detects the correspondence between the translation start instruction and the utterance data based on the call number. The translation unit 12 of the translation server 1 includes a language ID corresponding to the terminal ID of the calling user terminal 51 and the calling destination user terminals 52, 53, 54, which are included in the translation start instruction specified based on the call number. The terminal ID and the language ID corresponding to each terminal ID are acquired. The translation unit 12 specifies the language ID corresponding to the terminal ID of the calling user terminal 51 as the language ID of the translation source language. The translation unit 12 specifies each language ID corresponding to the terminal ID of the call destination user terminals 52, 53, 54 as the language ID of the translation destination language.

そして翻訳部12の音声認識機能124が、翻訳開始指示を受信している状況であれば、終話通知を受信している受信していないにかかわらず、直ちに翻訳処理を開始する。この時、翻訳部12の音声認識機能124は、同じ呼番号に基づいて特定した発話データに含まれる音声データを、翻訳元の言語IDが示す翻訳元言語のテキストデータ(第一テキストデータ)に変換する(ステップS107)。翻訳部12は、音声データをテキストデータに変換する際に公知の音声テキスト変換の技術を用いればよい。翻訳部12は呼番号と翻訳元言語のテキストデータとを紐づけてデータベース等に記憶してよい。 Then, if the voice recognition function 124 of the translation unit 12 is receiving the translation start instruction, the translation process is immediately started regardless of whether or not the end-of-call notification has been received. At this time, the voice recognition function 124 of the translation unit 12 converts the voice data included in the utterance data specified based on the same call number into the text data (first text data) of the translation source language indicated by the translation source language ID. Convert (step S107). The translation unit 12 may use a known speech-text conversion technique when converting speech data into text data. The translation unit 12 may associate the call number with the text data of the translation source language and store it in a database or the like.

また翻訳部12の音声認識機能124が、翻訳元言語のテキストデータを、特定した翻訳先の言語IDが示す翻訳先言語のテキストデータに翻訳する(ステップS108)。翻訳部12は、翻訳元言語のテキストデータを翻訳先言語のテキストデータに変換する際に、公知の翻訳技術を用いてよい。翻訳部12は呼番号と翻訳先言語のテキストデータとを紐づけてデータベースに記録する(ステップS109)。ここでユーザBが言語B、ユーザCが言語C、ユーザDが言語Dを母語とする作業者である場合、言語Bを翻訳先言語とするテキストデータ、言語Cを翻訳先言語とするテキストデータ、言語Dを翻訳先言語とするテキストデータ、の3つの言語のテキストデータが生成される。 Further, the voice recognition function 124 of the translation unit 12 translates the text data of the translation source language into the text data of the translation destination language indicated by the language ID of the specified translation destination (step S108). The translation unit 12 may use a known translation technique when converting the text data of the translation source language into the text data of the translation destination language. The translation unit 12 associates the call number with the text data of the translation destination language and records it in the database (step S109). Here, when the user B is the language B, the user C is the language C, and the user D is a worker whose native language is the language D, the text data with the language B as the translation destination language and the text data with the language C as the translation destination language. , Text data in which language D is the translation destination language, and text data in three languages are generated.

また翻訳部12の音声合成機能126が、翻訳先言語のテキストデータを音声に変換し、翻訳先言語毎のテキストデータに対応する音声データを生成する(ステップS110)。翻訳部12は、翻訳先言語の音声データと、言語IDと、当該言語IDに紐づく端末IDと呼番号とを紐づけた出力音声データを、生成した翻訳先言語の音声データ毎に生成してデータベースに記録してもよい。本実施形態においては、音声合成機能126は、翻訳先言語Bの音声データを含む出力音声データ、翻訳先言語Cの音声データを含む出力音声データ、翻訳先言語Dの音声データを含む出力音声データ、の3つの出力音声データを生成して、データベースに記録する。音声合成API123は、音声合成機能126の生成した3つの出力音声データをそれぞれ取得する。音声合成API123は、各出力音声データを音声送信部13へ出力する。 Further, the voice synthesis function 126 of the translation unit 12 converts the text data of the translation destination language into voice and generates voice data corresponding to the text data of each translation destination language (step S110). The translation unit 12 generates audio data of the translation destination language, language ID, and output audio data associated with the terminal ID and the call number associated with the language ID for each audio data of the generated translation destination language. May be recorded in the database. In the present embodiment, the voice synthesis function 126 includes output voice data including voice data of the translation destination language B, output voice data including voice data of the translation destination language C, and output voice data including voice data of the translation destination language D. , And three output voice data are generated and recorded in the database. The voice synthesis API 123 acquires each of the three output voice data generated by the voice synthesis function 126. The voice synthesis API 123 outputs each output voice data to the voice transmission unit 13.

音声送信部13は、3つの出力音声データを、仲介サーバ3を介してトランシーバサーバ2へ送信する(ステップS111)。トランシーバサーバ2は、3つの出力音声データを受信する。トランシーバサーバ2は出力音声データに含まれる端末IDを送信先のユーザ端末の端末IDと特定する。トランシーバサーバ2は、終話通知を受信している受信していないにかかわらず、各出力音声データを、ユーザ端末52、ユーザ端末53、ユーザ端末54へそれぞれ一斉同報送信する(ステップS112)。つまり、トランシーバサーバ2は、ユーザ端末52の端末IDを含み翻訳先言語Bの音声データを含む出力音声データをユーザ端末52へ送信する。またトランシーバサーバ2は、ユーザ端末53の端末IDを含み翻訳先言語Cの音声データを含む出力音声データをユーザ端末53へ送信する。またトランシーバサーバ2は、ユーザ端末54の端末IDを含み翻訳先言語Dの音声データを含む出力音声データをユーザ端末54へ送信する。 The voice transmission unit 13 transmits the three output voice data to the transceiver server 2 via the mediation server 3 (step S111). The transceiver server 2 receives three output audio data. The transceiver server 2 identifies the terminal ID included in the output voice data as the terminal ID of the transmission destination user terminal. The transceiver server 2 simultaneously transmits each output voice data to the user terminal 52, the user terminal 53, and the user terminal 54 regardless of whether or not the end-of-call notification is received (step S112). That is, the transceiver server 2 transmits the output voice data including the terminal ID of the user terminal 52 and the voice data of the translation destination language B to the user terminal 52. Further, the transceiver server 2 transmits the output voice data including the terminal ID of the user terminal 53 and the voice data of the translation destination language C to the user terminal 53. Further, the transceiver server 2 transmits the output voice data including the terminal ID of the user terminal 54 and the voice data of the translation destination language D to the user terminal 54.

以上の処理により、ユーザAがユーザ端末51を用いて指示した音声が翻訳サーバ1により呼出先の各ユーザの母語の言語にそれぞれ翻訳されて、その翻訳後の音声データを含む出力音声データがユーザ端末5に一斉同報送信される。各ユーザ端末5は、出力音声データに含まれる音声データを用いてスピーカから音声を発する。ユーザB,C,Dは、ユーザAの自身の言語に翻訳された指示に基づいて現場の作業を行うことができる。 By the above processing, the voice instructed by the user A using the user terminal 51 is translated into the native language of each user to be called by the translation server 1, and the output voice data including the translated voice data is the user. The broadcast is transmitted to the terminal 5 all at once. Each user terminal 5 emits voice from the speaker using the voice data included in the output voice data. Users B, C, and D can perform on-site work based on instructions translated into User A's own language.

上述の処理によれば、翻訳サーバ1は、ユーザ端末51からの音声が届くと直ちに翻訳を開始している。これにより、ユーザAがユーザ端末51に入力した音声が直ちに翻訳されて、一斉同報送信により、呼出先のユーザ端末5へ翻訳後の出力音声データが届く。トランシーバの技術では、呼出元のユーザは、ユーザ端末に自身の音声を入力し、送信権開放の指示を入力するが、本実施形態においては送信権開放の指示をしない場合でも、翻訳サーバが翻訳の開始と翻訳後の出力音声データを呼出先の端末に一斉同報送信する。送信権開放とはユーザが自身の発話する権利を他のユーザに開放することを意味する。これにより、呼出元のユーザの操作も簡略化することができる。 According to the above process, the translation server 1 starts translation as soon as the voice from the user terminal 51 arrives. As a result, the voice input by the user A to the user terminal 51 is immediately translated, and the translated output voice data arrives at the called user terminal 5 by simultaneous broadcast transmission. In the transceiver technology, the calling user inputs his / her own voice to the user terminal and inputs an instruction to release the transmission right, but in the present embodiment, the translation server translates even if the instruction to release the transmission right is not given. The output voice data after the start and translation of is sent to the called terminal all at once. Release of transmission right means that the user releases his / her own right to speak to other users. As a result, the operation of the calling user can be simplified.

呼出先のユーザ端末52,53,54のユーザは、出力音声データに含まれる音声データのテキストデータの送信を要求することができる。この場合、呼出先のユーザは、ユーザ端末5のディスプレイに表示されているテキストデータ送信要求ボタンを押下する。一例としてユーザ端末52を利用するユーザBが、ユーザ端末52のディスプレイに表示されているテキストデータ送信要求ボタンを押下したとする。この場合、ユーザ端末52は、自端末の端末IDを含むテキストデータ送信要求をトランシーバサーバ2へ送信する(ステップS113)。 The user of the called user terminal 52, 53, 54 can request the transmission of the text data of the voice data included in the output voice data. In this case, the called user presses the text data transmission request button displayed on the display of the user terminal 5. As an example, it is assumed that the user B who uses the user terminal 52 presses the text data transmission request button displayed on the display of the user terminal 52. In this case, the user terminal 52 transmits a text data transmission request including the terminal ID of the own terminal to the transceiver server 2 (step S113).

トランシーバサーバ2はテキストデータ送信要求を受信する。トランシーバサーバ2はテキストデータ送信要求を、仲介サーバ3を介して翻訳サーバ1へ送信する(ステップS114)。翻訳サーバ1のテキストデータ送信部14は、テキストデータ送信要求に含まれる端末IDを取得する。テキストデータ送信部14は、端末IDに紐づいて自装置のデータベースに登録されている翻訳先言語のテキストデータのうち、未送信の翻訳先言語のテキストデータを取得する。テキストデータ送信部14は取得した翻訳先言語のテキストデータとテキストデータ送信要求に含まれる端末IDとを含むテキストデータ応答を、仲介サーバ3を介してトランシーバサーバ2へ送信する(ステップS115)。トランシーバサーバ2は、テキストデータ応答を端末IDに基づいてユーザ端末52へ送信する(ステップS116)。 The transceiver server 2 receives the text data transmission request. The transceiver server 2 transmits a text data transmission request to the translation server 1 via the intermediary server 3 (step S114). The text data transmission unit 14 of the translation server 1 acquires the terminal ID included in the text data transmission request. The text data transmission unit 14 acquires the text data of the translation destination language that has not been transmitted among the text data of the translation destination language registered in the database of the own device in association with the terminal ID. The text data transmission unit 14 transmits the text data response including the acquired text data of the translation destination language and the terminal ID included in the text data transmission request to the transceiver server 2 via the mediation server 3 (step S115). The transceiver server 2 transmits a text data response to the user terminal 52 based on the terminal ID (step S116).

ユーザ端末52はテキストデータ応答を受信する。ユーザ端末52はテキストデータ応答に含まれる翻訳先言語のテキストデータをディスプレイに出力する(ステップS117)。これにより、ユーザBはユーザ端末52に表示されたテキストデータを確認し、ユーザAが行った指示等の音声の文字列を確認することができる。 The user terminal 52 receives the text data response. The user terminal 52 outputs the text data of the translation destination language included in the text data response to the display (step S117). As a result, the user B can confirm the text data displayed on the user terminal 52, and can confirm the character string of the voice such as the instruction given by the user A.

上述の処理によれば、ユーザが指示した場合にのみテキストデータ送信要求に基づくテキストデータ応答が、当該ユーザの利用するユーザ端末5に送信される。これにより、翻訳サーバ1は全ての翻訳先言語のテキストデータを呼出先のユーザ端末5に送信する必要が無いため、処理負荷を軽減することができる。 According to the above process, the text data response based on the text data transmission request is transmitted to the user terminal 5 used by the user only when the user instructs. As a result, the translation server 1 does not need to transmit the text data of all the translation destination languages to the calling user terminal 5, so that the processing load can be reduced.

上述の処理においては、ユーザの操作に基づいて、呼出先のユーザ端末5が送信したテキストデータ送信要求を翻訳サーバ1が受信した場合にのみ、翻訳サーバ1のテキストデータ送信部14が、翻訳先言語のテキストデータとテキストデータ送信要求に含まれる端末IDとを含むテキストデータ応答を送信している。しかしながら、呼出先のユーザ端末5は、ステップS112でトランシーバサーバ2から送信された出力音声データを受信した場合に、自動的に、翻訳サーバ1に向けてテキストデータ送信要求を複数回送信するポーリングを行い、その結果、翻訳サーバ1からテキストデータ応答を受信してもよい。これにより、ユーザの労力なく短時間で、出力音声データに対応する翻訳先言語のテキストデータを呼出先のユーザ端末5に表示させることができる。 In the above process, the text data transmission unit 14 of the translation server 1 transmits the translation destination only when the translation server 1 receives the text data transmission request transmitted by the calling user terminal 5 based on the user's operation. A text data response including the language text data and the terminal ID included in the text data transmission request is transmitted. However, when the called user terminal 5 receives the output voice data transmitted from the transceiver server 2 in step S112, it automatically polls the translation server 1 to transmit the text data transmission request a plurality of times. As a result, the text data response may be received from the translation server 1. As a result, the text data of the translation destination language corresponding to the output voice data can be displayed on the calling destination user terminal 5 in a short time without the effort of the user.

また上述の処理においては、翻訳サーバ1はテキストデータ送信要求を受信した場合にのみテキストデータ応答を送信しているが、出力音声データの送信と共に、またはその後直ちに、テキストデータ送信要求を受信することなく、テキストデータ応答に対応する情報を含むテキストデータを、各呼出先のユーザ端末5へ送信するようにしてもよい。 Further, in the above processing, the translation server 1 transmits the text data response only when the text data transmission request is received, but the text data transmission request is received at the same time as or immediately after the transmission of the output audio data. Instead, text data including information corresponding to the text data response may be transmitted to the user terminal 5 of each callee.

図7は翻訳サーバの最小構成を示す図である。
図8は最小構成による翻訳サーバの処理フローを示す図である。
翻訳サーバ1は、少なくとも翻訳部12と、音声送信部13の構成を備えればよい。
翻訳部12は、第一の言語の入力音声の入力を検知した場合に、第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する(ステップS201)。
音声送信部13は、一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する(ステップS202)。
FIG. 7 is a diagram showing the minimum configuration of the translation server.
FIG. 8 is a diagram showing a processing flow of the translation server with the minimum configuration.
The translation server 1 may include at least a translation unit 12 and a voice transmission unit 13.
When the translation unit 12 detects the input of the input voice of the first language, it immediately converts it into the output voice of one or more translation destination languages different from the first language (step S201).
The voice transmission unit 13 transmits the output voice of one or more translation destination languages to the destination device used by the user who speaks the corresponding language (step S202).

上述の各装置は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 Each of the above devices has a computer system inside. The process of each process described above is stored in a computer-readable recording medium in the form of a program, and the process is performed by the computer reading and executing this program. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.

1・・・翻訳サーバ(翻訳装置)
2・・・トランシーバサーバ
3・・・仲介サーバ
5・・・ユーザ端末
11・・・制御部
12・・・翻訳部(翻訳手段)
13・・・音声送信部(音声送信手段)
14・・・テキストデータ送信部(テキストデータ送信手段)
1 ... Translation server (translation device)
2 ... Transceiver server 3 ... Mediation server 5 ... User terminal 11 ... Control unit 12 ... Translation unit (translation means)
13 ... Voice transmission unit (voice transmission means)
14 ... Text data transmission unit (text data transmission means)

発明の第一の態様によれば、翻訳装置は、送信元装置の識別情報に紐付けられた、複数の送信先装置の識別情報と当該識別情報に対応する翻訳先言語とをそれぞれ記憶する記憶部と、前記送信元装置からの第一の言語の入力音声の入力を検知した場合に、その入力音声を、前記第一の言語とは異なる前記送信先装置の識別情報に対応する一つ以上の前記翻訳先言語の出力音声へ直ちに変換し、前記複数の翻訳先言語の出力音声をテキスト化したテキストデータをそれぞれ生成する翻訳手段と、前記一つ以上の翻訳先言語の出力音声を、前記識別情報に対応する送信先装置へそれぞれ送信する音声送信手段と、前記翻訳先言語の出力音声を受信した前記送信先装置からのテキストデータ送信要求があった場合に、テキストデータ送信要求に含まれる当該送信先装置の識別情報に対応する翻訳先言語の前記出力音声をテキスト化した前記翻訳先言語のテキストデータを当該送信先装置へ送信するテキストデータ送信手段と、を備えることを特徴とする。 According to the first aspect of the invention, the translation device stores the identification information of the plurality of destination devices associated with the identification information of the source device and the translation destination language corresponding to the identification information, respectively. When the input of the input voice of the first language from the unit and the source device is detected, the input voice is one or more corresponding to the identification information of the destination device different from the first language. The translation means for immediately converting to the output voice of the translation destination language and generating text data obtained by converting the output voices of the plurality of translation destination languages into text, and the output voice of the one or more translation destination languages are described. when there is text data transmission request from the transmission destination device receives the audio transmission means for transmitting each of the output sound of the target language to the destination device corresponding to the identification information, contained in the text data transmission request It is characterized by comprising a text data transmitting means for transmitting the text data of the translation destination language, which is a text of the output voice of the translation destination language corresponding to the identification information of the destination device, to the destination device.

発明の第二の態様によれば、翻訳方法は、送信元装置の識別情報に紐付けられた、複数の送信先装置の識別情報と当該識別情報に対応する翻訳先言語とをそれぞれ記憶し、前記送信元装置からの第一の言語の入力音声の入力を検知した場合に、その入力音声を、前記第一の言語とは異なる前記送信先装置の識別情報に対応する一つ以上の前記翻訳先言語の出力音声へ直ちに変換し、前記複数の翻訳先言語の出力音声をテキスト化したテキストデータをそれぞれ生成し、前記一つ以上の翻訳先言語の出力音声を、前記識別情報に対応する送信先装置へそれぞれ送信し、前記翻訳先言語の出力音声を受信した前記送信先装置からのテキストデータ送信要求があった場合に、テキストデータ送信要求に含まれる当該送信先装置の識別情報に対応する翻訳先言語の前記出力音声をテキスト化した前記翻訳先言語のテキストデータを当該送信先装置へ送信することを特徴とする。 According to the second aspect of the invention, the translation method stores the identification information of the plurality of destination devices associated with the identification information of the source device and the translation destination language corresponding to the identification information, respectively. When the input of the input voice of the first language from the source device is detected, the input voice is translated into one or more translations corresponding to the identification information of the destination device different from the first language. Immediately convert to the output voice of the destination language, generate text data in which the output voices of the plurality of translation destination languages are converted into texts, and transmit the output voices of the one or more translation destination languages corresponding to the identification information. send each onward device, when there is the text data transmission request from the transmission destination device which receives the output audio of the target language, corresponding to the identification information of the destination device included in the text data transmission request It is characterized in that the text data of the translation destination language, which is a text of the output voice of the translation destination language, is transmitted to the destination device.

発明の第三の態様によれば、プログラムは、翻訳装置のコンピュータを、送信元装置の識別情報に紐付けられた、複数の送信先装置の識別情報と当該識別情報に対応する翻訳先言語とをそれぞれ記憶する記憶手段、前記送信元装置からの第一の言語の入力音声の入力を検知した場合に、その入力音声を、前記第一の言語とは異なる前記送信先装置の識別情報に対応する一つ以上の前記翻訳先言語の出力音声へ直ちに変換し、前記複数の翻訳先言語の出力音声をテキスト化したテキストデータをそれぞれ生成する翻訳手段、前記一つ以上の翻訳先言語の出力音声を、前記識別情報に対応する送信先装置へそれぞれ送信する音声送信手段、前記翻訳先言語の出力音声を受信した前記送信先装置からのテキストデータ送信要求があった場合に、テキストデータ送信要求に含まれる当該送信先装置の識別情報に対応する翻訳先言語の前記出力音声をテキスト化した前記翻訳先言語のテキストデータを当該送信先装置へ送信するテキストデータ送信手段、として機能させることを特徴とする。 According to the third aspect of the invention, the program uses the computer of the translating device as the identification information of a plurality of destination devices associated with the identification information of the source device and the translation destination language corresponding to the identification information. When the input of the input voice of the first language from the source device is detected, the input voice corresponds to the identification information of the destination device different from the first language. A translation means for immediately converting to the output voice of one or more of the destination languages and generating text data obtained by converting the output voices of the plurality of destination languages into text, the output voice of the one or more destination languages. and the audio transmission means for transmitting each to the destination device corresponding to the identification information, when there is a text data transmission request from the transmission destination device which receives the output audio of the target language, the text data transmission request It is characterized in that it functions as a text data transmitting means for transmitting the text data of the translation destination language, which is a text of the output voice of the translation destination language corresponding to the identification information of the destination device included, to the destination device. do.

Claims (7)

第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する翻訳手段と、
前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する音声送信手段と、
を備える翻訳装置。
A translation means that immediately converts the input voice of the input voice of the first language into the output voice of one or more destination languages different from the first language.
A voice transmission means for transmitting the output voice of one or more translation destination languages to a destination device used by a user who speaks the corresponding language.
A translation device equipped with.
前記翻訳手段は、前記翻訳先言語の出力音声をテキスト化したテキストデータを生成し、
前記送信先装置に対応する言語を示す翻訳先言語の前記出力音声をテキスト化した前記翻訳先言語のテキストデータを当該送信先装置へ送信するテキストデータ送信手段、
を備える請求項1に記載の翻訳装置。
The translation means generates text data in which the output voice of the translation destination language is converted into text.
A text data transmitting means for transmitting text data of the translation destination language, which is a text of the output voice of the translation destination language indicating a language corresponding to the destination device, to the destination device.
The translation apparatus according to claim 1.
前記テキストデータ送信手段は、前記送信先装置からのテキストデータ送信要求があった場合に、テキストデータ送信要求に含まれる前記送信先装置の識別情報に基づいて特定した翻訳先言語の前記テキストデータを、当該送信先装置へ送信する
請求項2に記載の翻訳装置。
When the text data transmission means receives a text data transmission request from the destination device, the text data transmission means transmits the text data in the translation destination language specified based on the identification information of the destination device included in the text data transmission request. , The translation device according to claim 2, which is transmitted to the destination device.
前記翻訳手段は、前記入力音声をテキスト化した第一テキストデータと、当該第一テキストデータに対応する前記翻訳先言語のテキストデータとを生成し、当該翻訳先言語のテキストデータを音声変換して前記翻訳先言語の出力音声を生成する
請求項1から請求項3の何れか一項に記載の翻訳装置。
The translation means generates first text data obtained by converting the input voice into text and text data of the translation destination language corresponding to the first text data, and converts the text data of the translation destination language into voice. The translation device according to any one of claims 1 to 3, which generates an output voice of the translation destination language.
前記音声送信手段は、翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ一斉同報送信する
請求項1から請求項4のいずれか一項に記載の翻訳装置。
The translation device according to any one of claims 1 to 4, wherein the voice transmission means simultaneously broadcasts the output voice of the translation destination language to the destination device used by a user who speaks the corresponding language.
第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換し、
前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する
翻訳方法。
When the input of the input voice of the first language is detected, it is immediately converted to the output voice of one or more translation destination languages different from the first language.
A translation method for transmitting the output voice of one or more of the translation destination languages to a destination device used by a user who speaks the corresponding language.
翻訳装置のコンピュータを、
第一の言語の入力音声の入力を検知した場合に、前記第一の言語とは異なる一つ以上の翻訳先言語の出力音声へ直ちに変換する翻訳手段、
前記一つ以上の翻訳先言語の出力音声を、対応する言語を話すユーザの利用する送信先装置へ送信する音声送信手段、
として機能させるプログラム。
The computer of the translation device,
A translation means that immediately converts the input voice of the input voice of the first language into the output voice of one or more destination languages different from the first language.
A voice transmission means for transmitting the output voice of one or more translation destination languages to a destination device used by a user who speaks the corresponding language.
A program that functions as.
JP2020010101A 2020-01-24 2020-01-24 Translation device, translation method, program Active JP6710818B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020010101A JP6710818B1 (en) 2020-01-24 2020-01-24 Translation device, translation method, program
PCT/JP2020/007593 WO2021149267A1 (en) 2020-01-24 2020-02-26 Translation device, translation method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020010101A JP6710818B1 (en) 2020-01-24 2020-01-24 Translation device, translation method, program

Publications (2)

Publication Number Publication Date
JP6710818B1 JP6710818B1 (en) 2020-06-17
JP2021117676A true JP2021117676A (en) 2021-08-10

Family

ID=71079417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010101A Active JP6710818B1 (en) 2020-01-24 2020-01-24 Translation device, translation method, program

Country Status (2)

Country Link
JP (1) JP6710818B1 (en)
WO (1) WO2021149267A1 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197540A (en) * 2000-01-17 2001-07-19 Mega Chips Corp Wireless phone exchange system
JP2002305596A (en) * 2001-04-06 2002-10-18 Isr Kk Talking system and phone conference system
JP2005295015A (en) * 2004-03-31 2005-10-20 Hitachi Kokusai Electric Inc Video meeting system
US20060229883A1 (en) * 2005-03-30 2006-10-12 Kabe Vanderbaan Methods and apparatus for providing push to talk text data
US20070155346A1 (en) * 2005-12-30 2007-07-05 Nokia Corporation Transcoding method in a mobile communications system
JP2008083376A (en) * 2006-09-27 2008-04-10 Toshiba Corp Voice translation device, voice translation method, voice translation program and terminal device
JP2009141788A (en) * 2007-12-07 2009-06-25 Ntt Docomo Inc Communicating system, terminal device, communication control device and machine translation server
CN102360347A (en) * 2011-09-30 2012-02-22 宇龙计算机通信科技(深圳)有限公司 Voice translation method and system and voice translation server
JP2013009434A (en) * 2011-05-24 2013-01-10 Ntt Docomo Inc Service server device, service provision method, and service provision program
US20150046146A1 (en) * 2012-05-18 2015-02-12 Amazon Technologies, Inc. Delay in video for language translation
JP2016524234A (en) * 2013-06-03 2016-08-12 マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. System and method for multi-user multilingual communication
JP2017525167A (en) * 2014-05-27 2017-08-31 マイクロソフト テクノロジー ライセンシング,エルエルシー Translation during a call

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197540A (en) * 2000-01-17 2001-07-19 Mega Chips Corp Wireless phone exchange system
JP2002305596A (en) * 2001-04-06 2002-10-18 Isr Kk Talking system and phone conference system
JP2005295015A (en) * 2004-03-31 2005-10-20 Hitachi Kokusai Electric Inc Video meeting system
US20060229883A1 (en) * 2005-03-30 2006-10-12 Kabe Vanderbaan Methods and apparatus for providing push to talk text data
US20070155346A1 (en) * 2005-12-30 2007-07-05 Nokia Corporation Transcoding method in a mobile communications system
JP2008083376A (en) * 2006-09-27 2008-04-10 Toshiba Corp Voice translation device, voice translation method, voice translation program and terminal device
JP2009141788A (en) * 2007-12-07 2009-06-25 Ntt Docomo Inc Communicating system, terminal device, communication control device and machine translation server
JP2013009434A (en) * 2011-05-24 2013-01-10 Ntt Docomo Inc Service server device, service provision method, and service provision program
CN102360347A (en) * 2011-09-30 2012-02-22 宇龙计算机通信科技(深圳)有限公司 Voice translation method and system and voice translation server
US20150046146A1 (en) * 2012-05-18 2015-02-12 Amazon Technologies, Inc. Delay in video for language translation
JP2016524234A (en) * 2013-06-03 2016-08-12 マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. System and method for multi-user multilingual communication
JP2017525167A (en) * 2014-05-27 2017-08-31 マイクロソフト テクノロジー ライセンシング,エルエルシー Translation during a call

Also Published As

Publication number Publication date
JP6710818B1 (en) 2020-06-17
WO2021149267A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
AU2017202111B2 (en) Speech recognition and translation terminal, method, and computer readable medium
US9214154B2 (en) Personalized text-to-speech services
JP4089148B2 (en) Interpreting service method and interpreting service device
US9418649B2 (en) Method and apparatus for phonetic character conversion
JP2018013545A (en) Voice interactive device and speech production control method
CN111783481B (en) Earphone control method, translation method, earphone and cloud server
JP2017120616A (en) Machine translation method and machine translation system
JP5374629B2 (en) Service server device, service providing method, service providing program
CN110915239B (en) On-line automatic audio transcription for hearing aid users
TWI695281B (en) Translation system, translation method, and translation device
WO2021149267A1 (en) Translation device, translation method, and recording medium
US20200193965A1 (en) Consistent audio generation configuration for a multi-modal language interpretation system
JP6842227B1 (en) Group calling system, group calling method and program
WO2020241701A1 (en) Communication management device
KR102181583B1 (en) System for voice recognition of interactive robot and the method therof
CN116134803A (en) AC system
KR20020020585A (en) System and method for managing conversation -type interface with agent and media for storing program source thereof
JP2011128260A (en) Foreign language conversation support device, method, program and phone terminal device
JP2008124597A (en) Audio teleconference system
JP7229043B2 (en) Return home notification service providing method, server system and program
US20170185587A1 (en) Machine translation method and machine translation system
JP3246040U (en) automatic interpretation system
JP7513288B2 (en) Speech processing device, corpus production method, and program
JP2020038458A (en) Voice translation device and voice translation program
JPH10304088A (en) Terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200228

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200527

R150 Certificate of patent or registration of utility model

Ref document number: 6710818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250