JP6457706B1 - Translation system, translation method, and translation apparatus - Google Patents

Translation system, translation method, and translation apparatus Download PDF

Info

Publication number
JP6457706B1
JP6457706B1 JP2018545518A JP2018545518A JP6457706B1 JP 6457706 B1 JP6457706 B1 JP 6457706B1 JP 2018545518 A JP2018545518 A JP 2018545518A JP 2018545518 A JP2018545518 A JP 2018545518A JP 6457706 B1 JP6457706 B1 JP 6457706B1
Authority
JP
Japan
Prior art keywords
language
translation
user
data
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545518A
Other languages
Japanese (ja)
Other versions
JPWO2019186639A1 (en
Inventor
純 葛西
純 葛西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FORTE CO., LTD.
Original Assignee
FORTE CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FORTE CO., LTD. filed Critical FORTE CO., LTD.
Application granted granted Critical
Publication of JP6457706B1 publication Critical patent/JP6457706B1/en
Publication of JPWO2019186639A1 publication Critical patent/JPWO2019186639A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Abstract

【課題】異なる言語を使用する相手とのコミュニケーションの質を高める。
【解決手段】翻訳装置3が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、第1ユーザが使用する第1ユーザ端末U1が第1言語の音声の入力を受けるステップと、第1ユーザ端末が第1言語の音声をテキストデータに変換し、変換したテキストデータを翻訳装置3に送信するステップと、翻訳装置3がテキストデータを第2言語の翻訳データに変換するステップと、翻訳装置3が、第2ユーザが使用する第2ユーザ端末に翻訳データを送信するステップと、第2ユーザ端末が、翻訳データが変換された第2言語の音声を出力するステップと、を有する翻訳方法を提供する。
【選択図】図1
[PROBLEMS] To improve the quality of communication with a partner who uses a different language.
A translation device 3 specifies a first language used by a first user, a second language used by a second user, and a first user terminal U1 used by the first user uses a first language. Receiving a voice input, a step in which the first user terminal converts the voice in the first language into text data, transmitting the converted text data to the translation device 3, and a translation device 3 sending the text data to the second language. The translation data of the second language, the translation device 3 transmitting the translation data to the second user terminal used by the second user, and the second user terminal converting the translation data into the second language voice And providing a translation method.
[Selection] Figure 1

Description

本発明は、入力した音声を翻訳するための翻訳システム、翻訳方法、及び翻訳装置に関する。 The present invention relates to a translation system, a translation method, and a translation apparatus for translating input speech.

従来、入力された音声を翻訳する技術が知られている。特許文献1には、入力された音声を翻訳して文字コード列を生成し、文字コード列を通信相手側の装置に送信し、通信相手側の装置に文字コード列を字幕として表示する技術が開示されている。   Conventionally, a technique for translating input speech is known. Japanese Patent Application Laid-Open No. 2004-133830 discloses a technique for translating input speech to generate a character code string, transmitting the character code string to a communication partner apparatus, and displaying the character code string as a caption on the communication partner apparatus. It is disclosed.

特開2013−201505号公報JP 2013-201505 A

従来の技術においては、翻訳後に作成された文字コード列が字幕として表示されるので、コミュニケーションをする人達が、ディスプレイに表示された字幕を視認しなければならなかった。この場合、相手の表情を見ながら会話をすることができないという問題があった。   In the prior art, since the character code string created after translation is displayed as subtitles, the communicating people have to visually recognize the subtitles displayed on the display. In this case, there is a problem that it is impossible to talk while looking at the other party's facial expression.

そこで、本発明はこれらの点に鑑みてなされたものであり、異なる言語を使用する相手とのコミュニケーションの質を高めることができる翻訳システム、翻訳方法、翻訳装置、及び音声入出力装置を提供することを目的とする。   Accordingly, the present invention has been made in view of these points, and provides a translation system, a translation method, a translation device, and a voice input / output device that can improve the quality of communication with a partner who uses a different language. For the purpose.

本発明の第1の態様の翻訳システムは、第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備える。前記第1ユーザ端末は、第1言語の音声の入力を受ける音声入力部と、前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータを前記翻訳装置に送信する端末送信部と、前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、を有する。   The translation system of the 1st aspect of this invention is provided with the 1st user terminal which a 1st user uses, and the translation apparatus which can communicate with the said 1st user terminal. The first user terminal transmits, to the translation device, a voice input unit that receives voice input in a first language and first language text data obtained by converting the voice in the first language received by the voice input unit. A terminal transmission unit and a terminal reception unit that receives, from the translation device, first language translation data in which the language information of the second language input in the second user terminal used by the second user is translated into the first language And a voice output unit that outputs the voice of the first language into which the first language translation data received by the terminal reception unit is converted.

前記翻訳装置は、前記第1ユーザが使用する第1言語と、前記第2ユーザが使用する第2言語とを特定する特定部と、前記第1ユーザ端末から前記第1言語テキストデータを受信する装置受信部と、前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、前記第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、を有する。   The translation device receives the first language text data from the first user terminal and a specifying unit that specifies a first language used by the first user and a second language used by the second user. A device receiving unit; a language converting unit that converts the first language text data received by the device receiving unit into second language translation data; and a device that transmits the second language translation data to the second user terminal. And a transmission unit.

前記言語変換部は、前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成し、前記装置送信部は、前記再翻訳データを前記第1ユーザ端末に送信し、前記音声出力部は、前記音声入力部が前記第1言語の音声の入力を受けている間に、前記再翻訳データを出力してもよい。   The language conversion unit converts the second language translation data into the first language to generate retranslation data, the device transmission unit transmits the retranslation data to the first user terminal, and the voice The output unit may output the retranslation data while the voice input unit receives an input of the first language voice.

前記装置送信部は、前記言語変換部が前記第2ユーザ端末において入力された前記第2言語の言語情報を前記第1言語翻訳データに変換した場合に、前記再翻訳データの送信を中止して前記第1言語翻訳データを送信してもよい。   The device transmission unit stops transmitting the retranslation data when the language conversion unit converts the language information of the second language input in the second user terminal into the first language translation data. The first language translation data may be transmitted.

前記装置送信部は、前記再翻訳データを前記第1ユーザ端末に送信した後に、前記装置受信部が所定の単語を含む前記第1言語テキストデータを受信した場合に、前記第2ユーザ端末への前記第2言語翻訳データの送信を中止してもよい。   When the device receiving unit receives the first language text data including a predetermined word after transmitting the retranslated data to the first user terminal, the device transmitting unit sends the retranslated data to the second user terminal. The transmission of the second language translation data may be stopped.

前記装置受信部は、前記第2ユーザ端末から第2言語の音声が変換された第2言語テキストデータを受信し、前記言語変換部は、前記装置受信部が受信した前記第2言語の前記第2言語テキストデータを第1言語翻訳データに変換し、前記装置送信部は、前記第1言語翻訳データを送信している間に、前記言語変換部が、新たな前記第1言語翻訳データの生成が終了すると、送信中の前記第1言語翻訳データの送信を中止して、新たな前記第1言語翻訳データの送信を開始してもよい。   The device receiving unit receives second language text data obtained by converting second language speech from the second user terminal, and the language converting unit receives the second language text data received by the device receiving unit. Bilingual text data is converted into first language translation data, and the device transmission unit generates new first language translation data while the device transmission unit transmits the first language translation data. When is completed, transmission of the first language translation data being transmitted may be stopped and transmission of new first language translation data may be started.

前記音声出力部は骨伝導スピーカーを有し、前記音声入力部が前記第1言語の音声の入力を受けている間に、前記骨伝導スピーカーから前記第1言語の音声を出力してもよい。   The voice output unit may include a bone conduction speaker, and the first language voice may be output from the bone conduction speaker while the voice input unit receives the voice of the first language.

前記音声入力部は、音を取得するための複数のメインマイクと、周囲音を取得するためのサブマイクとを有し、前記端末送信部は、前記複数のメインマイクが取得した音から前記サブマイクが取得した周囲音を除去した後の音に対応するテキストデータを前記第1言語の音声に対応する前記第1言語テキストデータとして送信してもよい。   The voice input unit includes a plurality of main microphones for acquiring sound and a sub microphone for acquiring ambient sound, and the terminal transmission unit receives the sub microphone from sounds acquired by the plurality of main microphones. Text data corresponding to the sound after removing the acquired ambient sound may be transmitted as the first language text data corresponding to the voice of the first language.

前記第1ユーザ端末をユーザが装着した状態で、前記サブマイクと前記第1ユーザの口との距離が、前記複数のメインマイクと前記第1ユーザの口との距離よりも大きくてもよい。   In a state where the user wears the first user terminal, a distance between the sub microphone and the mouth of the first user may be larger than a distance between the plurality of main microphones and the mouth of the first user.

前記第1ユーザ端末は、前記複数のメインマイクそれぞれに入力された音と、前記サブマイクに入力された音とを比較した結果に基づいて、前記複数のメインマイクの少なくともいずれかに入力された音から前記第1言語の音声を抽出する抽出部と、前記抽出部が抽出した前記第1言語の音声を前記第1言語テキストデータに変換するテキスト変換部と、をさらに有してもよい。   The first user terminal is configured to output a sound input to at least one of the plurality of main microphones based on a result of comparing a sound input to each of the plurality of main microphones with a sound input to the sub microphone. And a text conversion unit that converts the first language speech extracted by the extraction unit into the first language text data.

前記抽出部は、前記複数のメインマイクそれぞれに入力された音を比較した結果に基づいて前記第1言語の音声と推定される音を特定し、特定した音と前記サブマイクに入力された音とを比較した結果に基づいて前記第1言語の音声を抽出してもよい。   The extraction unit identifies a sound that is estimated as the voice of the first language based on a result of comparing the sounds input to the plurality of main microphones, and the identified sound and the sound input to the sub microphone The voice of the first language may be extracted based on the result of the comparison.

前記端末送信部は、前記第1言語テキストデータに関連付けて、前記第2ユーザを特定するためのユーザ特定情報を前記翻訳装置に送信し、前記特定部は、複数のユーザに関連付けて、前記複数のユーザそれぞれが使用する言語を記憶する記憶部を参照することにより、前記端末送信部が送信した前記ユーザ特定情報が示す前記第2ユーザに関連付けて前記記憶部に記憶された前記第2言語を特定してもよい。   The terminal transmitting unit transmits user specifying information for specifying the second user in association with the first language text data to the translation device, and the specifying unit is associated with a plurality of users, The second language stored in the storage unit in association with the second user indicated by the user specifying information transmitted by the terminal transmission unit is referred to by referring to the storage unit storing the language used by each of the users. You may specify.

前記端末送信部は、前記第1言語テキストデータの送信を開始する前に、前記第2ユーザの言語を特定するための言語情報を前記翻訳装置に送信し、前記特定部は、前記端末送信部が送信した前記言語情報に基づいて前記第2言語を特定してもよい。   The terminal transmission unit transmits language information for specifying the language of the second user to the translation device before starting transmission of the first language text data, and the specification unit includes the terminal transmission unit. The second language may be specified based on the language information transmitted by the user.

前記特定部は、前記第1言語テキストデータに含まれる単語に基づいて前記第2言語を特定してもよい。   The specifying unit may specify the second language based on a word included in the first language text data.

本発明の第2の態様の翻訳方法は、翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、前記第1ユーザ端末が前記第1言語の音声をテキストデータに変換し、変換した前記テキストデータを前記翻訳装置に送信するステップと、前記翻訳装置が前記テキストデータを前記第2言語の翻訳データに変換するステップと、前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末に前記翻訳データを送信するステップと、前記第2ユーザ端末が、前記翻訳データが変換された前記第2言語の音声を出力するステップと、を有する。   In the translation method according to the second aspect of the present invention, the translation device specifies a first language used by the first user, a second language used by the second user, and a first used by the first user. A step in which a user terminal receives input of speech in a first language; a step in which the first user terminal converts speech in the first language into text data; and the step of transmitting the converted text data to the translation device; A translation device converting the text data into translation data of the second language; a translation device transmitting the translation data to a second user terminal used by the second user; and the second user. And a step of outputting the second language voice into which the translation data is converted.

本発明の第3の態様の翻訳装置は、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信する装置受信部と、前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、前記第2ユーザが使用する第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、を有する。   The translation device according to the third aspect of the present invention includes a specifying unit that specifies the first language used by the first user and the second language used by the second user, and the first user used by the first user. A device receiving unit that receives first language text data in which the speech of the first language is converted from a terminal, and a language conversion that converts the first language text data received by the device receiving unit into second language translation data And a device transmission unit that transmits the second language translation data to a second user terminal used by the second user.

上記の第1ユーザ端末は、例えば、第1言語の音声の入力を受ける音声入力部と、前記音声入力部が受けた前記第1言語の音声が変換されたテキストデータを、前記第1言語を第2言語に翻訳する翻訳装置に送信する端末送信部と、前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された前記第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、前記音声入力部に音声が入力されている間に、前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、を有する。   The first user terminal includes, for example, a voice input unit that receives voice input in a first language, text data obtained by converting the voice in the first language received by the voice input unit, and the first language. The language information of the second language input in the second user terminal used by the second user is translated into the first language from the terminal transmission unit that transmits to the translation device that translates into the second language, and the translation device. A terminal receiving unit that receives the first language translation data, and the first language translation data that is converted from the first language translation data received by the terminal receiving unit while speech is being input to the voice input unit. And an audio output unit that outputs audio.

本発明によれば、異なる言語を使用する相手とのコミュニケーションの質を高めることができるという効果を奏する。   According to the present invention, it is possible to improve the quality of communication with a partner who uses a different language.

本実施形態の翻訳システムの構成を示す図である。It is a figure which shows the structure of the translation system of this embodiment. ヘッドセットの外観を示す図である。It is a figure which shows the external appearance of a headset. ヘッドセット及び情報端末の内部構成を示す図である。It is a figure which shows the internal structure of a headset and an information terminal. 翻訳装置の構成を示す図である。It is a figure which shows the structure of a translation apparatus. ユーザが情報端末の利用を開始する際に表示部に表示される利用者選択画面を示す図である。It is a figure which shows the user selection screen displayed on a display part when a user starts utilization of an information terminal. 会話をする相手を選択する際に表示部に表示される相手選択画面を示す図である。It is a figure which shows the other party selection screen displayed on a display part when selecting the other party who has a conversation. 会話をする際に表示部に表示される会話用画面を示す図である。It is a figure which shows the screen for conversation displayed on a display part when talking. ユーザが「話す」アイコンから指を話した後の情報端末の画面を示す図である。It is a figure which shows the screen of the information terminal after a user speaks a finger | toe from a "speak" icon. 図8の状態に続いてユーザが第2言語の音声を発した後の情報端末の画面を示す図である。It is a figure which shows the screen of the information terminal after a user utters the audio | voice of a 2nd language following the state of FIG. 翻訳システムにおける処理シーケンスを示す図である。It is a figure which shows the process sequence in a translation system. 本実施形態の変形例に係る翻訳システムの構成を示す図である。It is a figure which shows the structure of the translation system which concerns on the modification of this embodiment. 言語変換サーバにより言語変換部の機能を実現する場合の翻訳装置の構成を示す図である。It is a figure which shows the structure of the translation apparatus in the case of implement | achieving the function of a language conversion part with a language conversion server.

[翻訳システムS1の概要]
図1は、本実施形態の翻訳システムS1の構成を示す図である。翻訳システムS1は、ヘッドセット1(1a、1b、1c)及び情報端末2(2a、2b、2c)と、翻訳装置として機能する翻訳装置3とを有する。ヘッドセット1及び情報端末2は、連携して動作することにより、音声入出力装置であるユーザ端末として機能する。
[Outline of Translation System S1]
FIG. 1 is a diagram showing a configuration of the translation system S1 of the present embodiment. The translation system S1 includes a headset 1 (1a, 1b, 1c) and an information terminal 2 (2a, 2b, 2c), and a translation device 3 that functions as a translation device. The headset 1 and the information terminal 2 function as a user terminal that is a voice input / output device by operating in cooperation.

図1においては、第1言語(例えば日本語)を話すユーザU1、第2言語(例えば英語)を話すユーザU2、第3言語(例えば中国語)を話すユーザU3が示されている。翻訳システムS1は、それぞれ異なる言語を話す複数のユーザが互いに他のユーザが話す言葉を理解できるように、各ユーザが話した言葉を他のユーザが話す言語の言葉に翻訳し、翻訳後の言葉を音声として出力する。以下の説明においては、ユーザU1が、観光地で観光客を案内するガイドであり、ユーザU2及びユーザU3が、ユーザU1から説明を受ける観光客である場合を想定して説明する。   FIG. 1 shows a user U1 who speaks a first language (eg, Japanese), a user U2 who speaks a second language (eg, English), and a user U3 who speaks a third language (eg, Chinese). The translation system S1 translates words spoken by each user into languages spoken by other users so that a plurality of users who speak different languages can understand the words spoken by other users. Is output as audio. In the following description, it is assumed that the user U1 is a guide for guiding tourists in a sightseeing spot, and the user U2 and the user U3 are tourists receiving explanation from the user U1.

図1に示す例においては、ユーザU1、U2、U3は、それぞれヘッドセット1a、1b、1cを装着している。また、ユーザU1、U2、U3は、それぞれ情報端末2a、2b、2cを保持している。情報端末2a、2b、2cは、例えばスマートフォンである。ヘッドセット1a、1b、1cは、それぞれ情報端末2a、2b、2cとの間で無線チャネルB1、B2、B3を介してデータを送受信することができる。無線チャネルは、例えばBluetooth(登録商標)である。   In the example shown in FIG. 1, users U1, U2, and U3 wear headsets 1a, 1b, and 1c, respectively. In addition, users U1, U2, and U3 hold information terminals 2a, 2b, and 2c, respectively. Information terminal 2a, 2b, 2c is a smart phone, for example. The headsets 1a, 1b, and 1c can transmit and receive data to and from the information terminals 2a, 2b, and 2c via wireless channels B1, B2, and B3, respectively. The wireless channel is, for example, Bluetooth (registered trademark).

ヘッドセット1a、1b、1cは同一の構成を有しており、以下の説明において、それぞれを区別する必要がない場合はヘッドセット1と称する場合がある。同様に、情報端末2a、2b、2cは同一の構成を有しており、以下の説明において、それぞれを区別する必要がない場合は情報端末2と称する場合がある。   The headsets 1a, 1b, and 1c have the same configuration. In the following description, the headsets 1a, 1b, and 1c may be referred to as headsets 1 when there is no need to distinguish them. Similarly, the information terminals 2a, 2b, and 2c have the same configuration. In the following description, when there is no need to distinguish each, the information terminals 2a, 2b, and 2c may be referred to as information terminals 2.

ヘッドセット1は、ユーザが頭部に装着できるように構成されており、ユーザが話した音声の入力を受けて、入力された音声をデジタル音声信号に変換する。ヘッドセット1は、無線チャネルW1を介して、予め関連付けられた情報端末2にデジタル音声信号を送信する。   The headset 1 is configured so that the user can wear it on the head, and receives the voice spoken by the user and converts the inputted voice into a digital voice signal. The headset 1 transmits a digital audio signal to the information terminal 2 associated in advance via the wireless channel W1.

情報端末2は、ヘッドセット1から受信したデジタル音声信号に含まれる音声を認識して、テキストデータに変換する。ヘッドセット1において第1言語の音声が入力された場合、情報端末2は、第1言語のテキストデータを作成する。例えばヘッドセット1において日本語の音声が入力された場合、情報端末2は、日本語のテキストデータを作成する。   The information terminal 2 recognizes the voice included in the digital voice signal received from the headset 1 and converts it into text data. When voice in the first language is input in the headset 1, the information terminal 2 creates text data in the first language. For example, when a Japanese voice is input in the headset 1, the information terminal 2 creates Japanese text data.

情報端末2は、作成した第1言語のテキストデータを翻訳装置3に送信する。図1に示す例において、情報端末2は、無線通信回線W、アクセスポイント4及びネットワークNを介して、第1言語のテキストデータを翻訳装置3に送信する。無線通信回線Wは、例えばWi−Fi(登録商標)の回線であるが、他の無線通信方式を使用する回線であってもよい。   The information terminal 2 transmits the created text data in the first language to the translation device 3. In the example shown in FIG. 1, the information terminal 2 transmits text data in the first language to the translation device 3 via the wireless communication line W, the access point 4 and the network N. The wireless communication line W is, for example, a Wi-Fi (registered trademark) line, but may be a line using another wireless communication method.

翻訳装置3は、第1言語のテキストデータを受信すると、受信した第1言語のテキストデータを、予め特定した第2言語のテキストデータに変換する。翻訳装置3は、例えば日本語を話すユーザU1が使用する情報端末2aから日本語のテキストデータを受信すると、ユーザU1が会話する相手として選択されたユーザU2が理解できる英語に翻訳されたテキストデータを作成する。本明細書においては、翻訳装置3が翻訳して生成されたテキストデータを翻訳データという。翻訳装置3は、作成した第2言語の翻訳データを情報端末2bに送信する。   When receiving the text data in the first language, the translation device 3 converts the received text data in the first language into text data in the second language specified in advance. For example, when the translation device 3 receives Japanese text data from the information terminal 2a used by the user U1 who speaks Japanese, the text data translated into English that can be understood by the user U2 selected as the partner with whom the user U1 speaks. Create In this specification, text data generated by translation by the translation device 3 is referred to as translation data. The translation apparatus 3 transmits the created translation data of the second language to the information terminal 2b.

情報端末2bは、受信した第2言語のテキストデータをデジタル音声信号に変換し、変換したデジタル音声信号を、無線チャネルB2を介してヘッドセット1bに送信する。ヘッドセット1bは、受信したデジタル音声信号をアナログ音声信号に変換し、ユーザU2が認識できるように出力する。   The information terminal 2b converts the received text data in the second language into a digital audio signal, and transmits the converted digital audio signal to the headset 1b via the wireless channel B2. The headset 1b converts the received digital audio signal into an analog audio signal and outputs the analog audio signal so that the user U2 can recognize it.

翻訳装置3は、第2言語のテキストデータを作成した後に、第2言語のテキストデータを第1言語のテキストデータに変換して、第1言語の再翻訳データを作成する。翻訳装置3は、作成した再翻訳データを情報端末2aに送信する。情報端末2aは、受信した第1言語の再翻訳データをデジタル音声信号に変換し、無線チャネルB1を介して、デジタル音声信号をヘッドセット1aに送信する。ヘッドセット1aは、受信したデジタル音声信号をアナログ音声信号に変換し、ユーザU1が認識できるように出力する。   After creating the second language text data, the translation device 3 converts the second language text data into the first language text data, and creates the first language retranslation data. The translation apparatus 3 transmits the created retranslation data to the information terminal 2a. The information terminal 2a converts the received retranslation data of the first language into a digital audio signal, and transmits the digital audio signal to the headset 1a via the radio channel B1. The headset 1a converts the received digital audio signal into an analog audio signal and outputs the analog audio signal so that the user U1 can recognize it.

ヘッドセット1aは、例えば、所定の期間にユーザU1により入力された音声に基づくテキストデータを翻訳装置3に送信してから、翻訳装置3が再翻訳データを生成するために要する時間が経過した後に、所定の期間に対応する再翻訳データに基づく音声を出力する。所定の期間は、例えば、ユーザU1が情報端末2aを操作することにより設定された、翻訳する対象となる言葉を入力している期間である。ユーザU1が所定の期間を設定する操作の詳細については後述する。   For example, the headset 1a transmits text data based on speech input by the user U1 during a predetermined period to the translation device 3, and then the time required for the translation device 3 to generate retranslation data has elapsed. The voice based on the retranslation data corresponding to a predetermined period is output. The predetermined period is, for example, a period during which the user U1 is inputting words to be translated, which are set by operating the information terminal 2a. Details of the operation for setting the predetermined period by the user U1 will be described later.

翻訳装置3が再翻訳データを作成し、ヘッドセット1が再翻訳データに基づく音声を出力することで、ユーザU1が、自らが発した言葉と再翻訳データに基づく音声が示す言葉とを比較し、自らが発した言葉が正しく翻訳されたか否かを確認することができる。したがって、ユーザU1は、正しく翻訳されていないということが確認された場合、会話している相手であるユーザU2及びユーザU3に対して訂正するジェスチャーをしたり、別の言葉で言い換えたりすることができる。   The translation device 3 creates the retranslation data, and the headset 1 outputs the voice based on the retranslation data, so that the user U1 compares the words that the user U1 speaks with the words indicated by the voice based on the retranslation data. , You can check whether the words you have uttered are translated correctly. Therefore, when it is confirmed that the user U1 has not been translated correctly, the user U1 may make a correction gesture for the user U2 and the user U3 who are talking with each other, or may be paraphrased with another word. it can.

以上のとおり、翻訳システムS1は、ヘッドセット1において入力された音声が翻訳されたテキストデータをヘッドセット1から音声として出力するので、ヘッドセット1を装着したユーザは、自分と異なる言語を使う相手の顔を見ながら話しつつ、相手が話す内容を理解することができる。したがって、翻訳システムS1は、異なる言語を使用する相手とのコミュニケーションの質を高めることができる。   As described above, the translation system S1 outputs the text data obtained by translating the speech input in the headset 1 as speech from the headset 1, so that the user wearing the headset 1 is a partner who uses a language different from his / her own. Talking while looking at your face, you can understand what the other person speaks. Therefore, translation system S1 can improve the quality of communication with the partner who uses a different language.

詳細については後述するが、ヘッドセット1は骨伝導スピーカーを有している。したがって、ユーザは、耳で会話する相手の生の声を聞きながら、骨伝導スピーカーを介して、相手が発した音声が翻訳された内容、及び自らが発した音声が再翻訳された内容を聞くことができる。ヘッドセット1がこのような構成を有することで、ユーザは、相手の生の声を耳で聞きながら、翻訳された後の音声を骨伝導により聞くことができるので、相手の感情を把握しつつ、相手が話す内容を理解することが可能になる。その結果、異なる言語を使用する相手とのコミュニケーションの質をさらに高めることができる。
以下、ヘッドセット1、情報端末2及び翻訳装置3の詳細について説明する。
As will be described in detail later, the headset 1 has a bone conduction speaker. Therefore, while listening to the voice of the other party who is speaking with the ear, the user listens to the translated content of the speech uttered by the other party and the re-translated content of the speech uttered by the user through the bone conduction speaker. be able to. Since the headset 1 has such a configuration, the user can listen to the translated voice by bone conduction while listening to the other party's live voice with his / her ear. , It will be possible to understand what the other party speaks. As a result, the quality of communication with a partner who uses a different language can be further enhanced.
Hereinafter, details of the headset 1, the information terminal 2, and the translation device 3 will be described.

[ヘッドセット1の外観]
図2は、ヘッドセット1の外観を示す図である。図2に示すように、ヘッドセット1は、第1メインマイク11と、第2メインマイク12と、サブマイク13と、骨伝導スピーカー14と、制御ユニット15と、ケーブル16と、マイク収容部17と、接続部材18と、本体部19とを有する。
[Appearance of headset 1]
FIG. 2 is a diagram illustrating an appearance of the headset 1. As shown in FIG. 2, the headset 1 includes a first main microphone 11, a second main microphone 12, a sub microphone 13, a bone conduction speaker 14, a control unit 15, a cable 16, and a microphone housing portion 17. And a connecting member 18 and a main body 19.

第1メインマイク11、第2メインマイク12及びサブマイク13は、音声入力部として機能する。第1メインマイク11及び第2メインマイク12は、ユーザUが発する音声を取得するためのメインマイクであり、サブマイク13は、周囲音を取得するためのサブマイクである。ヘッドセット1をユーザUが装着した状態で、サブマイク13とユーザUの口との距離が、複数のメインマイクである第1メインマイク11及び第2メインマイク12とユーザUの口との距離よりも大きい。   The first main microphone 11, the second main microphone 12, and the sub microphone 13 function as an audio input unit. The 1st main microphone 11 and the 2nd main microphone 12 are main microphones for acquiring the voice which user U utters, and submicrophone 13 is the submicrophone for acquiring ambient sound. In the state where the user U is wearing the headset 1, the distance between the sub microphone 13 and the mouth of the user U is based on the distance between the first main microphone 11 and the second main microphone 12, which are a plurality of main microphones, and the mouth of the user U. Is also big.

第1メインマイク11及び第2メインマイク12は、可撓性の接続部材18を介して本体部19と接続されたマイク収容部17に並んで設けられている。一方、サブマイク13は、ユーザの耳の下部付近に接触するように装着される骨伝導スピーカー14の近傍に設けられている。ユーザは、マイク収容部17の位置を口元に近づけた状態で使用するので、第1メインマイク11及び第2メインマイク12は、サブマイク13よりもユーザUの口に近い位置で、ユーザUが発する音声を取得する。   The first main microphone 11 and the second main microphone 12 are provided side by side in a microphone housing portion 17 connected to the main body portion 19 via a flexible connecting member 18. On the other hand, the sub microphone 13 is provided in the vicinity of the bone conduction speaker 14 that is worn so as to be in contact with the vicinity of the lower part of the user's ear. Since the user uses the microphone accommodating portion 17 in a state in which the microphone is close to the mouth, the first main microphone 11 and the second main microphone 12 are emitted by the user U at a position closer to the user U's mouth than the sub microphone 13. Get audio.

サブマイク13は、接続部材18が接続されている側の骨伝導スピーカー14Rと反対側の骨伝導スピーカー14Lにおける外側(すなわち、ユーザUに接しない側)に設けられている。このように、サブマイク13が、骨伝導スピーカー14Rに比べて、第1メインマイク11及び第2メインマイク12から電気的に離れている側の骨伝導スピーカー14Lに設けられていることで、第1メインマイク11及び第2メインマイク12に入力される音信号とサブマイク13に入力される音信号とが相互に干渉しづらいので、後述するノイズ除去性能を向上させることができる。   The sub microphone 13 is provided on the outer side of the bone conduction speaker 14L on the side opposite to the bone conduction speaker 14R to which the connection member 18 is connected (that is, the side not in contact with the user U). As described above, the sub microphone 13 is provided in the bone conduction speaker 14L on the side electrically separated from the first main microphone 11 and the second main microphone 12 as compared with the bone conduction speaker 14R. Since the sound signal input to the main microphone 11 and the second main microphone 12 and the sound signal input to the sub microphone 13 are difficult to interfere with each other, it is possible to improve the noise removal performance described later.

骨伝導スピーカー14は、音圧により骨を振動させることで音をユーザUに伝えることができるスピーカーである。骨伝導スピーカー14Rは、例えばユーザの右側の耳の下部の顆状突起に接触するように装着され、骨伝導スピーカー14Lはユーザの左側の耳の下部の顆状突起に接触するように装着されるが、骨伝導スピーカー14R及び骨伝導スピーカー14Lが装着される位置は任意である。骨伝導スピーカー14は、第1メインマイク11及び第2メインマイク12が、ユーザが使用する言語(例えば第1言語)の音声の入力を受けている間に、第1言語の音声を出力する。骨伝導スピーカー14が出力する第1言語の音声は、第2言語を発する他のユーザの音声が翻訳されたデータに基づく音声、又は再翻訳データに基づく音声である。   The bone conduction speaker 14 is a speaker that can transmit sound to the user U by vibrating the bone with sound pressure. For example, the bone conduction speaker 14R is attached so as to contact the condylar process of the lower part of the user's right ear, and the bone conduction speaker 14L is attached so as to contact the condyle process of the lower part of the user's left ear. However, the position where the bone conduction speaker 14R and the bone conduction speaker 14L are mounted is arbitrary. The bone conduction speaker 14 outputs the sound in the first language while the first main microphone 11 and the second main microphone 12 receive the sound input in the language used by the user (for example, the first language). The sound of the first language output from the bone conduction speaker 14 is sound based on data obtained by translating the sound of another user who emits the second language, or sound based on re-translated data.

ヘッドセット1が骨伝導スピーカー14を有することで、ユーザは、相手の生の声を耳で聞きながら、翻訳された後の音声を骨伝導により聞くことができるので、相手の感情を把握しつつ、相手が話す内容を理解することが可能になる。   Since the headset 1 has the bone conduction speaker 14, the user can hear the translated voice by bone conduction while listening to the other party's raw voice with his / her ear. , It will be possible to understand what the other party speaks.

制御ユニット15は、ケーブル16を介して第1メインマイク11、第2メインマイク12、サブマイク13、骨伝導スピーカー14R、骨伝導スピーカー14Lと電気的に接続された各種の電気回路を収容している。電気回路は、例えば、第1メインマイク11、第2メインマイク12及びサブマイク13から入力された音からノイズを除去し、ユーザにより入力された音声を抽出する抽出部として機能する回路、アナログ音声信号をデジタル音声信号に変換するコーデック回路、及びデジタル音声信号を情報端末2との間で送受信するための通信回路等を含む。   The control unit 15 accommodates various electric circuits electrically connected to the first main microphone 11, the second main microphone 12, the sub microphone 13, the bone conduction speaker 14R, and the bone conduction speaker 14L via the cable 16. . The electric circuit is, for example, a circuit that functions as an extraction unit that removes noise from the sound input from the first main microphone 11, the second main microphone 12, and the sub microphone 13 and extracts the sound input by the user, an analog audio signal A codec circuit for converting the digital audio signal into a digital audio signal, a communication circuit for transmitting / receiving the digital audio signal to / from the information terminal 2, and the like.

[ヘッドセット1及び情報端末2の内部構成]
図3は、ヘッドセット1及び情報端末2の内部構成を示す図である。制御ユニット15は、音声処理部151、通信部152及び制御部153を有する。以下のヘッドセット1の構成に関する4説明では、ヘッドセット1が、第1言語を話すユーザU1が使用するヘッドセット1aであるとして説明する。
[Internal configuration of headset 1 and information terminal 2]
FIG. 3 is a diagram showing the internal configuration of the headset 1 and the information terminal 2. The control unit 15 includes an audio processing unit 151, a communication unit 152, and a control unit 153. In the following 4 explanations regarding the configuration of the headset 1, it is assumed that the headset 1 is the headset 1 a used by the user U 1 who speaks the first language.

音声処理部151は、第1メインマイク11、第2メインマイク12及びサブマイク13から入力された音信号に基づいて、ユーザU1が発した音声以外の周囲音を除去することにより、ユーザU1が発した音声を抽出する抽出部として機能する。音声処理部151は、抽出した音声を、例えばPCM(Pulse Code Modulation)符号化することにより、デジタル音声信号を生成する。音声処理部151は、生成したデジタル音声信号を通信部152に入力する。   The sound processing unit 151 removes ambient sounds other than the sound emitted by the user U1 based on the sound signals input from the first main microphone 11, the second main microphone 12, and the sub microphone 13, thereby causing the user U1 to emit sound. It functions as an extraction unit that extracts the voice. The audio processing unit 151 generates a digital audio signal by, for example, PCM (Pulse Code Modulation) encoding the extracted audio. The audio processing unit 151 inputs the generated digital audio signal to the communication unit 152.

また、音声処理部151は、通信部152から入力されたデジタル音声信号を復号することによりアナログ音声信号を生成する。音声処理部151は、生成したアナログ音声信号を、骨伝導スピーカー14を介して出力する。   The audio processing unit 151 generates an analog audio signal by decoding the digital audio signal input from the communication unit 152. The audio processing unit 151 outputs the generated analog audio signal via the bone conduction speaker 14.

さらに、音声処理部151は、第1メインマイク11及び第2メインマイク12から入力された音信号から、周囲音等のノイズを除去する機能を有する。ノイズを除去するために、音声処理部151は、まず、第1メインマイク11及び第2メインマイク12のそれぞれに入力された音を比較した結果に基づいて第1言語の音声と推定される音を特定する。   Furthermore, the audio processing unit 151 has a function of removing noise such as ambient sounds from the sound signals input from the first main microphone 11 and the second main microphone 12. In order to remove noise, the sound processing unit 151 first determines the sound estimated as the sound of the first language based on the result of comparing the sounds input to the first main microphone 11 and the second main microphone 12. Is identified.

音声処理部151は、例えば、第1メインマイク11に入力されたアナログ音声信号から、第2メインマイク12に入力されたアナログ音声信号との位相の差が所定の範囲内の信号を抽出し、振幅の差が所定の範囲外の信号を除去することにより、第1言語の音声と推定される音声を抽出した推定音声信号を生成する。所定の範囲は、例えば、ユーザUがヘッドセット1を装着した状態におけるユーザUの口から第1メインマイク11までの距離とユーザUの口から第2メインマイク12までの距離との差として想定される最大値において想定される振幅の差以下の範囲である。   The audio processing unit 151 extracts, for example, a signal whose phase difference from the analog audio signal input to the second main microphone 12 is within a predetermined range from the analog audio signal input to the first main microphone 11, By removing a signal whose amplitude difference is outside a predetermined range, an estimated speech signal obtained by extracting speech that is estimated to be speech of the first language is generated. The predetermined range is assumed as, for example, a difference between a distance from the user U's mouth to the first main microphone 11 and a distance from the user U's mouth to the second main microphone 12 in a state where the user U wears the headset 1. It is a range that is less than or equal to the difference in amplitude that is assumed at the maximum value.

続いて、音声処理部151は、第1メインマイク11に入力されたアナログ音声信号と第2メインマイク12に入力されたアナログ音声信号とを比較した結果に基づいて特定した音とサブマイク13に入力された音とを比較した結果に基づいて、第1音声信号から周囲音の成分が除去された第1言語の音声を抽出する。具体的には、音声処理部151は、生成した推定音声信号から、サブマイク13に入力された周囲音信号の少なくとも一部の成分を除去する。   Subsequently, the sound processing unit 151 inputs the sound specified based on the result of comparing the analog sound signal input to the first main microphone 11 and the analog sound signal input to the second main microphone 12 to the sub microphone 13. Based on the result of the comparison with the sound, the first language speech from which the ambient sound component is removed is extracted from the first speech signal. Specifically, the sound processing unit 151 removes at least a part of the ambient sound signal input to the sub microphone 13 from the generated estimated sound signal.

音声処理部151は、推定音声信号から周囲音信号を除去する前に、推定音声信号においてユーザUの音声であることが明らかなレベル以上の信号の減衰量が所定の範囲以内になるように、サブマイク13に入力された周囲音信号を減衰させる。このようにすることで、音声処理部151は、ユーザが発した音声の成分をできるだけ残しつつ、周囲音の成分を最大限に除去することができる。   Before removing the ambient sound signal from the estimated sound signal, the sound processing unit 151 is configured so that the attenuation amount of the signal equal to or higher than the level that is clearly the user U's sound is within the predetermined range in the estimated sound signal. The ambient sound signal input to the sub microphone 13 is attenuated. By doing in this way, the audio | voice processing part 151 can remove the component of ambient sound to the maximum, leaving the audio | voice component which the user uttered as much as possible.

通信部152は、音声処理部151が生成したデジタル音声信号を情報端末2に送信し、かつ情報端末2からデジタル音声信号を受信するための無線通信モジュールを含む。通信部152は、第1メインマイク11及び第2メインマイク12が受けた第1言語の音声が変換された第1言語テキストデータを翻訳装置3に送信する端末送信部として機能する。また、通信部152は、翻訳装置3から、ユーザU2が使用するヘッドセット1bにおいて入力された第2言語の言語情報が第1言語に翻訳された第1言語翻訳データを受信する端末受信部として機能する。さらに、通信部152は、通信部152が翻訳装置3に送信した第1言語テキストデータが翻訳された第2言語翻訳データが第1言語に翻訳された再翻訳データを受信する。   The communication unit 152 includes a wireless communication module for transmitting the digital audio signal generated by the audio processing unit 151 to the information terminal 2 and receiving the digital audio signal from the information terminal 2. The communication unit 152 functions as a terminal transmission unit that transmits the first language text data obtained by converting the speech of the first language received by the first main microphone 11 and the second main microphone 12 to the translation device 3. In addition, the communication unit 152 is a terminal receiving unit that receives from the translation device 3 the first language translation data in which the language information of the second language input in the headset 1b used by the user U2 is translated into the first language. Function. Further, the communication unit 152 receives retranslation data obtained by translating the second language translation data obtained by translating the first language text data transmitted from the communication unit 152 to the translation device 3 into the first language.

制御部153は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を内蔵するワンチップマイコンである。制御部153は、ROMに記憶されたプログラムをCPUが実行し、プログラムに記述されたデータ値を音声処理部151及び通信部152のレジスタに書き込むことにより、音声処理部151及び通信部152を制御する。   The control unit 153 is, for example, a one-chip microcomputer incorporating a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The control unit 153 controls the audio processing unit 151 and the communication unit 152 by the CPU executing the program stored in the ROM and writing the data values described in the program to the registers of the audio processing unit 151 and the communication unit 152. To do.

続いて、情報端末2の構成について説明する。情報端末2は、第1通信部21と、第2通信部22と、表示部23と、操作部24と、記憶部25と、制御部26とを有する。制御部26は、テキスト変換部261及びUI処理部262を有する。   Next, the configuration of the information terminal 2 will be described. The information terminal 2 includes a first communication unit 21, a second communication unit 22, a display unit 23, an operation unit 24, a storage unit 25, and a control unit 26. The control unit 26 includes a text conversion unit 261 and a UI processing unit 262.

第1通信部21は、無線チャネルBを介してヘッドセット1からデジタル音声信号を受信し、かつ音声処理部151から出力されるデジタル音声信号をヘッドセット1に送信するための無線通信モジュールを含む。
第2通信部22は、無線通信回線Wを介してアクセスポイント4との間でテキストデータを送受信するための無線通信モジュールを含む。第2通信部22は、例えば、第1メインマイク11及び第2メインマイク12に入力された音声からサブマイク13に入力された周囲音を除去した後の音に対応するテキストデータを第1言語の音声に対応する第1言語テキストデータとして送信する。
The first communication unit 21 includes a wireless communication module for receiving a digital audio signal from the headset 1 via the wireless channel B and transmitting the digital audio signal output from the audio processing unit 151 to the headset 1. .
The second communication unit 22 includes a wireless communication module for transmitting / receiving text data to / from the access point 4 via the wireless communication line W. For example, the second communication unit 22 generates text data corresponding to the sound after removing the ambient sound input to the sub microphone 13 from the sound input to the first main microphone 11 and the second main microphone 12 in the first language. It transmits as 1st language text data corresponding to an audio | voice.

表示部23は、各種の情報を表示するディスプレイである。表示部23は、UI処理部262の制御により、例えばヘッドセット1から送信されたデジタル音声信号に基づいてテキスト変換部261が生成した第1言語テキストデータ、及び第2通信部22が翻訳装置3から受信した第1言語翻訳データを表示する。表示部23に表示されるデータの例については後述する。   The display unit 23 is a display that displays various types of information. The display unit 23 is controlled by the UI processing unit 262, for example, the first language text data generated by the text conversion unit 261 based on the digital audio signal transmitted from the headset 1, and the second communication unit 22 uses the translation device 3. The first language translation data received from is displayed. An example of data displayed on the display unit 23 will be described later.

操作部24は、ユーザの操作を受け付けるためのデバイスであり、例えば表示部23に重ねて設けられたタッチパネルである。操作部24は、ユーザの操作に応じて発生する電気信号をUI処理部262に入力する。   The operation unit 24 is a device for receiving a user operation, and is, for example, a touch panel provided on the display unit 23. The operation unit 24 inputs an electrical signal generated according to a user operation to the UI processing unit 262.

記憶部25は、ROM又はRAM等の記憶媒体である。記憶部25は、制御部26が実行するプログラムを記憶する。また、記憶部25は、操作部24を介して入力された、情報端末2を使用するユーザが話すことができる言語名を記憶する。さらに、テキスト変換部261がデジタル音声信号をテキストデータに変換するための音声認識辞書、及びテキストデータをデジタル音声信号に変換するための音声合成辞書を記憶している。記憶部25は、複数の言語名に関連付けて複数の音声認識辞書及び複数の音声合成辞書を記憶している。   The storage unit 25 is a storage medium such as a ROM or a RAM. The storage unit 25 stores a program executed by the control unit 26. In addition, the storage unit 25 stores a language name that can be spoken by a user using the information terminal 2 input via the operation unit 24. Further, the text conversion unit 261 stores a speech recognition dictionary for converting a digital speech signal into text data, and a speech synthesis dictionary for converting text data into a digital speech signal. The storage unit 25 stores a plurality of speech recognition dictionaries and a plurality of speech synthesis dictionaries in association with a plurality of language names.

制御部26は、例えばCPUであり、記憶部25に記憶されたプログラムを実行することによりテキスト変換部261及びUI処理部262として機能する。   The control unit 26 is a CPU, for example, and functions as a text conversion unit 261 and a UI processing unit 262 by executing a program stored in the storage unit 25.

テキスト変換部261は、抽出部として機能する音声処理部151が抽出した第1言語の音声を第1言語テキストデータに変換する。具体的には、まず、テキスト変換部261は、第1通信部21から入力されたデジタル音声信号を解析して音素を特定する。そして、テキスト変換部261は、記憶部25を参照することにより、情報端末2を使用するユーザが話すことができる言語名に対応する音声認識辞書を使用してデジタル音声信号に含まれている単語を特定することにより、デジタル音声信号を第1言語テキストデータに変換する。   The text conversion unit 261 converts the first language speech extracted by the speech processing unit 151 functioning as an extraction unit into first language text data. Specifically, first, the text conversion unit 261 analyzes the digital audio signal input from the first communication unit 21 and identifies the phoneme. The text conversion unit 261 uses the speech recognition dictionary corresponding to the language name that can be spoken by the user using the information terminal 2 by referring to the storage unit 25, and the words included in the digital speech signal Is specified, and the digital voice signal is converted into the first language text data.

テキスト変換部261は、生成した第1言語テキストデータに関連付けて、ユーザを特定するためのユーザ特定情報としてのアカウント名、並びに会話をする相手であるユーザU2及びユーザU3のアカウント名を、第2通信部22を介して翻訳装置3に送信する。テキスト変換部261は、例えば、入力した音声の翻訳を開始する指示をUI処理部262から受けたことに応じて、第1言語テキストデータとともに、ユーザU2及びユーザU3のアカウント名を送信する。なお、テキスト変換部261は、UI処理部262を介してユーザU2が使用可能な第2言語名を取得した場合、第1言語テキストデータの送信を開始する前に、ユーザU2が使用可能な言語を特定するための言語情報を翻訳装置3に送信してもよい。   The text conversion unit 261 associates the account name as the user specifying information for specifying the user and the account names of the user U2 and the user U3 who are conversation partners with the second language text data in association with the generated first language text data. It transmits to the translation apparatus 3 via the communication part 22. For example, the text conversion unit 261 transmits the account names of the users U2 and U3 together with the first language text data in response to receiving an instruction from the UI processing unit 262 to start translating the input speech. When the text conversion unit 261 acquires the second language name usable by the user U2 via the UI processing unit 262, the text conversion unit 261 can use the language usable by the user U2 before starting transmission of the first language text data. The language information for specifying can be transmitted to the translation device 3.

また、テキスト変換部261は、記憶部25に記憶された音声合成辞書を参照することにより、第2通信部22を介して翻訳装置3から受信した第1言語テキストデータをデジタル音声信号に変換する。テキスト変換部261は、生成したデジタル音声信号を、第1通信部21を介してヘッドセット1に送信する。   In addition, the text conversion unit 261 converts the first language text data received from the translation device 3 via the second communication unit 22 into a digital speech signal by referring to the speech synthesis dictionary stored in the storage unit 25. . The text conversion unit 261 transmits the generated digital audio signal to the headset 1 via the first communication unit 21.

UI処理部262は、テキスト変換部261から取得したテキストデータを表示部23に表示させる。また、UI処理部262は、操作部24から入力された電気信号が示す操作内容を特定し、特定した操作内容をテキスト変換部261に通知する。例えば、UI処理部262は、ユーザが設定したユーザU1のアカウント名、及びユーザU2及びユーザU3のアカウント名をテキスト変換部261に通知するとともに、記憶部25に記憶させる。   The UI processing unit 262 causes the display unit 23 to display the text data acquired from the text conversion unit 261. In addition, the UI processing unit 262 specifies the operation content indicated by the electrical signal input from the operation unit 24 and notifies the text conversion unit 261 of the specified operation content. For example, the UI processing unit 262 notifies the text conversion unit 261 of the account name of the user U1 set by the user and the account names of the user U2 and the user U3 and causes the storage unit 25 to store them.

[翻訳装置3の構成]
図4は、翻訳装置3の構成を示す図である。翻訳装置3は、通信部31と、記憶部32と、制御部33とを有する。
[Configuration of Translation Device 3]
FIG. 4 is a diagram illustrating a configuration of the translation apparatus 3. The translation device 3 includes a communication unit 31, a storage unit 32, and a control unit 33.

通信部31は、ネットワークNを介して情報端末2との間でテキストデータを送受信するための通信インターフェースを含む。通信部31は、例えばLAN(Local Area Network)コントローラを含む。   The communication unit 31 includes a communication interface for transmitting / receiving text data to / from the information terminal 2 via the network N. The communication unit 31 includes, for example, a LAN (Local Area Network) controller.

記憶部32は、ROM、RAM及びハードディスク等の記憶媒体を含む。記憶部32は、制御部33が実行するプログラムを記憶している。また、記憶部32は、言語変換部332が第1言語のテキストデータを他の言語のテキストデータに変換するための辞書を記憶している。さらに、記憶部32は、翻訳システムS1を利用することができる複数のユーザのアカウント名と、それぞれのユーザが使用可能な言語名とが関連付けられた使用言語テーブルを記憶している。   The storage unit 32 includes storage media such as a ROM, a RAM, and a hard disk. The storage unit 32 stores a program executed by the control unit 33. In addition, the storage unit 32 stores a dictionary for the language conversion unit 332 to convert the text data of the first language into text data of another language. Furthermore, the storage unit 32 stores a use language table in which account names of a plurality of users who can use the translation system S1 are associated with language names that can be used by each user.

制御部33は、例えばCPUであり、記憶部32に記憶されたプログラムを実行することにより翻訳制御部331及び言語変換部332として機能する。   The control unit 33 is, for example, a CPU, and functions as a translation control unit 331 and a language conversion unit 332 by executing a program stored in the storage unit 32.

翻訳制御部331は、通信部31から受信した第1言語テキストデータを第2言語翻訳データに変換するように言語変換部332を制御する。また、翻訳制御部331は、通信部31を介して情報端末2bから受信した第2言語テキストデータを第1言語翻訳データに変換するように言語変換部332を制御する。翻訳制御部331は、言語変換部332が変換して生成した第2言語翻訳データを、通信部31を介して情報端末2bに送信し、言語変換部332が変換して生成した第1言語翻訳データを、通信部31を介して情報端末2aに送信する。   The translation control unit 331 controls the language conversion unit 332 to convert the first language text data received from the communication unit 31 into second language translation data. Also, the translation control unit 331 controls the language conversion unit 332 to convert the second language text data received from the information terminal 2b via the communication unit 31 into the first language translation data. The translation control unit 331 transmits the second language translation data generated by conversion by the language conversion unit 332 to the information terminal 2b via the communication unit 31, and the first language translation generated by conversion by the language conversion unit 332 Data is transmitted to the information terminal 2a via the communication unit 31.

また、翻訳制御部331は、第1言語テキストデータに基づいて生成された第2言語翻訳データを言語変換部332から取得すると、取得した第2言語翻訳データを第1言語のテキストデータに翻訳して再翻訳データを生成するように言語変換部332を制御する。翻訳制御部331は、言語変換部332が生成した再翻訳データを、通信部31を介して情報端末2aに送信する。   In addition, when the translation control unit 331 acquires the second language translation data generated based on the first language text data from the language conversion unit 332, the translation control unit 331 translates the acquired second language translation data into text data of the first language. The language conversion unit 332 is controlled so as to generate retranslation data. The translation control unit 331 transmits the retranslation data generated by the language conversion unit 332 to the information terminal 2a via the communication unit 31.

さらに、翻訳制御部331は、ユーザU1が使用する第1言語と、ユーザU2が使用する第2言語とを特定する特定部として機能する。翻訳制御部331は、記憶部32に記憶された使用言語テーブルを参照し、第1通信部21を介して第1言語テキストデータに関連付けて第2通信部22から送信されたユーザU1のアカウント名に対応する第1言語名、及び第1言語テキストデータに関連付けて受信したユーザU2のアカウント名に対応する第2言語名を特定する。翻訳制御部331は、特定した結果を言語変換部332に通知する。   Furthermore, the translation control unit 331 functions as a specifying unit that specifies the first language used by the user U1 and the second language used by the user U2. The translation control unit 331 refers to the language table stored in the storage unit 32 and associates the first language text data via the first communication unit 21 with the account name of the user U1 transmitted from the second communication unit 22 And a second language name corresponding to the account name of the user U2 received in association with the first language text data. The translation control unit 331 notifies the language conversion unit 332 of the identified result.

翻訳制御部331は、情報端末2aから送信された言語情報に基づいて、ユーザU2が使用可能な第2言語を特定してもよい。翻訳制御部331は、例えば情報端末2aを用いるユーザU1がログイン処理をした際に入力した情報に基づいて、ユーザU1が使用可能な第1言語、及びユーザU2が使用可能な第2言語を特定する。この場合、翻訳制御部331は、ユーザU1がログオフするまでの間、特定した第1言語及び第2言語に基づいて言語変換部332に翻訳をさせる。   The translation control unit 331 may specify a second language that can be used by the user U2 based on the language information transmitted from the information terminal 2a. The translation control unit 331 specifies, for example, a first language that can be used by the user U1 and a second language that can be used by the user U2 based on information input when the user U1 using the information terminal 2a performs login processing. To do. In this case, the translation control unit 331 causes the language conversion unit 332 to translate based on the identified first language and second language until the user U1 logs off.

翻訳制御部331は、受信した第1言語テキストデータを解析することにより、ユーザU1が使用する言語が第1言語であることを特定してもよい。また、翻訳制御部331は、第1言語テキストデータに含まれる単語に基づいて第2言語を特定してもよい。翻訳制御部331は、例えば、受信した第1言語テキストデータに含まれているアカウント名に基づいて、ユーザU2が使用する言語が第2言語であることを特定する。具体的には、翻訳制御部331は、第1言語テキストデータの内容が「トム、初めまして」である場合、「トム」が、使用言語テーブルに含まれているアカウント名であることを検出し、「トム」が使用できる言語が英語であることを特定することにより、第2言語が英語であると特定する。   The translation control unit 331 may specify that the language used by the user U1 is the first language by analyzing the received first language text data. Moreover, the translation control part 331 may specify a 2nd language based on the word contained in 1st language text data. For example, the translation control unit 331 specifies that the language used by the user U2 is the second language based on the account name included in the received first language text data. Specifically, when the content of the first language text data is “Tom, nice to meet you”, the translation control unit 331 detects that “Tom” is an account name included in the language table used. By specifying that the language that “Tom” can use is English, the second language is specified as English.

言語変換部332は、翻訳制御部331から通知された言語種別に基づいて、第1通信部21が情報端末2aから受信した第1言語テキストデータを第2言語翻訳データに変換する。言語変換部332は、翻訳制御部331から第1言語テキストデータの入力を受けると、入力された第1言語テキストデータを翻訳することにより第2言語翻訳データを生成し、生成した第2言語翻訳データを翻訳制御部331に通知する。また、言語変換部332は、第1通信部21が情報端末2bから受信した第2言語テキストデータを第1言語翻訳データに変換する。言語変換部332は、翻訳制御部331から第2言語テキストデータの入力を受けると、入力された第2言語テキストデータを翻訳することにより第1言語翻訳データを生成し、生成した第1言語翻訳データを翻訳制御部331に通知する。   The language conversion unit 332 converts the first language text data received by the first communication unit 21 from the information terminal 2a into the second language translation data based on the language type notified from the translation control unit 331. Upon receiving the input of the first language text data from the translation control unit 331, the language conversion unit 332 generates the second language translation data by translating the input first language text data, and the generated second language translation Data is notified to the translation control unit 331. Moreover, the language conversion part 332 converts the 2nd language text data which the 1st communication part 21 received from the information terminal 2b into 1st language translation data. Upon receiving the input of the second language text data from the translation control unit 331, the language conversion unit 332 generates the first language translation data by translating the input second language text data, and the generated first language translation Data is notified to the translation control unit 331.

さらに、言語変換部332は、翻訳制御部331からの指示に基づいて、第1言語テキストデータに基づいて生成した第2言語翻訳データを第1言語に翻訳して、再翻訳データを生成する。言語変換部332は、再翻訳データを翻訳制御部331に通知する。   Further, the language conversion unit 332 translates the second language translation data generated based on the first language text data into the first language based on an instruction from the translation control unit 331, and generates retranslation data. The language conversion unit 332 notifies the translation control unit 331 of the retranslation data.

[情報端末2の操作画面]
続いて、ユーザU1がユーザU2及びユーザU3と会話を開始する場合の操作について説明する。図5は、ユーザU1が情報端末2aの利用を開始する際に表示部23に表示される利用者選択画面を示す図である。本実施形態においては、情報端末2aがユーザU1自身の端末ではなく、レンタルされた端末であることが想定されている。そこで、ユーザU1は、まずユーザU1が使用可能な言語を設定する必要がある。
[Operation screen of information terminal 2]
Next, an operation when the user U1 starts a conversation with the user U2 and the user U3 will be described. FIG. 5 is a diagram illustrating a user selection screen displayed on the display unit 23 when the user U1 starts using the information terminal 2a. In the present embodiment, it is assumed that the information terminal 2a is not a terminal of the user U1 itself but a rented terminal. Therefore, first, the user U1 needs to set a language that can be used by the user U1.

図5(a)に示すように、利用者選択画面においては、翻訳装置3による翻訳サービスを利用できるユーザのアカウント名と言語名とが関連付けて表示される。図5(b)に示すように、ユーザU1は、自身のアカウント名である「太郎」の左側のチェックボックスにタッチすることで、情報端末2aを用いた翻訳サービスを利用することが可能になる。UI処理部262は、「太郎」の左側のラジオボタンがタッチされると、ユーザU1のアカウント名が「太郎」であり、使用する言語が日本語であることを記憶部25に記憶させる。   As shown in FIG. 5A, on the user selection screen, an account name and a language name of a user who can use the translation service by the translation device 3 are displayed in association with each other. As shown in FIG. 5B, the user U1 can use the translation service using the information terminal 2a by touching the check box on the left side of “Taro” which is his account name. . When the radio button on the left side of “Taro” is touched, the UI processing unit 262 stores in the storage unit 25 that the account name of the user U1 is “Taro” and the language to be used is Japanese.

図6は、会話をする相手を選択する際に表示部23に表示される相手選択画面を示す図である。図6(a)においても、図5(a)と同様に、翻訳装置3による翻訳サービスを利用できるユーザのアカウント名と言語名とが関連付けて表示されている。図6(b)に示すように、ユーザU1が、「トム」の左側のチェックボックス、及び「周」の左側のチェックボックスにタッチすると、UI処理部262は、ユーザU2が「トム」であり、ユーザU3が「周」であることを記憶部25に記憶させる。   FIG. 6 is a diagram showing a partner selection screen displayed on the display unit 23 when selecting a partner to talk with. Also in FIG. 6A, the account name and language name of the user who can use the translation service by the translation apparatus 3 are displayed in association with each other as in FIG. As illustrated in FIG. 6B, when the user U1 touches the check box on the left side of “Tom” and the check box on the left side of “Turn”, the UI processing unit 262 indicates that the user U2 is “Tom”. The storage unit 25 stores that the user U3 is “around”.

図7は、会話をする際に表示部23に表示される会話用画面を示す図である。図7(a)に示すように、会話用画面には、自分が発した音声が変換された第1言語テキストデータが表示される第1領域R1と、再翻訳データが表示される第2領域R2と、相手が発した音声が翻訳された第1言語翻訳データが表示される第3領域R3とが含まれている。   FIG. 7 is a diagram showing a conversation screen displayed on the display unit 23 when having a conversation. As shown in FIG. 7 (a), on the conversation screen, a first area R1 in which the first language text data in which the speech uttered by himself is converted is displayed, and a second area in which the retranslation data is displayed. R2 and a third region R3 in which the first language translation data in which the speech uttered by the other party is translated are displayed.

また、会話用画面には、ユーザが音声を入力する間に操作する「話す」アイコンが含まれている。テキスト変換部261は、「話す」アイコンに指がタッチされている間にヘッドセット1において入力された音声を第1言語テキストデータに変換し、「話す」アイコンから指が離れたタイミングで第1言語テキストデータへの変換処理を終了する。そして、テキスト変換部261は、「話す」アイコンに指がタッチしてから指が離れるまでの間に入力された音声に対応する第1言語テキストデータを翻訳装置3に送信する。このようにすることで、ユーザが指定した期間のみが翻訳の対象となるので、ユーザが音声を入力していない間にヘッドセット1に入力された周囲の音が誤って翻訳されることを防止できる。   In addition, the conversation screen includes a “speak” icon that is operated while the user inputs voice. The text conversion unit 261 converts the voice input in the headset 1 into the first language text data while the finger is touching the “speak” icon, and the first time when the finger is released from the “speak” icon. The conversion to language text data is terminated. Then, the text conversion unit 261 transmits the first language text data corresponding to the voice input from when the finger touches the “speak” icon to when the finger is released to the translation device 3. By doing so, only the period designated by the user is subject to translation, so that surrounding sounds input to the headset 1 while the user is not inputting voice are prevented from being erroneously translated. it can.

図7(b)に示すように、ユーザU1が「話す」アイコンにタッチした状態で音声を発すると、第1領域R1には、ユーザU1が発した音声の内容を示す第1言語テキストデータが表示される。ユーザU1は、表示された第1言語テキストデータを視認して、音声が正しく認識されたことを確認することができる。   As shown in FIG. 7B, when the user U1 utters a voice while touching the “speak” icon, the first language text data indicating the content of the voice uttered by the user U1 is displayed in the first region R1. Is displayed. The user U1 can visually confirm the displayed first language text data and confirm that the voice has been correctly recognized.

情報端末2aは、ユーザU1が視認した第1言語テキストデータに誤りがある場合、ユーザU1が所定の単語を発することで、入力された音声をキャンセルするように動作してもよい。テキスト変換部261は、例えば、ヘッドセット1aにおいて入力された音声中に「やり直し」という単語を検出した場合、「話す」アイコンがタッチされてから「やり直し」という単語を検出するまでの間に生成した第1言語テキストデータを削除する。テキスト変換部261は、UI処理部262に指示して、表示部23に表示された第1言語テキストデータも消去する。このようにすることで、テキスト変換部261は、ユーザU1が発した音声を正しい第1言語テキストデータに変換できなかった場合に、誤った第1言語テキストデータを翻訳装置3に送信してしまうことを防止できる。   When there is an error in the first language text data visually recognized by the user U1, the information terminal 2a may operate so as to cancel the input voice by the user U1 issuing a predetermined word. For example, when the word “redo” is detected in the voice input in the headset 1 a, the text conversion unit 261 is generated after the “speak” icon is touched until the word “redo” is detected. The first language text data is deleted. The text conversion unit 261 instructs the UI processing unit 262 to delete the first language text data displayed on the display unit 23. By doing in this way, the text conversion part 261 will transmit incorrect 1st language text data to the translation apparatus 3, when the audio | voice which the user U1 was unable to convert into correct 1st language text data. Can be prevented.

図8は、ユーザU1が「話す」アイコンから指を離した後の情報端末2aの画面と情報端末2bの画面を示す図である。図8(a)に示す情報端末2aの画面の第2領域R2には、再翻訳データが表示されている。図8(b)は、情報端末2bの画面を示しており、情報端末2bの第3領域R3には、ユーザU1が発した「はじめまして」という日本語文が翻訳された英語文が表示されている。   FIG. 8 is a diagram illustrating the screen of the information terminal 2a and the screen of the information terminal 2b after the user U1 releases his / her finger from the “speak” icon. The retranslation data is displayed in the second area R2 of the screen of the information terminal 2a shown in FIG. FIG. 8B shows a screen of the information terminal 2b. In the third area R3 of the information terminal 2b, an English sentence translated from the Japanese sentence “Nice to meet you” issued by the user U1 is displayed. .

ユーザU1は、情報端末2aに表示された再翻訳データを視認することにより、正しく翻訳されたかどうかを確認することができる。テキスト変換部261は、再翻訳データを表示している間にユーザU1が発した「やり直し」という単語を検出した場合、第2言語翻訳データに誤りがあったことを翻訳装置3に通知してもよい。翻訳装置3は、翻訳に誤りがあったということを認識すると、翻訳に誤りがあったことを情報端末2bに通知し、情報端末2bは、第3領域R3に表示された英語文を消去して、取り消されたことを示す単語(例えばcanceled)を表示してもよい。このようにすることで、翻訳装置3は、ユーザU1が発した音声を正しい第1言語テキストデータに変換できなかった場合に、誤った第2言語翻訳データが情報端末2bに表示し続けてしまうことを防止できる。   The user U1 can confirm whether or not the translation has been correctly performed by visually checking the retranslation data displayed on the information terminal 2a. When the text conversion unit 261 detects the word “redo” issued by the user U1 while displaying the retranslation data, the text conversion unit 261 notifies the translation device 3 that there is an error in the second language translation data. Also good. When recognizing that there was an error in translation, translation apparatus 3 notifies information terminal 2b that there was an error in translation, and information terminal 2b erases the English sentence displayed in third region R3. Then, a word indicating cancellation (for example, canceled) may be displayed. By doing in this way, the translation apparatus 3 will continue to display incorrect 2nd language translation data on the information terminal 2b, when the speech which the user U1 uttered cannot be converted into correct 1st language text data. Can be prevented.

翻訳制御部331は、再翻訳データを情報端末2aに送信してから、ユーザU1が再翻訳データの内容を確認するために必要な時間だけ待機した後に、第2言語翻訳データを情報端末2bに送信してもよい。この場合、翻訳制御部331は、再翻訳データを情報端末2aに送信した後に、通信部31が所定の単語(例えば「やり直し」)を含む第1言語テキストデータを受信した場合に、ユーザU2への第2言語翻訳データの送信を中止してもよい。このようにすることで、翻訳装置3は、ユーザU1が発した音声を正しい第1言語テキストデータに変換できなかった場合に、誤った第2言語翻訳データが情報端末2bに送信されることを防止できる。   The translation control unit 331 transmits the second language translation data to the information terminal 2b after waiting for a time necessary for the user U1 to confirm the contents of the retranslation data after transmitting the retranslation data to the information terminal 2a. You may send it. In this case, the translation control unit 331 transmits the retranslation data to the information terminal 2a, and then, when the communication unit 31 receives first language text data including a predetermined word (for example, “redo”), to the user U2. The transmission of the second language translation data may be stopped. By doing in this way, when the translation apparatus 3 has not been able to convert the voice uttered by the user U1 into correct first language text data, the translation device 3 is notified that erroneous second language translation data is transmitted to the information terminal 2b. Can be prevented.

図9は、図8の状態に続いてユーザU2が第2言語の音声を発した後の情報端末2aの画面と情報端末2bの画面を示す図である。図9(b)に示す情報端末2bの第1領域R1には、ユーザU2が発した音声に対応する第2言語テキストデータが表示されており、図9(a)に示す情報端末2aの第1領域R1には、第2言語テキストデータが翻訳されて生成された第1言語翻訳データが表示されている。また、図9(b)に示す情報端末2bの第2領域R2には、第1言語翻訳データが翻訳された再翻訳データが表示されている。   FIG. 9 is a diagram showing the screen of the information terminal 2a and the screen of the information terminal 2b after the user U2 utters the second language voice following the state of FIG. In the first area R1 of the information terminal 2b shown in FIG. 9B, the second language text data corresponding to the voice uttered by the user U2 is displayed, and the second language text data of the information terminal 2a shown in FIG. 9A is displayed. In one area R1, the first language translation data generated by translating the second language text data is displayed. In addition, re-translated data obtained by translating the first language translation data is displayed in the second region R2 of the information terminal 2b shown in FIG. 9B.

ヘッドセット1aからは、図9(a)の第2領域R2に示す再翻訳データに対応する第1言語の音声、及び第3領域R3に示す第1言語翻訳データに対応する第1言語の音声が出力される。この際、ヘッドセット1aから第1言語の音声が出力されている最中にユーザU2が第2言語の音声を発して翻訳装置3に送信された場合、翻訳制御部331は、言語変換部332がヘッドセット1bにおいて入力された第2言語の言語情報を第1言語翻訳データに変換した場合に、再翻訳データの送信を中止して第1言語翻訳データを情報端末2aに送信する。このようにすることで、ユーザU1は、再翻訳データの内容よりもユーザU2が発した音声の内容を優先的に把握することが可能になる。   From the headset 1a, the first language speech corresponding to the retranslation data shown in the second region R2 of FIG. 9A and the first language speech corresponding to the first language translation data shown in the third region R3. Is output. At this time, when the user U2 emits the second language voice and is transmitted to the translation device 3 while the first language voice is being output from the headset 1a, the translation control unit 331 performs the language conversion unit 332. When the language information of the second language input in the headset 1b is converted into the first language translation data, the transmission of the retranslation data is stopped and the first language translation data is transmitted to the information terminal 2a. By doing in this way, the user U1 becomes possible to grasp | ascertain the content of the audio | voice which the user U2 emitted preferentially rather than the content of retranslation data.

同様に、翻訳制御部331は、ユーザU2が発した第2言語の音声に基づく第1言語翻訳データを情報端末2aに送信している間に、言語変換部332が、新たにユーザU2が発した第2言語の音声を翻訳して新たな第1言語翻訳データの生成が終了すると、送信中の第1言語翻訳データの送信を中止して、新たな第1言語翻訳データの送信を開始してもよい。このようにすることで、ユーザU2は、間違えた内容を含む音声を発した場合に速やかに正しい内容の音声を発することで、ユーザU1に対して正しい内容が伝わるようになる。   Similarly, while the translation control unit 331 is transmitting the first language translation data based on the second language speech uttered by the user U2 to the information terminal 2a, the language conversion unit 332 newly generates the user U2. When the generation of new first language translation data is completed after translating the second language speech, transmission of the first language translation data being transmitted is stopped, and transmission of new first language translation data is started. May be. By doing in this way, when the user U2 utters the sound including the mistaken content, the user U1 promptly utters the sound of the correct content, so that the correct content is transmitted to the user U1.

翻訳制御部331は、ユーザU2が発した第2言語の音声に基づく第1言語翻訳データを情報端末2aに送信している間に、言語変換部332が、新たにユーザU3が発した第3言語の音声を翻訳して新たな第1言語翻訳データの生成が終了すると、送信中の第1言語翻訳データの送信を中止して、ユーザU3が発した第3言語の音声に基づく第1言語翻訳データの送信を開始してもよい。この場合、翻訳制御部331は、情報端末2bに対して、ユーザU2が発した音声に基づく第1言語翻訳データの送信が中断したことを通知し、情報端末2bが、第1言語翻訳データの送信が中断したことを表示してもよい。このようにすることで、ユーザU2は、自分が話したことがユーザU1に伝わっていないことを認識して、再度発言するといった適切な対応をとることが可能になる。   While the translation control unit 331 is transmitting the first language translation data based on the voice of the second language uttered by the user U2 to the information terminal 2a, the language conversion unit 332 newly generates the third language uttered by the user U3. When the speech of the language is translated and generation of new first language translation data is completed, the transmission of the first language translation data being transmitted is stopped, and the first language based on the third language speech uttered by the user U3 You may start transmission of translation data. In this case, the translation control unit 331 notifies the information terminal 2b that the transmission of the first language translation data based on the voice uttered by the user U2 is interrupted, and the information terminal 2b transmits the first language translation data. You may display that transmission was interrupted. In this way, the user U2 can recognize that what he / she has spoken is not transmitted to the user U1 and take an appropriate response such as speaking again.

[翻訳システムS1における処理シーケンス]
図10は、翻訳システムS1における処理シーケンスを示す図である。図10は、ユーザU1がヘッドセット1aにおいて第1言語の音声の入力を開始した時点から開始している(ステップS11)。ヘッドセット1aは、第1言語の音声が入力されると、第1言語の音声に対応するデジタル音声データを情報端末2に送信する。
[Processing Sequence in Translation System S1]
FIG. 10 is a diagram showing a processing sequence in the translation system S1. FIG. 10 starts from the point in time when the user U1 starts inputting the voice in the first language in the headset 1a (step S11). When the first language voice is input, the headset 1 a transmits digital voice data corresponding to the first language voice to the information terminal 2.

情報端末2aは、受信したデジタル音声データを第1言語テキストデータに変換する(ステップS12)。この間、情報端末2aのUI処理部262は、音声入力が終了したかどうかを監視し(ステップS13)、テキスト変換部261は、音声入力が終了するまでの間、第1言語テキストデータの生成を継続する。テキスト変換部261は、音声入力が終了したとUI処理部262が判定した場合(ステップS13においてYES)、第2通信部22を介して、生成した第1言語テキストデータを翻訳装置3に送信する。   The information terminal 2a converts the received digital voice data into first language text data (step S12). During this time, the UI processing unit 262 of the information terminal 2a monitors whether or not the voice input is completed (step S13), and the text conversion unit 261 generates the first language text data until the voice input is completed. continue. The text conversion unit 261 transmits the generated first language text data to the translation device 3 via the second communication unit 22 when the UI processing unit 262 determines that the voice input has been completed (YES in step S13). .

続いて、言語変換部332は、通信部31を介して受信した第1言語テキストデータを第2言語テキストデータに変換して、第2言語翻訳データを生成する(ステップS14)。翻訳制御部331は、通信部31を介して、言語変換部332が生成した第2言語翻訳データを情報端末2bに送信する。   Subsequently, the language conversion unit 332 converts the first language text data received via the communication unit 31 into second language text data, and generates second language translation data (step S14). The translation control unit 331 transmits the second language translation data generated by the language conversion unit 332 to the information terminal 2b via the communication unit 31.

情報端末2bのテキスト変換部261は、第2言語翻訳データを受信すると、受信した第2言語翻訳データを第2言語のデジタル音声信号に変換する(ステップS15)。情報端末2bのテキスト変換部261は、第2言語のデジタル音声信号を、第1通信部21を介してヘッドセット1bに送信する。ヘッドセット1bの音声処理部151は、情報端末2bから受信したデジタル音声信号をアナログ音声信号に変換して、第2言語の音声を骨伝導スピーカー14から出力する(ステップS16)。   Upon receiving the second language translation data, the text conversion unit 261 of the information terminal 2b converts the received second language translation data into a second language digital audio signal (step S15). The text conversion unit 261 of the information terminal 2 b transmits a digital audio signal in the second language to the headset 1 b via the first communication unit 21. The voice processing unit 151 of the headset 1b converts the digital voice signal received from the information terminal 2b into an analog voice signal, and outputs the second language voice from the bone conduction speaker 14 (step S16).

翻訳制御部331は、ステップS14において第2言語翻訳データが生成された後に、言語変換部332に、第2言語翻訳データを第1言語に翻訳させて再翻訳データを作成させ(ステップS17)、再翻訳データを情報端末2aに送信する。情報端末2aのテキスト変換部261は、再翻訳データを受信すると、受信した再翻訳データを第1言語のデジタル音声信号に変換する(ステップS18)。情報端末2aのテキスト変換部261は、第1言語のデジタル音声信号を、第1通信部21を介してヘッドセット1aに送信する。ヘッドセット1aの音声処理部151は、情報端末2aから受信したデジタル音声信号をアナログ音声信号に変換して、第1言語の音声を骨伝導スピーカー14から出力する(ステップS19)。   After the second language translation data is generated in step S14, the translation control unit 331 causes the language conversion unit 332 to translate the second language translation data into the first language and create retranslation data (step S17). The retranslation data is transmitted to the information terminal 2a. When receiving the retranslation data, the text conversion unit 261 of the information terminal 2a converts the received retranslation data into a digital speech signal in the first language (step S18). The text conversion unit 261 of the information terminal 2 a transmits a digital audio signal in the first language to the headset 1 a via the first communication unit 21. The voice processing unit 151 of the headset 1a converts the digital voice signal received from the information terminal 2a into an analog voice signal, and outputs the first language voice from the bone conduction speaker 14 (step S19).

なお、上述したように、テキスト変換部261は、ステップS14の後に第2言語翻訳データを情報端末2bに送信する前に再翻訳データを情報端末2aに送信し、その後、ユーザU1が再翻訳データを確認するために必要な時間が経過してから第2言語翻訳データを情報端末2bに送信してもよい。   As described above, the text conversion unit 261 transmits the retranslation data to the information terminal 2a before transmitting the second language translation data to the information terminal 2b after step S14, and then the user U1 receives the retranslation data. The second language translation data may be transmitted to the information terminal 2b after the time necessary for confirming the elapses.

図11は、本実施形態の変形例に係る翻訳システムS2の構成を示す図である。翻訳システムS2においては、ユーザU1が、ヘッドセット1aの代わりに、情報端末2aの機能の一部の機能を有するヘッドセット10を使用するという点で翻訳システムS1と異なる。また、ユーザU2及びユーザU3が、ヘッドセット1b及びヘッドセット1cを使用しておらず、情報端末2b及び情報端末2cの代わりに情報端末20b及び情報端末20cを使用している点で翻訳システムS1と異なる。   FIG. 11 is a diagram showing a configuration of a translation system S2 according to a modification of the present embodiment. The translation system S2 is different from the translation system S1 in that the user U1 uses a headset 10 having a part of the functions of the information terminal 2a instead of the headset 1a. In addition, the translation system S1 in that the user U2 and the user U3 do not use the headset 1b and the headset 1c but use the information terminal 20b and the information terminal 20c instead of the information terminal 2b and the information terminal 2c. And different.

ヘッドセット10は、図3に示したヘッドセット1が有する機能に加えて、テキスト変換部261の機能を有する。また、ヘッドセット1における通信部152の代わりに第2通信部22の機能を有する。このようにすることで、ユーザU1は、情報端末2aを使用することなくヘッドセット10を用いるだけで、第2言語を使用するユーザU2、及び第3言語を使用するユーザU3と会話をすることができる。   The headset 10 has a function of the text conversion unit 261 in addition to the function of the headset 1 shown in FIG. Moreover, it has the function of the 2nd communication part 22 instead of the communication part 152 in the headset 1. FIG. By doing in this way, the user U1 can talk with the user U2 using the second language and the user U3 using the third language only by using the headset 10 without using the information terminal 2a. Can do.

なお、ヘッドセット10は、無線チャネルを介して接続された情報端末2における操作内容を取得し、ユーザU1が、情報端末2を用いて、翻訳を開始するタイミングを設定できるように構成されていてもよい。また、ヘッドセット10は、アクセスポイント4aを介して翻訳装置3から受信した再翻訳データ及び第1言語翻訳データをユーザU1が視認できるように、無線チャネルを介して接続された情報端末2に表示させてもよい。   In addition, the headset 10 is configured to acquire the operation content in the information terminal 2 connected via the wireless channel, and the user U1 can set the timing to start translation using the information terminal 2. Also good. Further, the headset 10 displays the retranslation data and the first language translation data received from the translation device 3 via the access point 4a on the information terminal 2 connected via the radio channel so that the user U1 can visually recognize the retranslation data and the first language translation data. You may let them.

情報端末20は、情報端末2に加えて音声を入力するマイク、及び音声を出力するスピーカーを有する。ユーザU2及びユーザU3は、情報端末20b及び情報端末20cを使用することで、ヘッドセット1b及びヘッドセット1cを装着することなくユーザU1と会話をすることができる。   In addition to the information terminal 2, the information terminal 20 includes a microphone that inputs sound and a speaker that outputs sound. By using the information terminal 20b and the information terminal 20c, the user U2 and the user U3 can talk with the user U1 without wearing the headset 1b and the headset 1c.

[翻訳システムS1及び翻訳システムS2による効果]
以上説明したように、本実施形態に係る翻訳システムS1及び翻訳システムS2においては、翻訳装置3が、ヘッドセット1aにおいて入力された第1言語の音声を第2言語の音声に翻訳してからヘッドセット1bに送信し、ヘッドセット1bが第2言語に翻訳された音声を出力する。また、翻訳装置3が、ヘッドセット1bにおいて入力された第2言語の音声を第1言語の音声に翻訳してからヘッドセット1aに送信し、ヘッドセット1aが第1言語に翻訳された音声を出力する。このようにすることで、ヘッドセット1a及びヘッドセット1bを装着したユーザは、自分と異なる言語を使う相手の顔を見ながら話しつつ、相手が話す内容を理解することができるので、異なる言語を使用する相手とのコミュニケーションの質を高めることができる。
[Effects of translation system S1 and translation system S2]
As described above, in the translation system S1 and the translation system S2 according to the present embodiment, the translation device 3 translates the first language speech input in the headset 1a into the second language speech before the head. The data is transmitted to the set 1b, and the headset 1b outputs the sound translated into the second language. Further, the translation device 3 translates the second language voice input in the headset 1b into the first language voice, and then transmits the translated voice to the headset 1a, and the headset 1a translates the voice translated into the first language. Output. By doing in this way, the user wearing the headset 1a and the headset 1b can understand what the other person speaks while speaking while looking at the face of the other party who uses a different language. You can improve the quality of communication with the people you use.

また、ヘッドセット1は、骨伝導スピーカー14を有する。したがって、ユーザは、相手の生の声を耳で聞きながら、翻訳された後の音声を骨伝導により聞くことができるので、相手の感情を把握しつつ、相手が話す内容を理解することが可能になる。その結果、異なる言語を使用する相手とのコミュニケーションの質をさらに高めることができる。   The headset 1 also has a bone conduction speaker 14. Therefore, the user can hear the translated voice by bone conduction while listening to the other party's live voice with his / her ear. become. As a result, the quality of communication with a partner who uses a different language can be further enhanced.

なお、以上の説明においては、翻訳装置3が言語変換部332を有する場合を例示したが、翻訳装置3は、翻訳機能を有するクラウドサーバ等の外部のサーバを言語変換部332として使用してもよい。図12は、翻訳装置3と異なる言語変換サーバ5により言語変換部332の機能を実現する場合の翻訳装置3の構成を示す図である。このように、翻訳制御部331が、言語変換部332と同等に動作する外部の言語変換サーバ5と通信部31を介して連動することにより翻訳処理を実行してもよい。   In the above description, the case where the translation device 3 includes the language conversion unit 332 is illustrated. However, the translation device 3 may use an external server such as a cloud server having a translation function as the language conversion unit 332. Good. FIG. 12 is a diagram illustrating a configuration of the translation device 3 when the function of the language conversion unit 332 is realized by the language conversion server 5 different from the translation device 3. As described above, the translation control unit 331 may execute the translation process by interlocking with the external language conversion server 5 that operates in the same manner as the language conversion unit 332 via the communication unit 31.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment, A various deformation | transformation and change are possible within the range of the summary. is there. For example, the specific embodiments of device distribution / integration are not limited to the above-described embodiments, and all or a part of them may be configured to be functionally or physically distributed / integrated in arbitrary units. Can do. In addition, new embodiments generated by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

以上の説明においては、情報端末2がユーザUにレンタルされた端末である場合が想定されていたが、情報端末2は、ユーザUが携帯電話事業者と契約した端末であってもよい。この場合、情報端末2は、ユーザUが使用する言語情報を記憶しておき、図5に示した利用者選択画面を表示しないようにしてもよい。   In the above description, it is assumed that the information terminal 2 is a terminal rented to the user U. However, the information terminal 2 may be a terminal with which the user U has contracted with a mobile phone operator. In this case, the information terminal 2 may store the language information used by the user U and not display the user selection screen shown in FIG.

1 ヘッドセット
2 情報端末
3 翻訳装置
4 アクセスポイント
5 言語変換サーバ
10 ヘッドセット
11 第1メインマイク
12 第2メインマイク
13 サブマイク
14 骨伝導スピーカー
15 制御ユニット
16 ケーブル
17 マイク収容部
18 接続部材
19 本体部
20 情報端末
21 第1通信部
22 第2通信部
23 表示部
24 操作部
25 記憶部
26 制御部
31 通信部
32 記憶部
33 制御部
151 音声処理部
152 通信部
153 制御部
261 テキスト変換部
262 処理部
331 翻訳制御部
332 言語変換部
DESCRIPTION OF SYMBOLS 1 Headset 2 Information terminal 3 Translation apparatus 4 Access point 5 Language conversion server 10 Headset 11 1st main microphone 12 2nd main microphone 13 Sub microphone 14 Bone conduction speaker 15 Control unit 16 Cable 17 Microphone accommodating part 18 Connection member 19 Main part 20 information terminal 21 first communication unit 22 second communication unit 23 display unit 24 operation unit 25 storage unit 26 control unit 31 communication unit 32 storage unit 33 control unit 151 voice processing unit 152 communication unit 153 control unit 261 text conversion unit 262 processing Unit 331 Translation control unit 332 Language conversion unit

Claims (16)

第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備え、
前記第1ユーザ端末は、
第1言語の音声の入力を受ける音声入力部と、
前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータを前記翻訳装置に送信する端末送信部と、
前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、
前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、
を有し、
前記翻訳装置は、
前記第1ユーザが使用する第1言語と、前記第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザ端末から前記第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信し、前記言語変換部が、前記第2ユーザ端末において入力された前記第2言語の言語情報を前記第1言語翻訳データに変換した場合に、前記再翻訳データの送信を中止して前記第1言語翻訳データを送信する装置送信部と、
を有し、
前記音声出力部は、前記音声入力部が前記第1言語の音声の入力を受けている間に前記装置送信部が送信した前記再翻訳データを出力する、翻訳システム。
A first user terminal used by a first user, and a translation device capable of communicating with the first user terminal;
The first user terminal is
A voice input unit for receiving voice input in a first language;
A terminal transmitter for transmitting, to the translation device, first language text data obtained by converting the voice of the first language received by the voice input unit;
A terminal receiving unit for receiving, from the translation device, first language translation data in which the language information of the second language input in the second user terminal used by the second user is translated into the first language;
A voice output unit that outputs the first language voice converted from the first language translation data received by the terminal receiver;
Have
The translation device includes:
A specifying unit for specifying a first language used by the first user and a second language used by the second user;
A device receiver for receiving the first language text data from the first user terminal;
A language conversion unit that converts the first language text data received by the device reception unit into second language translation data, and converts the second language translation data into the first language to generate retranslation data ;
The second language translation data is transmitted to the second user terminal and the retranslation data is transmitted to the first user terminal, and the language conversion unit is input at the second user terminal. A device transmission unit that stops transmission of the retranslation data and transmits the first language translation data when language information of a language is converted into the first language translation data ;
I have a,
The speech output unit outputs the retranslation data transmitted by the device transmission unit while the speech input unit receives speech of the first language .
第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備え、
前記第1ユーザ端末は、
第1言語の音声の入力を受ける音声入力部と、
前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータを前記翻訳装置に送信する端末送信部と、
前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、
前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、
を有し、
前記翻訳装置は、
前記第1ユーザが使用する第1言語と、前記第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザ端末から前記第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信し、前記再翻訳データを前記第1ユーザ端末に送信した後に、前記装置受信部が所定の単語を含む前記第1言語テキストデータを受信した場合に、前記第2ユーザ端末への前記第2言語翻訳データの送信を中止する装置送信部と、
を有し、
前記音声出力部は、前記音声入力部が前記第1言語の音声の入力を受けている間に前記装置送信部が送信した前記再翻訳データを出力する、翻訳システム。
A first user terminal used by a first user, and a translation device capable of communicating with the first user terminal;
The first user terminal is
A voice input unit for receiving voice input in a first language;
A terminal transmitter for transmitting, to the translation device, first language text data obtained by converting the voice of the first language received by the voice input unit;
A terminal receiving unit for receiving, from the translation device, first language translation data in which the language information of the second language input in the second user terminal used by the second user is translated into the first language;
A voice output unit that outputs the first language voice converted from the first language translation data received by the terminal receiver;
Have
The translation device includes:
A specifying unit for specifying a first language used by the first user and a second language used by the second user;
A device receiver for receiving the first language text data from the first user terminal;
A language conversion unit that converts the first language text data received by the device reception unit into second language translation data, and converts the second language translation data into the first language to generate retranslation data ;
The second language translation data is transmitted to the second user terminal, the retranslation data is transmitted to the first user terminal, and the retranslation data is transmitted to the first user terminal. A device transmitting unit for stopping transmission of the second language translation data to the second user terminal when the unit receives the first language text data including a predetermined word ;
I have a,
The speech output unit outputs the retranslation data transmitted by the device transmission unit while the speech input unit receives speech of the first language .
第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備え、
前記第1ユーザ端末は、
第1言語の音声の入力を受ける音声入力部と、
前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータを前記翻訳装置に送信する端末送信部と、
前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、
前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、
を有し、
前記翻訳装置は、
前記第1ユーザが使用する第1言語と、前記第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザ端末から前記第1言語テキストデータを受信し、かつ前記第2ユーザ端末から第2言語の音声が変換された第2言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記装置受信部が受信した前記第2言語の前記第2言語テキストデータを第1言語翻訳データに変換する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信し、かつ前記第1言語翻訳データを送信している間に、前記言語変換部が新たな前記第1言語翻訳データの生成を終了すると、送信中の前記第1言語翻訳データの送信を中止して、新たな前記第1言語翻訳データの送信を開始する装置送信部と、
を有する翻訳システム。
A first user terminal used by a first user, and a translation device capable of communicating with the first user terminal;
The first user terminal is
A voice input unit for receiving voice input in a first language;
A terminal transmitter for transmitting, to the translation device, first language text data obtained by converting the voice of the first language received by the voice input unit;
A terminal receiving unit for receiving, from the translation device, first language translation data in which the language information of the second language input in the second user terminal used by the second user is translated into the first language;
A voice output unit that outputs the first language voice converted from the first language translation data received by the terminal receiver;
Have
The translation device includes:
A specifying unit for specifying a first language used by the first user and a second language used by the second user;
An apparatus receiving unit that receives the first language text data from the first user terminal and receives second language text data obtained by converting a second language voice from the second user terminal ;
The first language text data received by the device receiver is converted into second language translation data, and the second language text data of the second language received by the device receiver is converted into first language translation data. A language conversion unit,
While the second language translation data is transmitted to the second user terminal and the first language translation data is being transmitted, the language conversion unit finishes generating new first language translation data Then, an apparatus transmission unit that stops transmission of the first language translation data being transmitted and starts transmission of new first language translation data ;
Translation system having
第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備え、
前記第1ユーザ端末は、
第1言語の音声の入力を受ける音声入力部と、
前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータと、前記第1言語テキストデータに関連付けて、前記第1ユーザと異なる第2ユーザを特定するためのユーザ特定情報とを前記翻訳装置に送信する端末送信部と、
前記翻訳装置から、前記第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、
前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、
を有し、
前記翻訳装置は、
前記第1ユーザが使用する第1言語を特定し、かつ複数のユーザそれぞれが使用する言語を複数のユーザに関連付けて記憶する記憶部を参照することにより、前記端末送信部が送信した前記ユーザ特定情報が示す前記第2ユーザに関連付けて前記記憶部に記憶された、前記第2ユーザが使用する第2言語を特定する特定部と、
前記第1ユーザ端末から前記第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、
を有する翻訳システム。
A first user terminal used by a first user, and a translation device capable of communicating with the first user terminal;
The first user terminal is
A voice input unit for receiving voice input in a first language;
User specification for specifying a second language different from the first user in association with the first language text data obtained by converting the first language voice received by the voice input unit and the first language text data A terminal transmission unit for transmitting information to the translation device;
From said translation device, and a terminal receiving section that receives a first language translation data language information of the second language is translated into the first language entered in the second user terminal that the second user uses,
A voice output unit that outputs the first language voice converted from the first language translation data received by the terminal receiver;
Have
The translation device includes:
The user identification transmitted by the terminal transmission unit by identifying a first language used by the first user and referring to a storage unit that stores a language used by each of the plurality of users in association with the plurality of users. A specifying unit for specifying a second language used by the second user, stored in the storage unit in association with the second user indicated by the information ;
A device receiver for receiving the first language text data from the first user terminal;
A language converter that converts the first language text data received by the device receiver into second language translation data;
A device transmission unit for transmitting the second language translation data to the second user terminal;
Translation system having
第1ユーザが使用する第1ユーザ端末と、前記第1ユーザ端末と通信可能な翻訳装置と、を備え、
前記第1ユーザ端末は、
第1言語の音声の入力を受ける音声入力部と、
前記音声入力部が受けた前記第1言語の音声が変換された第1言語テキストデータを前記翻訳装置に送信する端末送信部と、
前記翻訳装置から、第2ユーザが使用する第2ユーザ端末において入力された第2言語の言語情報が前記第1言語に翻訳された第1言語翻訳データを受信する端末受信部と、
前記端末受信部が受信した前記第1言語翻訳データが変換された前記第1言語の音声を出力する音声出力部と、
を有し、
前記翻訳装置は、
前記第1ユーザが使用する第1言語を特定し、かつ前記第1言語テキストデータに含まれる単語に基づいて前記第2ユーザが使用する第2言語を特定する特定部と、
前記第1ユーザ端末から前記第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、
を有する翻訳システム。
A first user terminal used by a first user, and a translation device capable of communicating with the first user terminal;
The first user terminal is
A voice input unit for receiving a first language voice;
A terminal transmitter for transmitting, to the translation device, first language text data obtained by converting the voice of the first language received by the voice input unit;
A terminal receiving unit for receiving, from the translation device, first language translation data in which the language information of the second language input in the second user terminal used by the second user is translated into the first language;
A voice output unit that outputs the first language voice converted from the first language translation data received by the terminal receiver;
Have
The translation device includes:
A specifying unit for specifying a first language used by the first user and specifying a second language used by the second user based on a word included in the first language text data ;
A device receiver for receiving the first language text data from the first user terminal;
A language converter that converts the first language text data received by the device receiver into second language translation data;
A device transmission unit for transmitting the second language translation data to the second user terminal;
Translation system having
前記音声出力部は骨伝導スピーカーを有し、前記音声入力部が前記第1言語の音声の入力を受けている間に、前記骨伝導スピーカーから前記第1言語の音声を出力する、
請求項1から5のいずれか一項に記載の翻訳システム。
The voice output unit has a bone conduction speaker, and the voice input unit outputs the voice of the first language from the bone conduction speaker while receiving the voice of the first language.
The translation system according to any one of claims 1 to 5.
翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、
第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、
前記第1ユーザ端末が前記第1言語の音声を第1言語テキストデータに変換し、変換した前記第1言語テキストデータを前記翻訳装置に送信するステップと、
前記翻訳装置が前記第1言語テキストデータを第2言語翻訳データに変換するステップと、
前記翻訳装置が前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成するステップと、
前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末に前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信するステップと、
前記第2ユーザ端末が、前記第2言語翻訳データが変換された前記第2言語の音声を出力するステップと、
前記第1ユーザ端末が、前記第1言語の音声の入力を受けている間に前記再翻訳データを出力するステップと、
前記翻訳装置が、前記再翻訳データを前記第1ユーザ端末に送信するステップにおいて、前記第2ユーザ端末において入力された前記第2言語の言語情報を第1言語翻訳データに変換した場合に、前記再翻訳データの送信を中止して前記第1言語翻訳データを送信するステップと、
を有する翻訳方法。
A step of the translation device identifying a first language used by the first user and a second language used by the second user;
A first user terminal used by a first user receiving an input of a voice in a first language;
The first user terminal converting the speech of the first language into first language text data, and transmitting the converted first language text data to the translation device;
The translation device converting the first language text data into second language translation data ;
The translation device converting the second language translation data into the first language to generate retranslation data;
The translation device transmitting the second language translation data to a second user terminal used by the second user and transmitting the retranslation data to the first user terminal;
The second user terminal outputting the second language speech in which the second language translation data is converted;
The first user terminal outputting the retranslation data while receiving input of the voice in the first language;
In the step of transmitting the retranslation data to the first user terminal, the translation device converts the language information of the second language input at the second user terminal into first language translation data. Discontinuing transmission of retranslation data and transmitting the first language translation data;
A translation method comprising:
翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、
第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、
前記第1ユーザ端末が前記第1言語の音声を第1言語テキストデータに変換し、変換した前記第1言語テキストデータを前記翻訳装置に送信するステップと、
前記翻訳装置が前記第1言語テキストデータを第2言語翻訳データに変換するステップと、
前記翻訳装置が前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成するステップと、
前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末に前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信するステップと、
前記第2ユーザ端末が、前記第2言語翻訳データが変換された前記第2言語の音声を出力するステップと、
前記第1ユーザ端末が、前記第1言語の音声の入力を受けている間に前記再翻訳データを出力するステップと、
前記翻訳装置が、前記再翻訳データを前記第1ユーザ端末に送信するステップにおいて、前記再翻訳データを前記第1ユーザ端末に送信した後に、所定の単語を含む前記第1言語テキストデータを受信した場合に、前記第2ユーザ端末への前記第2言語翻訳データの送信を中止するステップと、
を有する翻訳方法。
A step of the translation device identifying a first language used by the first user and a second language used by the second user;
A first user terminal used by a first user receiving an input of a voice in a first language;
The first user terminal converting the speech of the first language into first language text data, and transmitting the converted first language text data to the translation device;
The translation device converting the first language text data into second language translation data ;
The translation device converting the second language translation data into the first language to generate retranslation data;
The translation device transmitting the second language translation data to a second user terminal used by the second user and transmitting the retranslation data to the first user terminal ;
The second user terminal outputting the second language speech in which the second language translation data is converted;
The first user terminal outputting the retranslation data while receiving input of the voice in the first language;
In the step of transmitting the retranslation data to the first user terminal, the translation device receives the first language text data including a predetermined word after transmitting the retranslation data to the first user terminal. A step of stopping transmission of the second language translation data to the second user terminal,
A translation method comprising:
翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、
第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、
前記第1ユーザ端末が前記第1言語の音声を第1言語テキストデータに変換し、変換した前記第1言語テキストデータを前記翻訳装置に送信するステップと、
前記翻訳装置が、前記第1ユーザ端末から前記第1言語テキストデータを受信するステップと、
前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末から第2言語の音声が変換された第2言語テキストデータを受信するステップと、
前記翻訳装置が前記第1言語テキストデータを第2言語翻訳データに変換するステップと、
前記翻訳装置が、受信した前記第2言語の前記第2言語テキストデータを第1言語翻訳データに変換するステップと、
前記翻訳装置が、前記第2ユーザ端末に前記第2言語翻訳データを送信するステップと、
前記第2ユーザ端末が、前記第2言語翻訳データが変換された前記第2言語の音声を出力するステップと、
前記翻訳装置が、前記第1言語翻訳データを送信している間に新たな前記第1言語翻訳データの生成を終了すると、送信中の前記第1言語翻訳データの送信を中止して、新たな前記第1言語翻訳データの送信を開始するステップと、
を有する翻訳方法。
A step of the translation device identifying a first language used by the first user and a second language used by the second user;
A first user terminal used by a first user receiving an input of a voice in a first language;
The first user terminal converting the speech of the first language into first language text data, and transmitting the converted first language text data to the translation device;
The translating device receiving the first language text data from the first user terminal;
Receiving the second language text data obtained by converting the second language speech from the second user terminal used by the second user;
Said translation device, and converting the first language text data to a second language translation data,
The translation device converting the received second language text data of the second language into first language translation data;
A step wherein the translation device, for transmitting the second language translation data to the second user terminal,
The second user terminal outputting the second language speech in which the second language translation data is converted;
When the translation device finishes generating the new first language translation data while transmitting the first language translation data, it stops transmitting the first language translation data being transmitted and Starting transmission of the first language translation data;
A translation method comprising:
翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、
第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、
前記第1ユーザ端末が前記第1言語の音声を第1言語テキストデータに変換し、変換した前記第1言語テキストデータを前記翻訳装置に送信するステップと、
前記第1ユーザ端末が、前記第1言語テキストデータに関連付けて、前記第2ユーザを特定するためのユーザ特定情報を送信するステップと、
前記翻訳装置が前記第1言語テキストデータを第2言語翻訳データに変換するステップと、
前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末に前記第2言語翻訳データを送信するステップと、
前記第2ユーザ端末が、前記第2言語翻訳データが変換された前記第2言語の音声を出力するステップと、
を有し、
前記翻訳装置が、第2言語を特定するステップにおいて、複数のユーザそれぞれが使用する言語を複数のユーザに関連付けて記憶する記憶部を参照することにより、前記第1ユーザ端末が送信した前記ユーザ特定情報が示す前記第2ユーザに関連付けて前記記憶部に記憶された、前記第2ユーザが使用する第2言語を特定する翻訳方法。
A step of the translation device identifying a first language used by the first user and a second language used by the second user;
A first user terminal used by a first user receiving an input of a voice in a first language;
The first user terminal converting the speech of the first language into first language text data, and transmitting the converted first language text data to the translation device;
The first user terminal transmitting user specifying information for specifying the second user in association with the first language text data;
The translation device converting the first language text data into second language translation data ;
The translation device transmitting the second language translation data to a second user terminal used by the second user;
The second user terminal outputting the second language speech in which the second language translation data is converted;
I have a,
In the step of specifying the second language, the translation device refers to the storage unit that stores the language used by each of the plurality of users in association with the plurality of users, whereby the user identification transmitted by the first user terminal A translation method for identifying a second language used by the second user, stored in the storage unit in association with the second user indicated by the information .
翻訳装置が、第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語を特定するステップと、
第1ユーザが使用する第1ユーザ端末が第1言語の音声の入力を受けるステップと、
前記第1ユーザ端末が前記第1言語の音声を第1言語テキストデータに変換し、変換した前記第1言語テキストデータを前記翻訳装置に送信するステップと、
前記翻訳装置が前記第1言語テキストデータを第2言語翻訳データに変換するステップと、
前記翻訳装置が、前記第2ユーザが使用する第2ユーザ端末に前記第2言語翻訳データを送信するステップと、
前記第2ユーザ端末が、前記第2言語翻訳データが変換された前記第2言語の音声を出力するステップと、
を有し、
前記翻訳装置が、第2言語を特定するステップにおいて、前記第1言語テキストデータに含まれる単語に基づいて前記第2ユーザが使用する第2言語を特定する翻訳方法。
A step of the translation device identifying a first language used by the first user and a second language used by the second user;
A first user terminal used by a first user receiving an input of a voice in a first language;
The first user terminal converting the speech of the first language into first language text data, and transmitting the converted first language text data to the translation device;
The translation device converting the first language text data into second language translation data ;
The translation device transmitting the second language translation data to a second user terminal used by the second user;
The second user terminal outputting the second language speech in which the second language translation data is converted;
I have a,
The translation method in which the translation device identifies a second language used by the second user based on a word included in the first language text data in the step of identifying a second language .
第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成する言語変換部と、
前記第2ユーザが使用する第2ユーザ端末に対して前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信し、前記言語変換部が前記第2ユーザ端末において入力された前記第2言語の言語情報を第1言語翻訳データに変換した場合に、前記再翻訳データの送信を中止して前記第1言語翻訳データを送信する装置送信部と、
を有する翻訳装置。
A specifying unit that specifies the first language used by the first user and the second language used by the second user;
An apparatus receiving unit for receiving first language text data obtained by converting voice of the first language from a first user terminal used by the first user;
A language conversion unit that converts the first language text data received by the device reception unit into second language translation data, and converts the second language translation data into the first language to generate retranslation data ;
The second language translation data is transmitted to the second user terminal used by the second user and the retranslation data is transmitted to the first user terminal, and the language conversion unit inputs the second user terminal at the second user terminal. An apparatus transmitting unit for stopping transmission of the retranslation data and transmitting the first language translation data when the language information of the second language is converted into first language translation data ;
A translation apparatus.
第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記第2言語翻訳データを前記第1言語に変換して再翻訳データを生成する言語変換部と、
前記第2ユーザが使用する第2ユーザ端末に対して前記第2言語翻訳データを送信するとともに前記再翻訳データを前記第1ユーザ端末に送信し、前記再翻訳データを前記第1ユーザ端末に送信した後に、前記装置受信部が所定の単語を含む前記第1言語テキストデータを受信した場合に、前記第2ユーザ端末への前記第2言語翻訳データの送信を中止する装置送信部と、
を有する翻訳装置。
A specifying unit that specifies the first language used by the first user and the second language used by the second user;
An apparatus receiving unit for receiving first language text data obtained by converting voice of the first language from a first user terminal used by the first user;
A language conversion unit that converts the first language text data received by the device reception unit into second language translation data, and converts the second language translation data into the first language to generate retranslation data ;
The second language translation data is transmitted to a second user terminal used by the second user, the retranslation data is transmitted to the first user terminal, and the retranslation data is transmitted to the first user terminal. After that, when the device reception unit receives the first language text data including a predetermined word, a device transmission unit that stops transmission of the second language translation data to the second user terminal ,
A translation apparatus.
第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信し、かつ前記第2ユーザが使用する第2ユーザ端末から第2言語の音声が変換された第2言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換し、かつ前記装置受信部が受信した前記第2言語の前記第2言語テキストデータを第1言語翻訳データに変換する言語変換部と、
前記第2ユーザ端末に対して前記第2言語翻訳データを送信し、かつ前記第1言語翻訳データを送信している間に、前記言語変換部が新たな前記第1言語翻訳データの生成を終了すると、送信中の前記第1言語翻訳データの送信を中止して、新たな前記第1言語翻訳データの送信を開始する装置送信部と、
を有する翻訳装置。
A specifying unit that specifies the first language used by the first user and the second language used by the second user;
The first language text data converted from the first language voice is received from the first user terminal used by the first user , and the second language voice is received from the second user terminal used by the second user. A device receiving unit for receiving the second language text data converted from ;
The first language text data received by the device receiver is converted into second language translation data, and the second language text data of the second language received by the device receiver is converted into first language translation data. A language conversion unit,
While the second language translation data is transmitted to the second user terminal and the first language translation data is being transmitted, the language conversion unit finishes generating new first language translation data Then, an apparatus transmission unit that stops transmission of the first language translation data being transmitted and starts transmission of new first language translation data ;
A translation apparatus.
第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、
前記第2ユーザが使用する第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、
を有し、
前記特定部は、複数のユーザそれぞれが使用する言語を複数のユーザに関連付けて記憶する記憶部を参照することにより、前記第1ユーザが使用する第1ユーザ端末から受信したユーザ特定情報が示す前記第2ユーザに関連付けて前記記憶部に記憶された、前記第2ユーザが使用する第2言語を特定する翻訳装置。
A specifying unit that specifies the first language used by the first user and the second language used by the second user;
An apparatus receiving unit for receiving first language text data obtained by converting voice of the first language from a first user terminal used by the first user;
A language converter that converts the first language text data received by the device receiver into second language translation data;
An apparatus transmitting unit for transmitting the second language translation data to a second user terminal used by the second user;
I have a,
The specifying unit refers to a storage unit that stores a language used by each of the plurality of users in association with the plurality of users, thereby indicating the user specifying information received from the first user terminal used by the first user. A translation device that identifies a second language used by the second user and stored in the storage unit in association with the second user .
第1ユーザが使用する第1言語と、第2ユーザが使用する第2言語とを特定する特定部と、
前記第1ユーザが使用する第1ユーザ端末から、前記第1言語の音声が変換された第1言語テキストデータを受信する装置受信部と、
前記装置受信部が受信した前記第1言語テキストデータを第2言語翻訳データに変換する言語変換部と、
前記第2ユーザが使用する第2ユーザ端末に対して前記第2言語翻訳データを送信する装置送信部と、
を有し、
前記特定部は、前記第1言語テキストデータに含まれる単語に基づいて前記第2ユーザが使用する第2言語を特定する翻訳装置。
A specifying unit that specifies the first language used by the first user and the second language used by the second user;
An apparatus receiving unit for receiving first language text data obtained by converting voice of the first language from a first user terminal used by the first user;
A language converter that converts the first language text data received by the device receiver into second language translation data;
An apparatus transmitting unit for transmitting the second language translation data to a second user terminal used by the second user;
I have a,
The translation unit is a translation device that identifies a second language used by the second user based on a word included in the first language text data .
JP2018545518A 2018-03-26 2018-03-26 Translation system, translation method, and translation apparatus Active JP6457706B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/012098 WO2019186639A1 (en) 2018-03-26 2018-03-26 Translation system, translation method, translation device, and speech input/output device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018238284A Division JP2019175426A (en) 2018-12-20 2018-12-20 Translation system, translation method, translation device, and voice input/output device

Publications (2)

Publication Number Publication Date
JP6457706B1 true JP6457706B1 (en) 2019-02-06
JPWO2019186639A1 JPWO2019186639A1 (en) 2020-04-30

Family

ID=65270550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545518A Active JP6457706B1 (en) 2018-03-26 2018-03-26 Translation system, translation method, and translation apparatus

Country Status (3)

Country Link
JP (1) JP6457706B1 (en)
TW (1) TWI695281B (en)
WO (1) WO2019186639A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110457716A (en) * 2019-07-22 2019-11-15 维沃移动通信有限公司 A kind of speech output method and mobile terminal

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476040A (en) * 2020-03-27 2020-07-31 深圳光启超材料技术有限公司 Language output method, head-mounted device, storage medium, and electronic device
CN111696552B (en) * 2020-06-05 2023-09-22 北京搜狗科技发展有限公司 Translation method, translation device and earphone

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060332A (en) * 2013-09-18 2015-03-30 株式会社東芝 Voice translation system, method of voice translation and program
JP2017038911A (en) * 2015-03-16 2017-02-23 和弘 谷口 Ear-worn device
JP2017083583A (en) * 2015-10-26 2017-05-18 日本電信電話株式会社 Noise suppression device, method therefore, and program
JP2017126042A (en) * 2016-01-15 2017-07-20 シャープ株式会社 Communication support system, communication support method, and program
WO2018008227A1 (en) * 2016-07-08 2018-01-11 パナソニックIpマネジメント株式会社 Translation device and translation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077601A (en) * 2006-09-25 2008-04-03 Toshiba Corp Machine translation device, machine translation method and machine translation program
JP4481972B2 (en) * 2006-09-28 2010-06-16 株式会社東芝 Speech translation device, speech translation method, and speech translation program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060332A (en) * 2013-09-18 2015-03-30 株式会社東芝 Voice translation system, method of voice translation and program
JP2017038911A (en) * 2015-03-16 2017-02-23 和弘 谷口 Ear-worn device
JP2017083583A (en) * 2015-10-26 2017-05-18 日本電信電話株式会社 Noise suppression device, method therefore, and program
JP2017126042A (en) * 2016-01-15 2017-07-20 シャープ株式会社 Communication support system, communication support method, and program
WO2018008227A1 (en) * 2016-07-08 2018-01-11 パナソニックIpマネジメント株式会社 Translation device and translation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110457716A (en) * 2019-07-22 2019-11-15 维沃移动通信有限公司 A kind of speech output method and mobile terminal
CN110457716B (en) * 2019-07-22 2023-06-06 维沃移动通信有限公司 Voice output method and mobile terminal

Also Published As

Publication number Publication date
JPWO2019186639A1 (en) 2020-04-30
TW201941084A (en) 2019-10-16
WO2019186639A1 (en) 2019-10-03
TWI695281B (en) 2020-06-01

Similar Documents

Publication Publication Date Title
JP2019175426A (en) Translation system, translation method, translation device, and voice input/output device
KR102108500B1 (en) Supporting Method And System For communication Service, and Electronic Device supporting the same
JP5701916B2 (en) Method and system for writing a telephone conversation into text
KR100804855B1 (en) Method and apparatus for a voice controlled foreign language translation device
KR101861006B1 (en) Device and method of translating a language into another language
US10872605B2 (en) Translation device
US20150081274A1 (en) System and method for translating speech, and non-transitory computer readable medium thereof
US20050261890A1 (en) Method and apparatus for providing language translation
JP6457706B1 (en) Translation system, translation method, and translation apparatus
JP6165321B2 (en) Apparatus and method
KR102056330B1 (en) Apparatus for interpreting and method thereof
WO2018209102A2 (en) Smart sound devices and language translation system
JP2021150946A (en) Wireless earphone device and method for using the same
JP3820245B2 (en) Three-way call automatic interpretation system and method
KR101517975B1 (en) Earphone apparatus with synchronous interpretating and translating function
CN111783481A (en) Earphone control method, translation method, earphone and cloud server
KR20080054591A (en) Method for communicating voice in wireless terminal
JP2014186713A (en) Conversation system and conversation processing method thereof
WO2021080362A1 (en) Language processing system using earset
JP3225682U (en) Voice translation terminal, mobile terminal and translation system
WO2006001204A1 (en) Automatic translation device and automatic translation method
KR100747689B1 (en) Voice-Recognition Word Conversion System
KR20220099083A (en) System, user device and method for providing automatic interpretation service based on speaker separation
KR102181583B1 (en) System for voice recognition of interactive robot and the method therof
CN211319717U (en) Accessory for language interaction, mobile terminal and interaction system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180829

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180829

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181220

R150 Certificate of patent or registration of utility model

Ref document number: 6457706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250