JP7437356B2 - Method of providing interpretation function of electronic device and ear-set device - Google Patents

Method of providing interpretation function of electronic device and ear-set device Download PDF

Info

Publication number
JP7437356B2
JP7437356B2 JP2021121707A JP2021121707A JP7437356B2 JP 7437356 B2 JP7437356 B2 JP 7437356B2 JP 2021121707 A JP2021121707 A JP 2021121707A JP 2021121707 A JP2021121707 A JP 2021121707A JP 7437356 B2 JP7437356 B2 JP 7437356B2
Authority
JP
Japan
Prior art keywords
earset
language
interpretation
mode
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021121707A
Other languages
Japanese (ja)
Other versions
JP2021177418A (en
Inventor
ジュンヒョン パク
シヨン パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2021177418A publication Critical patent/JP2021177418A/en
Application granted granted Critical
Publication of JP7437356B2 publication Critical patent/JP7437356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Telephone Function (AREA)
  • Machine Translation (AREA)
  • Headphones And Earphones (AREA)

Description

以下の説明は、イヤセットを利用した通訳機能提供方法および装置、コンピュータと結合して本発明の実施形態に係る通訳機能提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体に関する。 The following description describes a method and apparatus for providing an interpreting function using an ear set, and a device that is stored in a computer-readable recording medium in order to cause the computer to execute the method for providing an interpreting function according to an embodiment of the present invention in combination with a computer. related to computer programs and their recording media.

イヤセット(earset)とは、電話機に連結することで手を使わずに通話をするために利用されるイヤホンとマイクを備えた機器であり、例えば、スマートフォンに連結することにより、電話通話はもちろん、音楽のようなオーディオを受信して出力したり、物理的なボタンやセンサ、あるいは音声によってスマートフォンを制御するための多様な制御信号をスマートフォンに提供したりすることができる。例えば、特許文献1では、イヤカーネルマイクが内蔵されたブルートゥース(登録商標)イヤセットを開示している。 An earset is a device equipped with earphones and a microphone that can be used to talk without using your hands by connecting it to a phone.For example, by connecting it to a smartphone, you can make phone calls as well as It can receive and output audio such as music, and provide a variety of control signals to the smartphone to control it through physical buttons, sensors, or voice. For example, Patent Document 1 discloses a Bluetooth (registered trademark) ear set with a built-in ear kernel microphone.

韓国公開特許第10-2017-0030375号公報Korean Publication Patent No. 10-2017-0030375

イヤセットを利用して通訳機能を提供することができる通訳機能提供方法および装置、コンピュータと結合して本発明の実施形態に係る通訳機能提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。 A method and apparatus for providing an interpretation function that can provide an interpretation function using an ear set, and a computer-readable record that can be combined with a computer to cause the computer to execute the method for providing an interpretation function according to an embodiment of the present invention. Provides a computer program stored on a medium and its recording medium.

第1イヤセット機器を通じて入力され電子機器が受信した第1言語の音声を第2言語の音声に変換して第2イヤセット機器に提供し、第2イヤセット機器を通じて入力され電子機器が受信された第2言語の音声を第1言語の音声に変換して第1イヤセット機器に提供することにより、第1イヤセット機器と第2イヤセット機器を含むイヤセットペア(pair)を利用して互いに異なる言語を利用する2人のユーザ間の通訳機能を提供することができる通訳機能提供方法および装置、コンピュータと結合して本発明の実施形態に係る通訳機能提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。 The audio in the first language input through the first ear-set device and received by the electronic device is converted into the audio in the second language and provided to the second ear-set device, and the audio input through the second ear-set device is received by the electronic device. By converting the voice in the second language into the voice in the first language and providing it to the first earset device, the earset pair including the first earset device and the second earset device is used. An interpreter function providing method and apparatus capable of providing an interpreter function between two users using different languages, and a device for causing a computer to execute an interpreter function providing method according to an embodiment of the present invention in combination with a computer. To provide a computer program stored in a computer-readable recording medium and the recording medium.

電子機器の通訳機能提供方法であって、第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号を受信する段階、前記受信したアプリケーション実行信号に対応するアプリケーションを実行する段階、および前記実行されるアプリケーションの制御にしたがい、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを通じて入力されて電子機器が受信した音声に対する他の言語への通訳機能を提供する段階を含む、通訳機能提供方法を提供する。 A method for providing an interpretation function of an electronic device, the method comprising: receiving an application execution signal generated in a first earset device or a second earset device; executing an application corresponding to the received application execution signal; and the steps of: providing an interpretation function into another language for the audio input through at least one of the first earset device and the second earset device and received by the electronic device according to the control of the executed application; Provides a method for providing interpretation functions, including

第1イヤセット機器の通訳機能提供方法であって、前記第1イヤセット機器に入力される第1言語の音声が電子機器で実行されるアプリケーションの通訳機能によって第2言語の音声に変換され、前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器に提供されるように、前記第1言語の音声を前記電子機器に送信する段階、前記第2イヤセット機器に入力されて前記電子機器で受信した第2言語の音声を、前記電子機器が前記実行されたアプリケーションの通訳機能によって第1言語の音声に変換することに応答し、前記電子機器から前記変換された第1言語の音声を受信する段階、および前記受信した第1言語の音声を出力する段階を含む、通訳機能提供方法を提供する。 A method for providing an interpretation function of a first ear-set device, the voice of a first language input to the first ear-set device being converted into a voice of a second language by an interpretation function of an application executed on an electronic device; transmitting audio in the first language to the electronic device so as to be provided to a second earset device forming an earset pair with the first earset device; In response to the electronic device converting a second language voice received by the electronic device into a first language voice using the interpretation function of the executed application, A method for providing an interpretation function is provided, which includes the steps of receiving audio and outputting the received audio in a first language.

前記通訳機能提供方法をコンピュータに実行させるためのコンピュータプログラムが記録されている、コンピュータで読み取り可能な記録媒体を提供する。 A computer-readable recording medium is provided, on which a computer program for causing a computer to execute the interpretation function providing method is recorded.

コンピュータと結合して前記通訳機能提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラムを提供する。 A computer program is provided that is stored in a computer-readable recording medium and is coupled to a computer to cause the computer to execute the method for providing an interpretation function.

第1イヤセット機器であって、音を入力するための音信号入力部、音を出力するための音信号出力部、前記電子機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器と通信するための通信部、および前記音信号入力部、前記音信号出力部、および前記通信部を制御する制御部を備え、前記制御部は、前記音信号入力部を通じて入力される第1言語の音声が、前記電子機器で実行されたアプリケーションの通訳機能にしたがって第2言語の音声に変換されて前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器に提供されるように、前記第1言語の音声を前記電子機器に送信するように前記通信部を制御し、前記第2イヤセット機器に入力されて前記電子機器で受信した第2言語の音声を、前記電子機器が前記実行されるアプリケーションの通訳機能にしたがって第1言語の音声に変換するに応答し、前記電子機器から前記変換された第1言語の音声を受信するように前記通信部を制御し、前記受信した第1言語の音声を出力するように前記音信号出力部を制御する、第1イヤセット機器を提供する。 A first ear set device, comprising a sound signal input section for inputting sound, a sound signal output section for outputting sound, and a second ear set device forming an ear set pair with the electronic device or the first ear set device. A communication unit for communicating with set equipment, and a control unit for controlling the sound signal input unit, the sound signal output unit, and the communication unit, and the control unit includes a communication unit for controlling the sound signal input unit, the sound signal output unit, and the communication unit. Audio in one language is converted into audio in a second language according to an interpretation function of an application executed on the electronic device and provided to a second earset device forming an earset pair with the first earset device. The communication unit is controlled to transmit the audio in the first language to the electronic device, and the audio in the second language input to the second ear set device and received by the electronic device is transmitted to the electronic device. controls the communication unit to receive the converted first language audio from the electronic device in response to converting the audio into a first language audio according to the interpretation function of the executed application; The present invention provides a first earset device that controls the sound signal output unit to output sound in a first language.

イヤセットを利用して通訳機能を提供することができ、第1イヤセット機器と第2イヤセット機器を含むイヤセットペアを利用して互いに異なる言語の2名のユーザ間の通訳機能を提供することができる。 The earset may be used to provide an interpretation function, and an earset pair including a first earset device and a second earset device may be used to provide an interpretation function between two users of different languages. be able to.

通訳機能を利用することにより、第1言語から第2言語に通訳された音声を電話通話の相手に提供することができる。 By using the interpretation function, it is possible to provide the voice interpreted from the first language to the second language to the other party of the telephone conversation.

本発明の一実施形態における、イヤセットを利用した通訳機能提供過程の例を示した図である。FIG. 3 is a diagram illustrating an example of a process of providing an interpretation function using an ear set in an embodiment of the present invention. 本発明の一実施形態における、イヤセットペアの例を示した図である。FIG. 3 is a diagram illustrating an example of an ear set pair in an embodiment of the present invention. 本発明の一実施形態における、イヤセットペアと電子機器の通信例を示した図である。FIG. 3 is a diagram illustrating an example of communication between an ear set pair and an electronic device in an embodiment of the present invention. 本発明の一実施形態における、イヤセットペアと電子機器の他の通信例を示した図である。FIG. 7 is a diagram illustrating another example of communication between an ear set pair and an electronic device in an embodiment of the present invention. 本発明の一実施形態における、電子機器、イヤセット機器、およびサーバの内部構成を説明するためのブロック図である。FIG. 2 is a block diagram for explaining the internal configurations of an electronic device, an ear-set device, and a server in an embodiment of the present invention. 本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。1 is a diagram illustrating an example of a cloud artificial intelligence platform in an embodiment of the present invention. FIG. 本発明の一実施形態における、通訳機能提供方法の例を示したフローチャートである。1 is a flowchart illustrating an example of a method for providing an interpretation function according to an embodiment of the present invention. 本発明の一実施形態における、セルフ通訳および多者間通訳のための通訳機能を提供する例を示したフローチャートである。2 is a flowchart illustrating an example of providing an interpretation function for self-interpretation and multi-party interpretation in an embodiment of the present invention. 本発明の一実施形態における、音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える例を示したフローチャートである。2 is a flowchart illustrating an example of switching from music listening mode or telephone conversation mode to interpretation mode in an embodiment of the present invention. 本発明の一実施形態における、電話通話中に通訳機能を提供する例を示したフローチャートである。2 is a flowchart illustrating an example of providing an interpretation function during a telephone call, according to an embodiment of the present invention. 本発明の一実施形態における、イヤセット機器の通訳機能提供方法の例を示したフローチャートである。2 is a flowchart illustrating an example of a method for providing an interpretation function of an earset device according to an embodiment of the present invention.

以下、実施形態について、添付の図面を参照しながら詳しく説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

本発明の実施形態に係る通訳機能提供方法は、以下で説明される電子機器やイヤセット機器によって実行されてよい。例えば、電子機器やイヤセット機器には、本発明の一実施形態に係るコンピュータプログラムがインストールおよび駆動されてよく、電子機器やイヤセット機器は、駆動するコンピュータプログラムの制御にしたがって本発明の一実施形態に係る通訳機能提供方法を実行してよい。上述したコンピュータプログラムは、コンピュータで実現される電子機器やイヤセット機器と結合して通訳機能提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されてよい。ここで、説明したコンピュータプログラムは、独立する1つのプログラムパッケージの形態であってもよいし、独立する1つのプログラムパッケージの形態が、コンピュータに予めインストールされて駆動するオペレーティングシステムや他のプログラムパッケージと連係する形態であってもよい。 The interpretation function providing method according to the embodiment of the present invention may be executed by an electronic device or an ear-set device described below. For example, a computer program according to an embodiment of the present invention may be installed and driven in an electronic device or an ear-set device, and an electronic device or an ear-set device may implement an embodiment of the present invention under the control of the computer program to be driven. The interpretation function providing method according to the format may be executed. The above-mentioned computer program may be stored in a computer-readable recording medium in order to cause the computer to execute the interpreting function providing method by being combined with an electronic device or an ear-set device implemented by the computer. The computer program described herein may be in the form of an independent program package, or the form of an independent program package may be in the form of an operating system or other program package that is preinstalled on the computer and runs. It may also be in a linked form.

図1は、本発明の一実施形態における、イヤセットを利用した通訳機能提供過程の例を示した図である。図1は、電子機器110、第1イヤセット機器120、および第2イヤセット機器130を示しており、第1ユーザ140が第1イヤセット機器120を右耳に、第2ユーザ150が第2イヤセット機器130を左耳にそれぞれ着用した例を示している。ここで、第1ユーザ140は第1言語を使用し、第2ユーザ150は第2言語を使用すると仮定する。 FIG. 1 is a diagram illustrating an example of the process of providing an interpretation function using an ear set according to an embodiment of the present invention. FIG. 1 shows an electronic device 110, a first ear-set device 120, and a second ear-set device 130, in which a first user 140 puts the first ear-set device 120 in his right ear, and a second user 150 puts the first ear-set device 120 in his right ear. An example is shown in which the ear set device 130 is worn on each left ear. Here, it is assumed that the first user 140 uses the first language and the second user 150 uses the second language.

このとき、第1ユーザ140が発話する第1言語の音声は、第1イヤセット機器120が含むマイクのような音信号入力部に入力されてよく、第1イヤセット機器120は、入力された第1言語の音声を電子機器110に送信してよい。この場合、電子機器110は、電子機器110にインストールされたアプリケーションの通訳機能を利用し、受信した第1言語の音声を第2言語の音声に変換して第2イヤセット機器130に提供してよい。このとき、第2イヤセット機器130は、提供された第2言語の音声を第2イヤセット機器130が含むスピーカ(イヤホン)のような音信号出力部を通じて出力してよい。したがって、第2ユーザ150は、第1ユーザ140が発話する第1言語の音声を、第2言語に通訳された音声で聞くことができるようになる。 At this time, the sound of the first language uttered by the first user 140 may be input to a sound signal input unit such as a microphone included in the first earset device 120, and the first earset device 120 The audio in the first language may be transmitted to the electronic device 110. In this case, the electronic device 110 uses the interpretation function of the application installed on the electronic device 110 to convert the received first language voice into a second language voice and provide the second language voice to the second ear set device 130. good. At this time, the second ear set device 130 may output the provided sound in the second language through a sound signal output unit such as a speaker (earphone) included in the second ear set device 130. Therefore, the second user 150 can listen to the voice in the first language uttered by the first user 140 translated into the second language.

また、第2ユーザ150が発話する第2言語の音声は、第2イヤセット機器130が含むマイクのような音信号入力部に入力されてよく、第2イヤセット機器130は、入力された第2言語の音声を電子機器110に送信してよい。この場合、電子機器110は、電子機器110にインストールされたアプリケーションの通訳機能を利用し、受信した第2言語の音声を第1言語の音声に変換して第1イヤセット機器120に提供してよい。このとき、第1イヤセット機器120は、提供された第1言語の音声を第1イヤセット機器120が含むスピーカ(イヤホン)のような音信号出力部を通じて出力してよい。したがって、第1ユーザ140は、第2ユーザ150が発話する第2言語の音声を、第1言語に通訳された音声で聞くことができるようになる。 Further, the second language voice uttered by the second user 150 may be input to a sound signal input unit such as a microphone included in the second ear set device 130, and the second ear set device 130 may input the second language voice uttered by the second user 150. Audio in two languages may be transmitted to electronic device 110. In this case, the electronic device 110 uses the interpretation function of the application installed on the electronic device 110 to convert the received second language voice into the first language voice and provide it to the first ear set device 120. good. At this time, the first ear set device 120 may output the provided sound in the first language through a sound signal output unit such as a speaker (earphone) included in the first ear set device 120 . Therefore, the first user 140 can listen to the second language voice uttered by the second user 150 as a voice translated into the first language.

このように、図1の実施形態によると、1つのイヤセットペアをなす第1イヤセット機器120と第2イヤセット機器130を利用して多者間通訳の機能を提供することができる。 As described above, according to the embodiment of FIG. 1, the first earset device 120 and the second earset device 130 forming one earset pair can be used to provide a multi-party interpretation function.

図1の実施形態とは異なる実施形態において、第1ユーザ140が第1イヤセット機器120と第2イヤセット機器130をそれぞれ両耳に着用している場合が考慮されることもある。この場合、第1ユーザ140が発話する第1言語の音声は、第1イヤセット機器120と第2イヤセット機器130のうちの少なくとも1つを通じて入力されて電子機器110に送信されてよい。このとき、電子機器110は、電子機器110にインストールされたアプリケーションの通訳機能を利用し、受信した第1言語の音声を第2言語の音声に変換して第1イヤセット機器120と第2イヤセット機器130のうちの少なくとも1つに送信してよい。このとき、第1イヤセット機器120および/または第2イヤセット機器130は、第2言語に変換された音声を出力してよく、第1ユーザ140は、自身が第1言語で発話した音声を通訳した第2言語の音声を聞くことができるようになる。このように、図1の実施形態とは異なり、本発明の他の実施形態では、セルフ通訳のための機能を提供することも可能である。 In an embodiment different from the embodiment of FIG. 1, a case may be considered in which the first user 140 is wearing the first earset device 120 and the second earset device 130 on both ears, respectively. In this case, the audio of the first language uttered by the first user 140 may be input through at least one of the first ear-set device 120 and the second ear-set device 130 and transmitted to the electronic device 110 . At this time, the electronic device 110 uses the interpretation function of the application installed on the electronic device 110 to convert the received voice in the first language into the voice in the second language, and connects the first ear set device 120 and the second ear set device 120 to the second language voice. The information may be transmitted to at least one of the set devices 130. At this time, the first earset device 120 and/or the second earset device 130 may output the audio converted into the second language, and the first user 140 may output the audio that he or she uttered in the first language. You will be able to listen to the translated second language audio. Thus, unlike the embodiment of FIG. 1, other embodiments of the invention may also provide functionality for self-interpretation.

多者間通訳のための機能とセルフ通訳のための機能は、電子機器110にインストールされたアプリケーションでモードを変更することによってそれぞれ提供されてよい。例えば、アプリケーションは、多者間通訳モードとセルフ通訳モードのうちの1つを設定することができるユーザインタフェースを提供するように電子機器110を制御してよく、提供されたユーザインタフェースを利用することで、ユーザが多者間通訳モードとセルフ通訳モードのうちの1つを直接設定してよい。あるいは、このようなモードの設定は、第1イヤセット機器120および第2イヤセット機器130のうちの少なくとも1つが含む物理的なボタンに対する入力によってなされてもよい。また他の例として、モードの設定は、第1イヤセット機器120および第2イヤセット機器130に入力される音声を分析してなされてもよい。例えば、第1イヤセット機器120と第2イヤセット機器130それぞれに入力される音声のピッチや大きさなどが類似する場合にはセルフ通訳モードが設定されてよく、第1イヤセット機器120と第2イヤセット機器130それぞれに入力される音声のピッチや大きさなどが全く異なる場合には多者間通訳モードが設定されてよい。 The function for multi-party interpretation and the function for self-interpretation may be provided by changing the mode in an application installed on the electronic device 110, respectively. For example, the application may control the electronic device 110 to provide a user interface that can configure one of a multiparty interpretation mode and a self-interpretation mode, and utilize the provided user interface. , the user may directly set one of the multi-party interpretation mode and the self-interpretation mode. Alternatively, setting such a mode may be performed by inputting to a physical button included in at least one of the first earset device 120 and the second earset device 130. As another example, the mode may be set by analyzing audio input to the first ear-set device 120 and the second ear-set device 130. For example, if the pitch and volume of the voices input to the first ear-set device 120 and the second ear-set device 130 are similar, the self-interpretation mode may be set, and the first ear-set device 120 and the second ear-set device If the pitches, loudness, etc. of voices input to the two ear-set devices 130 are completely different, a multi-party interpretation mode may be set.

図2は、本発明の一実施形態における、イヤセットペアの例を示した図である。本実施形態に係るイヤセットペアは、図2に示すように、第1イヤセット機器120と第2イヤセット機器130を含んでいる。図1および図2の実施形態には、第1イヤセット機器120は右耳に、第2イヤセット機器130は左耳に着用する様子が示されているが、これは発明を説明するための1つの実施形態に過ぎず、これに限定されることはない。例えば、第1イヤセット機器120は左耳に、第2イヤセット機器130は右耳に着用するように実現されてもよい。 FIG. 2 is a diagram illustrating an example of an ear set pair in an embodiment of the present invention. The earset pair according to this embodiment includes a first earset device 120 and a second earset device 130, as shown in FIG. Although the embodiments of FIGS. 1 and 2 show the first earset device 120 being worn on the right ear and the second earset device 130 being worn on the left ear, this is for purposes of illustrating the invention. This is just one embodiment and is not limited thereto. For example, the first earset device 120 may be implemented to be worn on the left ear, and the second earset device 130 may be implemented to be worn on the right ear.

また、図2の実施形態には、第1イヤセット機器120および第2イヤセット機器130の保管、据置、充電などの機能を提供するクレイドル(cradle)210の例が示されている。このようなクレイドル210も、第1イヤセット機器120と第2イヤセット機器130が1つのイヤセットペアをなす実施形態を説明するための1つの例示に過ぎず、その形状や機能などが図2の説明によって限定されることはない。 Further, the embodiment of FIG. 2 shows an example of a cradle 210 that provides functions such as storing, placing, and charging the first earset device 120 and the second earset device 130. Such a cradle 210 is also just one example for explaining an embodiment in which the first earset device 120 and the second earset device 130 form one earset pair, and its shape and function are similar to those shown in FIG. is not limited by this description.

図3は、本発明の一実施形態における、イヤセットペアと電子機器の通信例を示した図である。一般的に、スマートフォンは、ブルートゥース(登録商標)(Bluetooth)、ジグビー(Zigbee)、Wi‐Fiなどのような近距離無線通信プロトコルを介してイヤセットや無線スピーカのような周辺機器と通信する。図3の実施形態でも、電子機器110が、このような近距離無線通信プロトコルを利用してイヤセットペアと通信する例について説明する。ただし、電子機器110は、1つの近距離無線通信プロトコル(一例として、ブルートゥース(登録商標)4.1)を利用して一度に1つの機器(図3の実施形態では、第1イヤセット機器120)とだけ通信しなければならない場合が存在する。言い換えれば、電子機器110が、1つの近距離無線通信プロトコルを介して2つ以上の機器と同時に通信することができない場合が考慮される。本実施形態において、電子機器110は、1つの近距離無線通信プロトコルを利用して1つの機器として第1イヤセット機器120と通信してよく、第2イヤセット機器130とは、第1イヤセット機器120の中継によって通信してよい。このために、第1イヤセット機器120と第2イヤセット機器130は、互いに近距離無線通信を行ってよい。例えば、第2イヤセット機器130は、入力された第2言語の音声を、第1イヤセット機器120を経て電子機器110に送信してよい。これとは逆に、電子機器110が送信する第1言語に通訳された音声を、第1イヤセット機器120を経て第2イヤセット機器130に送信してよい。このような中継通信のための一例として、TWS(True Wireless Stereo)方式が利用されてよい。 FIG. 3 is a diagram illustrating an example of communication between an ear set pair and an electronic device in an embodiment of the present invention. Typically, smartphones communicate with peripheral devices, such as earsets and wireless speakers, via near field communication protocols such as Bluetooth, Zigbee, Wi-Fi, and the like. In the embodiment of FIG. 3 as well, an example will be described in which the electronic device 110 communicates with the ear set pair using such a short-range wireless communication protocol. However, the electronic device 110 is configured to operate one device at a time (in the embodiment of FIG. 3, the first earset device 120 ) may need to be communicated with. In other words, a case is considered in which the electronic device 110 cannot communicate with two or more devices simultaneously via one short-range wireless communication protocol. In this embodiment, the electronic device 110 may communicate with the first earset device 120 as one device using one short-range wireless communication protocol, and the second earset device 130 may communicate with the first earset device 120 as one device using one short-range wireless communication protocol. Communication may be performed by relaying the device 120. To this end, the first earset device 120 and the second earset device 130 may perform short-range wireless communication with each other. For example, the second earset device 130 may transmit the input audio in the second language to the electronic device 110 via the first earset device 120. Conversely, the audio translated into the first language and transmitted by the electronic device 110 may be transmitted to the second earset device 130 via the first earset device 120. As an example of such relay communication, a TWS (True Wireless Stereo) method may be used.

図4は、本発明の一実施形態における、イヤセットペアと電子機器の他の通信例を示した図である。図3の実施形態と異なり、電子機器110は、1つの近距離無線通信プロトコルを利用して第1イヤセット機器120および第2イヤセット機器130の両方と同時に通信してもよい。例えば、ブルートゥース(登録商標)5.0のような近距離無線通信プロトコルは、スマートフォンが同時に2つの機器とブルートゥース(登録商標)連結および通信が可能な技術を提供する。図4の実施形態は、このように同時に複数の機器と通信が可能な近距離無線通信プロトコルを活用することで、第1イヤセット機器120および第2イヤセット機器130の両方と同時に通信することも可能である。 FIG. 4 is a diagram showing another example of communication between an ear set pair and an electronic device in an embodiment of the present invention. Unlike the embodiment of FIG. 3, electronic device 110 may simultaneously communicate with both first earset device 120 and second earset device 130 utilizing one near field communication protocol. For example, near field communication protocols such as Bluetooth® 5.0 provide a technology that allows a smartphone to connect and communicate with two devices at the same time. The embodiment of FIG. 4 utilizes a short-range wireless communication protocol that allows communication with multiple devices at the same time, so that it can simultaneously communicate with both the first earset device 120 and the second earset device 130. is also possible.

一方、電子機器110は、アプリケーションを利用して通訳機能を提供するにあたり、アプリケーションが自主的に有する通訳機能を提供することも可能であるが、アプリケーションと連係するサーバから通訳機能の提供を受けることも可能である。例えば、電子機器110は、アプリケーションの制御にしたがってサーバに接続して第1言語の音声および第1言語の音声を通訳しようとする第2言語に関する情報を伝達してよい。この場合、サーバは、第1言語の音声を第2言語の音声に変換して電子機器110に提供してよく、電子機器110は、第1言語の音声に対して通訳された第2言語の音声を得ることができるようになる。 On the other hand, when the electronic device 110 provides an interpretation function using an application, it is possible to provide the interpretation function that the application has independently, but it is also possible to receive the interpretation function from a server linked with the application. is also possible. For example, the electronic device 110 may connect to a server under the control of the application and transmit information regarding the first language audio and the second language in which the first language audio is to be interpreted. In this case, the server may convert the first language audio into the second language audio and provide it to the electronic device 110, and the electronic device 110 converts the first language audio into the second language audio and provides the converted second language audio to the electronic device 110. You will be able to get audio.

図5は、本発明の一実施形態における、電子機器、イヤセット機器、およびサーバの内部構成を説明するためのブロック図である。図5のサーバ520は、電子機器110にインストールおよび駆動されるアプリケーションと連係して通訳機能を提供する外部システムであってよい。 FIG. 5 is a block diagram for explaining the internal configurations of an electronic device, an ear-set device, and a server in an embodiment of the present invention. The server 520 in FIG. 5 may be an external system that provides an interpretation function in conjunction with an application installed and run on the electronic device 110.

電子機器110とサーバ520は、メモリ511、521、プロセッサ512、522、通信インタフェース513、523、および入力/出力インタフェース514、524を含んでよい。メモリ511、521は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMやディスクドライブのような永久大容量記憶装置は、メモリ511、521とは区分される、別の永久記憶装置として電子機器110やサーバ520に含まれてもよい。また、メモリ511、521には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器110にインストールされ、特定のサービスの提供のために電子機器110で駆動するアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ511、521とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信インタフェース513、523を通じてメモリ511、521にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システムがネットワーク530を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいて電子機器110のメモリ511にロードされてよい。 Electronic device 110 and server 520 may include memory 511 , 521 , processor 512 , 522 , communication interface 513 , 523 , and input/output interface 514 , 524 . The memories 511 and 521 are computer-readable recording media, including random access memory (RAM), read only memory (ROM), and permanent mass storage devices such as disk drives. That's fine. Here, a permanent mass storage device such as a ROM or a disk drive may be included in the electronic device 110 or the server 520 as a separate permanent storage device that is separate from the memories 511 and 521. The memories 511 and 521 also include an operating system and at least one program code (for example, a code for an application installed in the electrical device 110 and run on the electronic device 110 to provide a specific service). may be stored. Such software components may be loaded from a computer readable storage medium separate from the memory 511, 521. Such other computer readable recording media may include computer readable recording media such as floppy drives, disks, tapes, DVD/CD-ROM drives, memory cards, and the like. In other embodiments, the software components may be loaded into the memory 511, 521 through a communication interface 513, 523 that is not a computer readable storage medium. For example, at least one program may be installed on electronic device 110 based on a computer program (such as the application described above, by way of example) that is installed by a file provided over network 530 by a developer or a file distribution system that distributes application installation files. may be loaded into the memory 511 of.

プロセッサ512、522は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ511、521または通信インタフェース513、523によって、プロセッサ512、522に提供されてよい。例えば、プロセッサ512、522は、メモリ511、521のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。 Processors 512, 522 may be configured to process instructions of computer programs by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processors 512, 522 by memory 511, 521 or communication interfaces 513, 523. For example, processors 512, 522 may be configured to execute instructions received according to program code stored in a storage device, such as memory 511, 521.

通信インタフェース513、523は、ネットワーク530を介して電子機器110とサーバ520とが互いに通信するための機能を提供してもよいし、電子機器110および/またはサーバ520が他の電子機器または他のサーバと通信するための機能を提供してもよい。一例として、電子機器110のプロセッサ512がメモリ511のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信インタフェース513の制御にしたがってネットワーク530を介してサーバ520に伝達されてよい。これとは逆に、サーバ520のプロセッサ522の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信インタフェース523とネットワーク530を経て電子機器110の通信インタフェース513を通じて電子機器110に受信されてもよい。例えば、通信インタフェース513を通じて受信したサーバ520の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ512やメモリ511に伝達されてよく、コンテンツやファイルなどは、電子機器110がさらに含むことのできる格納媒体(上述した永久記憶装置)に格納されてよい。 The communication interfaces 513, 523 may provide a function for the electronic device 110 and the server 520 to communicate with each other via the network 530, or may provide a function for the electronic device 110 and/or the server 520 to communicate with other electronic devices or other devices. It may also provide functionality for communicating with the server. As an example, a request generated by processor 512 of electronic device 110 according to a program code stored in a storage device such as memory 511 may be communicated to server 520 via network 530 under the control of communication interface 513. On the contrary, control signals, instructions, contents, files, etc. provided under the control of the processor 522 of the server 520 are received by the electronic device 110 through the communication interface 513 of the electronic device 110 via the communication interface 523 and the network 530. may be done. For example, control signals, instructions, content, files, etc. of the server 520 received through the communication interface 513 may be transmitted to the processor 512 and the memory 511, and the content, files, etc. may be transferred to a storage medium that the electronic device 110 may further include. (permanent storage described above).

入力/出力インタフェース514は、入力/出力装置515とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース514は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置515は、電子機器110と1つの装置で構成されてもよい。また、サーバ520の入力/出力インタフェース524は、サーバ520と連結するかサーバ520が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。 Input/output interface 514 may be a means for interfacing with input/output device 515. For example, input devices may include devices such as a microphone, keyboard, or mouse, and output devices may include devices such as a display and speakers. As another example, input/output interface 514 may be a means for interfacing with a device that has integrated input and output functionality, such as a touch screen. Input/output device 515 may be comprised of one device with electronic device 110. The input/output interface 524 of the server 520 may also be a means for interfacing with devices for input or output (not shown) that may be coupled to or included in the server 520.

また、他の実施形態において、電子機器110およびサーバ520は、図5の構成要素よりも少ないか、それよりも多い構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器110は、上述した入力/出力装置515のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が電子機器110にさらに含まれるように実現されてよい。 Also, in other embodiments, electronic device 110 and server 520 may include fewer or more components than those of FIG. However, most prior art components need not be clearly illustrated. For example, the electronic device 110 may be implemented to include at least some of the input/output devices 515 described above, or may include a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database, etc. It may further include other components. As a more specific example, when the electronic device 110 is a smartphone, the smartphone generally includes an acceleration sensor, a gyro sensor, a camera module, various physical buttons, buttons using a touch panel, input/output ports, The electronic device 110 may further include various components such as a vibrator for vibration.

第1イヤセット機器120は、音の入力を受けるための音信号入力部541、音を出力するための音信号出力部542、電子機器110または第1イヤセット機器120とイヤセットペアをなす第2イヤセット機器130と通信するための通信部543、および音信号入力部541、音を出力するための音信号出力部542、および通信部543を制御する制御部544を備えてよい。例えば、制御部544は、ユーザ(一例として、図1の第1ユーザ140)が発話する第1言語の音声の入力を受けるように音信号入力部541を制御してよい。また、制御部544は、入力される第1言語の音声が電子機器110で実行されるアプリケーションの通訳機能にしたがって第2言語の音声に変換されて第2イヤセット機器130に提供されるように、第1言語の音声を電子機器110に送信するように通信部543を制御してよい。また、制御部544は、第2イヤセット機器120に入力されて電子機器110で受信した第2言語の音声を電子機器110で実行されるアプリケーションの通訳機能にしたがって第1言語の音声に変換することに応答し、電子機器110から変換された第1言語の音声を受信するように通信部543を制御してよい。さらに、制御部544は、電子機器110から受信された第1言語の音声を出力するように音信号出力部542を制御してよい。 The first earset device 120 includes a sound signal input section 541 for receiving sound input, a sound signal output section 542 for outputting sound, and a first earset device 120 that forms an earset pair with the electronic device 110 or the first earset device 120. It may include a communication section 543 for communicating with the two-earset device 130, a sound signal input section 541, a sound signal output section 542 for outputting sound, and a control section 544 for controlling the communication section 543. For example, the control unit 544 may control the sound signal input unit 541 to receive input of audio in the first language uttered by a user (for example, the first user 140 in FIG. 1). Further, the control unit 544 converts the input audio in the first language into audio in the second language according to the interpretation function of the application executed on the electronic device 110 and provides the audio to the second ear set device 130. , the communication unit 543 may be controlled to transmit the audio in the first language to the electronic device 110. Further, the control unit 544 converts the second language sound input to the second ear set device 120 and received by the electronic device 110 into the first language sound according to the interpretation function of the application executed on the electronic device 110. In response, the communication unit 543 may be controlled to receive the converted first language audio from the electronic device 110. Furthermore, the control unit 544 may control the sound signal output unit 542 to output the sound in the first language received from the electronic device 110.

図6は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図6は、電子機器610、クラウド人工知能プラットフォーム620、およびコンテンツ・サービス630を示している。 FIG. 6 is a diagram illustrating an example of a cloud artificial intelligence platform in one embodiment of the present invention. FIG. 6 shows an electronic device 610, a cloud artificial intelligence platform 620, and a content service 630.

一例として、電子機器610は、一例として、スマートホームネットワークを介して連結する宅内の機器を含んでよいが、それぞれあるいは少なくとも1つが上述した電子機器110に対応してもよい。このような電子機器610や電子機器610でインストールおよび駆動するアプリケーション(以下、アプリとする)は、インタフェースコネクト640を介してクラウド人工知能プラットフォーム620と連係してよい。ここで、インタフェースコネクト640は、電子機器610や電子機器610でインストールおよび駆動するアプリの開発のためのSDK(Software Development Kit)および/または開発文書を開発者に提供してよい。また、インタフェースコネクト640は、電子機器610や電子機器610でインストールおよび駆動するアプリが、クラウド人工知能プラットフォーム620が提供する機能を活用することのできるAPI(Application Program Interface)を提供してよい。具体的な例として、開発者は、インタフェースコネクト640が提供するSDK(Software Development Kit)および/または開発文書を利用して開発した機器やアプリは、インタフェースコネクト640が提供するAPIを利用してクラウド人工知能プラットフォーム620が提供する機能(一例として、通訳機能)を活用することができるようになる。 As an example, the electronic devices 610 may include, for example, in-home devices connected via a smart home network, and each or at least one of them may correspond to the electronic device 110 described above. Such an electronic device 610 or an application installed and run on the electronic device 610 (hereinafter referred to as an application) may be linked with the cloud artificial intelligence platform 620 via an interface connect 640. Here, the interface connect 640 may provide the developer with an SDK (Software Development Kit) and/or development documents for developing the electronic device 610 or an application installed and run on the electronic device 610. Further, the interface connect 640 may provide an API (Application Program Interface) that allows the electronic device 610 or an application installed and run on the electronic device 610 to utilize functions provided by the cloud artificial intelligence platform 620. As a specific example, a developer can use the API provided by Interface Connect 640 to develop devices and applications using the SDK (Software Development Kit) and/or development documents provided by Interface Connect 640 in the cloud. It becomes possible to utilize functions provided by the artificial intelligence platform 620 (for example, an interpretation function).

ここで、クラウド人工知能プラットフォーム620は、通訳機能はもちろん、多様な音声基盤のサービスを提供するための機能を提供してもよい。例えば、クラウド人工知能プラットフォーム620は、受信した音声を認識して出力する音声を合成するための音声処理モジュール621、受信した映像や動画を分析して処理するためのビジョン処理モジュール622、受信した音声に応じて適合する音声(一例として、第2言語に通訳された音声)を出力するために適切な会話を決定するための会話処理モジュール623、受信した音声に適合する機能を勧めるための推薦モジュール624、人工知能がデータ学習に基づいて文章単位で言語を翻訳するようにサポートするニューラル機械翻訳(Neural Machine Translation:NMT)625などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。 Here, the cloud artificial intelligence platform 620 may provide functions for providing various voice-based services as well as an interpretation function. For example, the cloud artificial intelligence platform 620 includes an audio processing module 621 for recognizing received audio and synthesizing output audio, a vision processing module 622 for analyzing and processing received video and video, and a vision processing module 622 for analyzing and processing received audio. a conversation processing module 623 for determining an appropriate conversation for outputting a suitable voice (for example, a voice interpreted into a second language) according to the received voice; a recommendation module for recommending a function suitable for the received voice; 624, Neural Machine Translation (NMT), which supports artificial intelligence to translate sentences on a sentence-by-sentence basis based on data learning,625 includes various modules for providing voice-based services. That's fine.

例えば、電子機器110は、第1言語の音声と通訳された第2言語に関する情報を、インタフェースコネクト640で提供するAPIを利用してクラウド人工知能プラットフォーム620に送信してよい。この場合、クラウド人工知能プラットフォーム620は、受信した第1言語の音声を、上述したモジュール621~625を活用して認識および分析してよく、第1言語の音声を第2言語の音声に通訳し、適切な返答音声を合成して提供してよい。 For example, the electronic device 110 may send information regarding the first language audio and the interpreted second language to the cloud artificial intelligence platform 620 using an API provided by the interface connect 640. In this case, the cloud artificial intelligence platform 620 may recognize and analyze the received first language speech by utilizing the modules 621 to 625 described above, and may interpret the first language speech into a second language speech. , an appropriate response voice may be synthesized and provided.

また、拡張キット650は、第三者であるコンテンツ開発者または会社がクラウド人工知能プラットフォーム620に基づいて新たな音声基盤機能を実現することができる開発キットを提供してよい。例えば、クラウド人工知能プラットフォーム620の通訳機能の活用が可能な別のアプリケーションとサーバが提供された開発キットを利用して開発されてよい。 The expansion kit 650 may also provide a development kit that allows a third party content developer or company to implement new voice infrastructure functionality based on the cloud artificial intelligence platform 620. For example, another application and server that can utilize the interpretation function of the cloud artificial intelligence platform 620 may be developed using a provided development kit.

このようなクラウド人工知能プラットフォーム620は、電子機器110に通訳機能を提供するためのサーバ520の具体的な一例に過ぎず、電子機器11に通訳機能を提供することが可能なサーバ520であれば限定されることはない。 Such a cloud artificial intelligence platform 620 is only a specific example of the server 520 for providing an interpreting function to the electronic device 110, and any server 520 that can provide an interpreting function to the electronic device 11 can be used. It is not limited.

図7は、本発明の一実施形態における、通訳機能提供方法の例を示したフローチャートである。本実施形態に係る通訳機能提供方法は、上述した電子機器110のようなコンピュータ装置によって実行されてよい。このとき、電子機器110のプロセッサ512は、メモリ511が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ512は、電子機器110に格納されたコードが提供する制御命令にしたがって電子機器110が図7の通訳機能提供方法が含む段階710~730を実行するように、電子機器110を制御してよい。 FIG. 7 is a flowchart illustrating an example of a method for providing an interpretation function according to an embodiment of the present invention. The interpretation function providing method according to this embodiment may be executed by a computer device such as the electronic device 110 described above. At this time, the processor 512 of the electronic device 110 may be implemented to execute control instructions based on operating system code or at least one program code included in the memory 511. Here, the processor 512 controls the electronic device 110 so that the electronic device 110 performs steps 710 to 730 included in the method for providing an interpretation function of FIG. 7 according to control instructions provided by a code stored in the electronic device 110. You may do so.

段階710で、電子機器110は、第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号を受信してよい。ここで、第1イヤセット機器と第2イヤセット機器は、上述した第1イヤセット機器120および第2イヤセット機器130に対応してよい。例えば、第1イヤセット機器および第2イヤセット機器は、左耳と右耳のためのイヤセットペアで構成されてよい。アプリケーション実行信号は、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンからの入力、または第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生されてよい。例えば、第1イヤセット機器(または第2イヤセット機器)は、ユーザが第1イヤセット機器(または第2イヤセット機器)に含まれるボタンを押すことによって発生する入力信号を感知し、感知した入力信号に対応してアプリケーション実行信号を生成してよい。その後、第1イヤセット機器(または第2イヤセット機器)は、生成されたアプリケーション実行信号を電子機器110に送信してよい。他の例として、第1イヤセット機器(または第2イヤセット機器)は、照度センサを含んでよい。このとき、第1イヤセット機器(または第2イヤセット機器)は、ユーザが照度センサの測定部位に指を一定の時間以上かざす行為を感知し、このような行為の感知によってアプリケーション実行信号を生成してもよい。このように、ユーザの特定の行為を感知してアプリケーション実行信号を生成するための多様な方法のうちの1つが活用可能であることは、当業者であれば容易に理解することができるであろう。 At step 710, the electronic device 110 may receive an application execution signal generated by the first earset device or the second earset device. Here, the first earset device and the second earset device may correspond to the first earset device 120 and the second earset device 130 described above. For example, the first earset device and the second earset device may be configured as an earset pair for a left ear and a right ear. The application execution signal is an input from a physical button included in at least one of the first earset device and the second earset device, or an input included in at least one of the first earset device and the second earset device. It may be generated by the output value of the sensor. For example, the first earset device (or the second earset device) senses an input signal generated by the user pressing a button included in the first earset device (or the second earset device), and An application execution signal may be generated in response to the input signal. The first earset device (or the second earset device) may then transmit the generated application execution signal to the electronic device 110. As another example, the first earset device (or the second earset device) may include an illuminance sensor. At this time, the first earset device (or the second earset device) detects the action of the user holding his or her finger over the measurement area of the illuminance sensor for a certain period of time, and generates an application execution signal by sensing such action. You may. As such, those skilled in the art will readily understand that one of a variety of methods can be utilized to sense a specific action of a user and generate an application execution signal. Dew.

段階720で、電子機器110は、受信したアプリケーション実行信号に対応するアプリケーションを実行させてよい。このとき、実行させるアプリケーションは、自主的あるいは上述したサーバ520との連係によって通訳機能を提供するためのコンピュータプログラムであってよい。 In step 720, the electronic device 110 may execute an application corresponding to the received application execution signal. At this time, the application to be executed may be a computer program for providing an interpretation function independently or in cooperation with the server 520 described above.

段階730で、電子機器110は、実行するアプリケーションの制御にしたがい、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを通じて入力され電子機器110が受信した音声に対する他の言語への通訳機能を提供してよい。このとき、通訳機能は、上述したように、セルフ通訳のための機能と多者間通訳のための機能を含んでよい。 At step 730, the electronic device 110 converts the audio input through at least one of the first ear-set device and the second ear-set device and received by the electronic device 110 into another language under the control of the executed application. May provide interpretation functionality. At this time, the interpretation function may include a function for self-interpretation and a function for multi-party interpretation, as described above.

このように、ユーザ(あるいはユーザら)は、イヤセット機器を利用して電子機器110の通訳機能のためのアプリケーションを実行させることができ、イヤセット機器を利用して発話された音声に対する他の言語への通訳機能の提供を受けることができるようになる。 In this way, the user (or users) can use the ear-set device to execute an application for the interpretation function of the electronic device 110, and use the ear-set device to execute other applications for the interpretation function of the electronic device 110. You will be able to receive language interpretation functions.

図8は、本発明の一実施形態における、セルフ通訳および多者間通訳のための通訳機能を提供する例を示したフローチャートである。図8の段階810~890は、図7の段階730で通訳機能を提供するための具体的な過程の一例を示している。 FIG. 8 is a flowchart illustrating an example of providing an interpretation function for self-interpretation and multi-party interpretation in one embodiment of the present invention. Steps 810 to 890 in FIG. 8 illustrate an example of a specific process for providing the interpretation function in step 730 in FIG.

段階810で、電子機器110は、通訳モードが実行中であるかを判断してよい。例えば、通訳モードの終了またはアプリケーションの終了によって通訳モードが実行中でない場合には、図8の過程は終わってよい。電子機器110は、段階810で通訳モードが実行中の場合、段階820を実行してよい。 At step 810, electronic device 110 may determine whether interpretation mode is in progress. For example, if the interpretation mode is not running due to termination of the interpretation mode or termination of the application, the process of FIG. 8 may end. The electronic device 110 may perform step 820 if the interpretation mode is being performed in step 810.

段階820で、電子機器110は、通訳モードが多者間通訳モードであるかを判断してよい。通訳モードが多者間通訳モードの場合には段階830が実行されてよい。通訳モードが多者間通訳モードでなければ、電子機器110は、段階870を実行してよい。 In step 820, the electronic device 110 may determine whether the interpretation mode is a multiparty interpretation mode. Step 830 may be performed if the interpretation mode is a multiparty interpretation mode. If the interpretation mode is not a multi-party interpretation mode, the electronic device 110 may perform step 870.

段階830で、電子機器110は、第1イヤセット機器から音声を受信したかを判断してよい。ここで、第1イヤセット機器は、イヤセットペアが含む2つのイヤセット機器のうちのいずれか1つであってよい。このとき、第1イヤセット機器から音声を受信した場合、電子機器110は、段階840を実行してよい。第1イヤセット機器から音声が受信されなかった場合、電子機器110は、段階850を実行してよい。 In step 830, the electronic device 110 may determine whether audio is received from the first earset device. Here, the first earset device may be any one of two earset devices included in the earset pair. At this time, if the electronic device 110 receives audio from the first earset device, the electronic device 110 may perform step 840. If no audio is received from the first earset device, the electronic device 110 may perform step 850.

段階840で、電子機器110は、第1イヤセット機器を通じて入力され電子機器110が受信した第1言語の音声を第2言語の音声に変換して第2イヤセット機器に提供してよい。ここで、第2イヤセット機器は、段階830で音声を提供したイヤセット機器を除いた他の1つのイヤセット機器であってよい。第2イヤセット機器は、変換された第2言語の音声を出力することにより、第2イヤセット機器を着用した第2ユーザに、第1イヤセット機器を着用した第1ユーザが第1言語で発話した音声が第2言語の音声に通訳されて提供されてよい。 In step 840, the electronic device 110 may convert the first language audio input through the first ear-set device and received by the electronic device 110 into the second language audio, and provide the second language audio to the second ear-set device. Here, the second earset device may be another earset device other than the earset device that provided the audio in step 830. The second ear-set device outputs the converted audio in the second language, so that the first user wearing the first ear-set device can communicate in the first language to the second user wearing the second ear-set device. The spoken voice may be interpreted into second language voice and provided.

段階850で、電子機器110は、第2イヤセット機器から音声を受信したかを判断してよい。このとき、第2イヤセット機器から音声を受信した場合、電子機器110は、段階860を実行してよい。第2イヤセット機器から音声が受信されなかった場合、電子機器110は、再び段階810を実行してよい。 At step 850, the electronic device 110 may determine whether audio is received from the second earset device. At this time, if the electronic device 110 receives audio from the second earset device, the electronic device 110 may perform step 860. If no audio is received from the second earset device, electronic device 110 may perform step 810 again.

段階860で、電子機器110は、第2イヤセット機器を通じて入力された第2言語の音声を受信して第1言語の音声に変換して第1イヤセット機器に提供してよい。第1イヤセット機器は、変換された第1言語の音声を出力することにより、第1イヤセット機器を着用した第1ユーザに、第2イヤセット機器を着用した第2ユーザが第2言語で発話した音声が第1言語の音声に通訳されて提供されてよい。この後、電子機器110は、再び段階810を実行してよい。 In step 860, the electronic device 110 may receive the second language audio input through the second ear-set device, convert it into the first language audio, and provide the first language audio to the first ear-set device. The first ear set device outputs the converted audio in the first language, so that the first user wearing the first ear set device can hear the second user wearing the second ear set device speaking the second language. The uttered audio may be interpreted into audio in the first language and provided. After this, electronic device 110 may perform step 810 again.

段階870で、電子機器110は、通訳モードがセルフ通訳モードであるかを判断してよい。通訳モードがセルフ通訳モードである場合には段階880が実行されてよい。通訳モードがセルフ通訳モードでなければ、電子機器110は、段階890を実行してよい。 At step 870, the electronic device 110 may determine whether the interpretation mode is a self-interpretation mode. Step 880 may be performed if the interpretation mode is a self-interpretation mode. If the interpretation mode is not the self-interpretation mode, the electronic device 110 may perform step 890.

段階880で、電子機器110は、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを通じて入力された第1言語の音声を受信して第2言語の音声に変換し、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つに提供してよい。セルフ通訳モードでは、1人のユーザが第1イヤセット機器と第2イヤセット機器の両方を着用しているものと判断するため、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを通じて第1言語の音声を受信し、通訳された第2言語の音声を第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つに提供してよい。段階880の後、電子機器110は、再び段階810を実行してよい。 At step 880, the electronic device 110 receives and converts the first language audio input through at least one of the first earset device and the second earset device into the second language audio, and converts the audio into the second language audio. At least one of an earset device and a second earset device may be provided. In the self-interpretation mode, at least one of the first earset device and the second earset device is determined to be one user wearing both the first earset device and the second earset device. and provide interpreted second language audio to at least one of the first earset device and the second earset device. After step 880, electronic device 110 may perform step 810 again.

段階890で、電子機器110は、モードを設定してよい。例えば、電子機器110は、アプリケーションの制御にしたがい、ユーザに通訳モードとして多者間通訳モードおよびセルフ通訳モードのうちの1つを設定することを要求してよい。例えば、電子機器110は、アプリケーションが提供するユーザインタフェースを利用して多者間通訳モードおよびセルフ通訳モードのうちの1つを設定するようにユーザに要求してもよいし、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つが含むボタンやセンサを利用した入力をユーザに要求してもよい。他の例として、電子機器110が入力される音声を分析するなどの分析過程を経て自動で多者間通訳モードおよびセルフ通訳モードのうちの1つを設定することも可能である。段階890の後、電子機器110は、再び段階810を実行してよい。 At step 890, electronic device 110 may set a mode. For example, the electronic device 110 may request the user to set the interpretation mode to one of a multiparty interpretation mode and a self-interpretation mode under the control of the application. For example, the electronic device 110 may request the user to configure one of a multi-party interpretation mode and a self-interpretation mode using a user interface provided by the application, and the electronic device 110 may request the user to configure one of a multi-party interpretation mode and a self-interpretation mode, and And the user may be requested to input using a button or sensor included in at least one of the second earset devices. As another example, the electronic device 110 may automatically set one of the multi-party interpretation mode and the self-interpretation mode through an analysis process such as analyzing input audio. After step 890, electronic device 110 may perform step 810 again.

このように、図8の実施形態では、多者間通訳モードとセルフ通訳モードに応じて通訳機能を提供する具体的な例について説明している。このような図8の実施形態では、セルフ通訳モードと多者間通訳モードによる動作の例を示しているが、実施形態によっては、セルフ通訳モードだけが提供されてもよいし、多者間通訳モードだけが提供されてもよい。 In this way, the embodiment of FIG. 8 describes a specific example of providing an interpretation function according to the multi-party interpretation mode and the self-interpretation mode. Although the embodiment of FIG. 8 shows an example of operation using the self-interpretation mode and the multi-party interpretation mode, depending on the embodiment, only the self-interpretation mode may be provided, or the multi-party interpretation mode may be provided. Only modes may be provided.

電子機器110と第1イヤセット機器および第2イヤセット機器間の通信は、図3および図4を参照しながら説明したように、直接/間接通信によって行われてよい。例えば、電子機器110は、第1イヤセット機器および第2イヤセット機器のうちのいずれか1つのイヤセット機器と直接通信し、直接通信するイヤセット機器と残り1つのイヤセット機器間の無線通信によって残り1つのイヤセット機器と間接通信してよい。他の例として、電子機器110は、第1イヤセット機器および第2イヤセット機器の両方と同時に直接通信をすることも可能である。 Communication between the electronic device 110 and the first earset device and the second earset device may be performed by direct/indirect communication as described with reference to FIGS. 3 and 4. For example, the electronic device 110 directly communicates with any one of the first earset device and the second earset device, and wireless communication between the directly communicating earset device and the remaining one earset device. may indirectly communicate with the remaining earset device. As another example, the electronic device 110 may be in direct communication with both the first earset device and the second earset device at the same time.

また、ユーザ(一例として、図1の第1ユーザ140)が第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを着用した状態で音楽鑑賞をしたり電話通話を行ったりしている状況で通訳機能が必要となる場合もある。 Further, when a user (for example, the first user 140 in FIG. 1) listens to music or makes a phone call while wearing at least one of the first ear-set device and the second ear-set device, In some situations, an interpreter function may be required.

図9は、本発明の一実施形態における、音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える例を示したフローチャートである。 FIG. 9 is a flowchart illustrating an example of switching from music listening mode or telephone conversation mode to interpretation mode in an embodiment of the present invention.

段階910で、電子機器110は、受信したアプリケーション実行信号または実行されるアプリケーションで入力される通訳モード開始信号に基づいて、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを利用した音楽鑑賞モードまたは電話通話モードを通訳モードに切り替えてよい。例えば、電子機器110は、ブルートゥース(登録商標)連結による音楽鑑賞モードにおいて、音楽鑑賞モードを通訳モードに変更しながら、音楽再生のためのA2DP(Advanced Audio Distribution Profile)を、ユーザの音声の入力を受けるためにHFP(Hands Free profile)に変更してよい。また、電子機器110は、電話通話モードにおいて、電話通話を終了させた後に通訳モードに切り替えてもよいが、電話通話をしばらく待機状態に変更した後に通訳モードに切り替えてもよい。 At step 910, the electronic device 110 utilizes at least one of the first earset device and the second earset device based on the received application execution signal or the interpretation mode start signal input by the executed application. You can switch from music listening mode or phone call mode to interpretation mode. For example, in a music listening mode via Bluetooth (registered trademark) connection, the electronic device 110 changes the music listening mode to an interpretation mode and changes the A2DP (Advanced Audio Distribution Profile) for music playback to the user's voice input. You may change to HFP (Hands Free Profile) in order to receive it. Further, in the telephone call mode, the electronic device 110 may switch to the interpretation mode after ending the telephone call, or may change the telephone call to a standby state for a while and then switch to the interpretation mode.

このような段階910は、図7を参照しながら説明した段階710または段階720が実行された後に実行されてよい。例えば、受信したアプリケーション実行信号に基づいて音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える場合、段階910は、段階710の後に実行されてよい。他の例として、実行されるアプリケーションで入力される通訳モード開始信号に基づいて音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える場合、段階910は、段階720の後に実行されてよい。段階910が実行された後に段階730が実行され、一例として、図8のように通訳機能が提供されてよい。 Such step 910 may be performed after step 710 or step 720 described with reference to FIG. 7 is performed. For example, step 910 may be performed after step 710 when switching from music listening mode or telephone call mode to interpretation mode based on the received application execution signal. As another example, step 910 may be performed after step 720 when switching from music listening mode or telephone call mode to interpreting mode based on an interpreting mode start signal input by an executed application. After step 910 is performed, step 730 may be performed to provide an interpretation function as shown in FIG. 8, as an example.

段階920で、電子機器110は、第1イヤセット機器と第2イヤセット機器を含むイヤセットペアのうちのいずれか1つのイヤセット機器で発生するアプリケーション終了信号またはアプリケーションで入力される通訳モード終了信号に基づいて、通訳モードを再び音楽鑑賞モードまたは電話通話モードに切り替えてよい。この場合、ユーザは、再び音楽鑑賞や電話通話を続けることができるようになる。 At step 920, the electronic device 110 receives an application termination signal generated by any one earset device of the earset pair including the first earset device and the second earset device or an interpretation mode termination signal input by the application. Based on the signal, the interpretation mode may be switched back to music listening mode or telephone conversation mode. In this case, the user can continue listening to music or talking on the phone again.

図10は、本発明の一実施形態における、電話通話中に通訳機能を提供する例を示したフローチャートである。 FIG. 10 is a flowchart illustrating an example of providing an interpretation function during a telephone call in one embodiment of the present invention.

段階1010で、電子機器110は、受信したアプリケーション実行信号または実行されるアプリケーションで入力される通訳モード開始信号に基づいて、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを利用して実行中の電話通話モードを通訳モードに切り替えてよい。図9の段階910と同じように、段階1010は、図7を参照しながら説明した段階710または段階720が実行された後に実行されてよい。 At step 1010, the electronic device 110 utilizes at least one of the first earset device and the second earset device based on the received application execution signal or the interpretation mode start signal input in the executed application. You can switch the currently running telephone conversation mode to interpreter mode. Similar to step 910 of FIG. 9, step 1010 may be performed after step 710 or step 720 described with reference to FIG. 7 is performed.

段階1020で、電子機器110は、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つを通じて入力された第1言語の音声を受信してそれを、通訳機能を利用して第2言語の音声に変換してよい。このような段階1020は、図7の段階730に含まれて実行されてよい。 At step 1020, the electronic device 110 receives the audio in the first language input through at least one of the first earset device and the second earset device and converts it into a second language using the interpretation function. May be converted to audio of the language. Such step 1020 may be included and performed in step 730 of FIG.

段階1030で、電子機器110は、第1イヤセット機器または第2イヤセット機器で発生するアプリケーション終了信号またはアプリケーションで入力された通訳モード終了信号に基づいて、通訳モードをまた電話通話モードに切り替えてよい。変換された第2言語の音声は、第1イヤセット機器および第2イヤセット機器のうちの少なくとも1つに先に伝達されてユーザに確認されてもよい。また、変換された第2言語の音声は、メモリ511などに一時格納されてよい。 In step 1030, the electronic device 110 switches the interpreting mode back to the telephone call mode based on the application end signal generated by the first earset device or the second earset device or the interpreter mode end signal inputted by the application. good. The converted second language audio may be first transmitted to at least one of the first earset device and the second earset device and confirmed by the user. Further, the converted second language speech may be temporarily stored in the memory 511 or the like.

段階1040で、電子機器110は、変換された第2言語の音声を、電話通話モードを通じて電話通話の相手に提供してよい。例えば、メモリ511に一時格納された第2言語の音声が、電話通話モードを通じて電話通話の相手に送信されてよい。より具体的な例として、第1言語を使用する第1ユーザが第2言語を使用する第2ユーザと電話通話中である場合、第1ユーザが通訳機能を利用して第2言語に通訳された音声を第2ユーザに提供することができるようになる。このとき、電話通話は、画像通話を含んでもよい。 In step 1040, the electronic device 110 may provide the converted second language audio to the other party in the telephone call through a telephone call mode. For example, the second language audio temporarily stored in the memory 511 may be transmitted to the other party of the phone call through the phone call mode. As a more specific example, when a first user who uses a first language is on a phone call with a second user who uses a second language, the first user uses the interpreter function to be translated into the second language. This makes it possible to provide the second user with the voice that has been created. At this time, the telephone call may include a video call.

図11は、本発明の一実施形態における、イヤセット機器の通訳機能提供方法の例を示したフローチャートである。 FIG. 11 is a flowchart illustrating an example of a method for providing an interpretation function of an ear-set device according to an embodiment of the present invention.

段階1110で、第1イヤセット機器120は、第1イヤセット機器120に入力された第1言語の音声が電子機器110で実行されるアプリケーションの通訳機能によって第2言語の音声に変換されて第1イヤセット機器120とイヤセットペアをなす第2イヤセット機器130に提供されるように、第1言語の音声を電子機器110に送信してよい。上述したように、電子機器110は、受信した第1言語の音声を、実行されるアプリケーションの通訳機能によって第2言語の音声に変換して第2イヤセット機器130に提供してよく、第2イヤセット機器130は、変換された第2言語の音声を出力することにより、第2イヤセット機器130を着用した第2ユーザが第1イヤセット機器120を着用した第1ユーザの第1言語に対する通訳機能の提供を受けることができるようになる。 In step 1110, the first earset device 120 converts the first language audio input into the first earset device 120 into a second language audio by the interpretation function of the application executed on the electronic device 110. The audio in the first language may be transmitted to the electronic device 110 to be provided to the second earset device 130 forming an earset pair with the first earset device 120 . As described above, the electronic device 110 may convert the received audio in the first language into audio in the second language using the interpretation function of the executed application and provide the second language audio to the second ear set device 130. The earset device 130 outputs the converted audio in the second language so that the second user wearing the second earset device 130 can listen to the first language of the first user wearing the first earset device 120. You will be able to receive interpretation functions.

段階1120で、第1イヤセット機器120は、第2イヤセット機器130に入力されて電子機器110で受信された第2言語の音声を、電子機器110が実行されるアプリケーションの通訳機能によって第1言語の音声に変換することに応答し、電子機器110から変換された第1言語の音声を受信してよい。上述したように、電子機器110は、第2イヤセット機器130から受信した第2言語の音声を第1言語の音声に変換して第1イヤセット機器120に提供してよい。 At step 1120, the first earset device 120 converts the second language audio input to the second earset device 130 and received by the electronic device 110 into a first earset device using an interpretation function of an application executed by the electronic device 110. In response to converting the first language audio, the converted first language audio may be received from the electronic device 110. As described above, the electronic device 110 may convert the second language sound received from the second ear set device 130 into the first language sound and provide the first language sound to the first ear set device 120 .

段階1130で、第1イヤセット機器120は、受信した第1言語の音声を出力してよい。したがって、第1イヤセット機器120の第1ユーザは、第2ユーザの第2言語に対する通訳機能の提供を受けることができるようになる。 In step 1130, the first earset device 120 may output the received audio in the first language. Therefore, the first user of the first earset device 120 can receive an interpretation function for the second language of the second user.

上述したように、第1イヤセット機器120は、イヤセットペアの2つのイヤセット機器のうちのいずれか1つに対応してよい。したがって、図11の実施形態では、多者間通訳モードにおける第1イヤセット機器120の動作のみを説明したが、上述した内容に基づいて、セルフ通訳モードにおける第1イヤセット機器120の動作や第2イヤセット機器130の動作についても、当業者であれば容易に理解することができるであろう。 As mentioned above, the first earset device 120 may correspond to any one of two earset devices of an earset pair. Therefore, in the embodiment of FIG. 11, only the operation of the first earset device 120 in the multiparty interpretation mode has been described, but based on the above-mentioned content, the operation of the first earset device 120 in the self-interpretation mode The operation of the two-earset device 130 will also be readily understood by those skilled in the art.

また、上述した実施形態では、2つのイヤセット機器がイヤセットペアをなす場合の実施形態のみを説明したが、3つ以上のイヤセット機器が電子機器110と直接的あるいは間接的に連結して多者間通訳モードが実行可能であることも、当業者であれば上述した内容を参照することで容易に理解することができるであろう。例えば、イヤセット機器1の第1言語の音声が第2言語と第3言語の音声にそれぞれ通訳されてイヤセット機器2とイヤセット機器3それぞれに伝達されることも可能である。また、イヤセット機器2の第2言語の音声が第1言語と第3言語の音声にそれぞれ通訳されてイヤセット機器1とイヤセット機器3それぞれに伝達されたり、イヤセット機器3の第3言語の音声が第1言語と第2言語の音声にそれぞれ通訳されてイヤセット機器1とイヤセット機器2それぞれに伝達されたりすることも可能である。通信の例として、電子機器110は、イヤセット機器1およびイヤセット機器2と直接通信し、イヤセット機器1やイヤセット機器2を経てイヤセット機器3と間接通信してよい。 Further, in the above-described embodiment, only the embodiment in which two ear-set devices form an ear-set pair has been described, but three or more ear-set devices are connected directly or indirectly to the electronic device 110. Those skilled in the art will be able to easily understand that the multi-party interpretation mode is executable by referring to the above description. For example, it is also possible that the audio in the first language of the ear-set device 1 is interpreted into the sounds in the second language and the third language, and then transmitted to the ear-set device 2 and the ear-set device 3, respectively. In addition, the second language voice of the ear set device 2 is interpreted into the first language and the third language voice and transmitted to the ear set device 1 and the ear set device 3, respectively, or the third language voice of the ear set device 3 is interpreted. It is also possible that the voice of the user is interpreted into voices of the first language and the second language and transmitted to the ear-set device 1 and the ear-set device 2, respectively. As an example of communication, the electronic device 110 may directly communicate with the ear-set device 1 and the ear-set device 2, and indirectly communicate with the ear-set device 3 via the ear-set device 1 and the ear-set device 2.

上述した実施形態では、第1言語の音声を第2言語の音声に変換しているが、本発明はこの例に限定されない。例えば、第1言語の音声を第2言語の文字に変換して出力してもよいし、逆に、第1言語の文字を第2言語の音声に変換して出力してもよい。文字と音声の双方が出力されても良い。 In the embodiment described above, the first language speech is converted into the second language speech, but the present invention is not limited to this example. For example, sounds in a first language may be converted into characters in a second language and output, or conversely, characters in the first language may be converted into sounds in a second language and output. Both text and audio may be output.

例えば、第1のイヤセット及び第2のイヤセットを利用してユーザに通訳機能を提供することにおいて、第1のイヤセットを介して入力される第1の言語の音声は自動的に第2の言語の文字に変換されて電子機器のディスプレイを介して表示され、第2のイヤセットを介して入力される第2の言語の音声は自動的に第1の言語の文字に変換されて電子機器のディスプレイを介して表示されることができる。この時、第1のイヤセットの第1ユーザと第2のイヤセットの第2のユーザは電子機器を介して表示される第2の言語の文字と第1の言語の文字を一緒に見ながら通訳機能の提供をもらうことができる。 For example, in providing an interpreter function to a user using a first ear set and a second ear set, audio in the first language input through the first ear set is automatically transmitted to the second ear set. The audio of the second language input through the second earset is automatically converted into the characters of the first language and displayed via the display of the electronic device. It can be displayed via the device's display. At this time, the first user of the first ear set and the second user of the second ear set are viewing the characters of the second language and the characters of the first language displayed via the electronic device together. Interpretation functions can be provided.

このように本実施形態によると、イヤセットを利用して通訳機能を提供することができ、第1イヤセット機器と第2イヤセット機器を含むイヤセットペアを利用して互いに異なる言語を利用する2人のユーザ間の通訳機能を提供することができる。また、通訳機能により、第1言語から第2言語に通訳された音声を電話通話の相手に提供することができる。 As described above, according to the present embodiment, the interpreting function can be provided using the earset, and the earset pair including the first earset device and the second earset device is used to use mutually different languages. It can provide an interpretation function between two users. Furthermore, the interpreting function allows the voice interpreted from the first language into the second language to be provided to the other party on the telephone call.

なお、 In addition,

上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The apparatus described above may be realized by hardware components, software components, and/or a combination of hardware and software components. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), and a microcomputer. The implementation may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that execute on the OS. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. Although for convenience of understanding, one processing device may be described as being used, those skilled in the art will appreciate that a processing device may include multiple processing elements and/or multiple types of processing elements. You will understand. For example, a processing device may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ格納媒体または装置に具現化されてよい。ソフトウェアは、ネットワークに接続したコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。 Software may include computer programs, code, instructions, or a combination of one or more of these that configure a processing device or instruct a processing device, independently or collectively, to perform operations as desired. You may do so. The software and/or data may be embodied in a machine, component, physical device, computer storage medium or device of any kind for being interpreted by or providing instructions or data to a processing device. good. The software may be distributed and stored and executed in a distributed manner on computer systems connected to a network. The software and data may be stored on one or more computer readable storage media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてもよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでもよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同じである。 Methods according to embodiments may be implemented in the form of program instructions executable by various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the embodiments, or may be those known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and floptical disks. and hardware devices specifically configured to store and execute program instructions, such as magneto-optical media, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that is executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules, and vice versa, to perform the operations of the embodiments.

以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on limited embodiments and drawings, but those skilled in the art will be able to make various modifications and variations based on the above description. For example, the techniques described may be performed in a different order than in the manner described, and/or components of the systems, structures, devices, circuits, etc. described may be performed in a different form than in the manner described. Even when combined or combined, opposed or replaced by other components or equivalents, suitable results can be achieved.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Therefore, even if the embodiments are different, if they are equivalent to the scope of the claims, they fall within the scope of the appended claims.

以下、本願により教示される手段を例示的に列挙する。
(付記1)
電子機器の通訳機能提供方法であって、
第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号を受信する段階、
前記受信したアプリケーション実行信号に対応するアプリケーションを実行させる段階、および
前記実行するアプリケーションの制御にしたがい、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを通じて入力され前記電子機器が受信した音声に対する他の言語への通訳機能を提供する段階
を含む、通訳機能提供方法。
(付記2)
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1言語の音声を第2言語の音声に変換して前記第2イヤセット機器に提供し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語の音声に変換して前記第1イヤセット機器に提供する、付記1に記載の通訳機能提供方法。
(付記3)
前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器のうちのいずれか1つのイヤセット機器と直接通信し、前記直接通信するイヤセット機器と残り1つのイヤセット機器間の無線通信によって前記残り1つのイヤセット機器と間接通信する、付記1に記載の通訳機能提供方法。
(付記4)
前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器の両方と同時に直接通信する、付記1に記載の通訳機能提供方法。
(付記5)
前記受信したアプリケーション実行信号または前記実行するアプリケーションで入力される通訳モード開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用した音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える段階、および
前記第1イヤセット機器と第2イヤセット機器を含むイヤセットペアのうちいずれか1つのイヤセット機器で発生するアプリケーション終了信号または前記アプリケーションで入力される通訳モード終了信号に基づいて、前記通訳モードを前記音楽鑑賞モードまたは電話通話モードに切り替える段階
をさらに含む、付記1に記載の通訳機能提供方法。
(付記6)
前記受信したアプリケーション実行信号または前記実行するアプリケーションで入力される通訳モード開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用して実行中の電話通話モードを通訳モードに切り替える段階、
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを通じて入力され前記電子機器が受信した第1言語の音声を、前記通訳機能を利用して第2言語の音声に変換する段階、
前記第1イヤセット機器または第2イヤセット機器で発生するアプリケーション終了信号または前記アプリケーションで入力された通訳モード終了信号に基づいて、前記通訳モードを前記電話通話モードに切り替える段階、および
前記変換された第2言語の音声を、前記電話通話モードを通じて電話通話の相手に提供する段階
をさらに含む、付記1に記載の通訳機能提供方法。
(付記7)
前記第1イヤセット機器および前記第2イヤセット機器は、左耳と右耳のためのイヤセットペアを構成する、付記1に記載の通訳機能提供方法。
(付記8)
前記アプリケーション実行信号は、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生する、付記1に記載の通訳機能提供方法。
(付記9)
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した音声の第1言語と前記第2イヤセット機器を通じて入力され前記電子機器が受信した音声の第2言語を感知する段階、
感知された第1言語の音声を感知された第2言語の音声に変換し、感知された第2言語の音声を感知された第1言語の音声に変換する段階、および
前記変換された第2言語の音声を前記第2イヤセット機器に提供し、前記変換された第1言語の音声を前記第1イヤセット機器に提供する段階
を含む、付記1に記載の通訳機能提供方法。
(付記10)
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した音声を、前記アプリケーションで前記第2イヤセット機器に対して設定された第2言語に変換し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した音声を、前記アプリケーションで前記第1イヤセット機器に対して設定された第1言語に変換する段階、および
前記変換された第2言語の音声を前記第2イヤセット機器に提供し、変換された第1言語の音声を前記第1イヤセット機器に提供する段階
を含む、付記1に記載の通訳機能提供方法。
(付記11)
第1イヤセット機器の通訳機能提供方法であって、
前記第1イヤセット機器に入力された第1言語の音声が電子機器で実行されるアプリケーションの通訳機能によって第2言語の音声に変換され、前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器に提供されるように、前記第1言語の音声を前記電子機器に送信する段階、
前記第2イヤセット機器に入力されて前記電子機器で受信された第2言語の音声を、前記電子機器が前記実行されるアプリケーションの通訳機能によって第1言語の音声に変換することに応答し、前記電子機器から前記変換された第1言語の音声を受信する段階、および
前記受信した第1言語の音声を出力する段階
を含む、通訳機能提供方法。
(付記12)
前記第2イヤセット機器と前記電子機器間の通信を中継するか、または前記第2イヤセット機器の中継によって前記電子機器と通信する、付記11に記載の通訳機能提供方法。
(付記13)
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生し、前記電子機器に送信されるアプリケーション実行信号によって前記電子機器で前記アプリケーションが実行される、付記11に記載の通訳機能提供方法。
(付記14)
前記第1言語は、前記第1イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第1イヤセット機器に対応して予め設定された言語を含み、
前記第2言語は、前記第2イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第2イヤセット機器に対応して予め設定された言語を含む、付記11に記載の通訳機能提供方法。
(付記15)
コンピュータと結合して付記1~14のうちのいずれか一項に記載の方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラム。
(付記16)
付記1~14のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータで読み取り可能な記録媒体。
(付記17)
第1イヤセット機器であって、
音の入力を受けるための音信号入力部、
音を出力するための音信号出力部、
電子機器または前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器と通信するための通信部、および
前記音信号入力部、前記音信号出力部、および前記通信部を制御する制御部
を備え、
前記制御部は、
前記音信号入力部に入力される第1言語の音声が前記電子機器で実行されるアプリケーションの通訳機能によって第2言語の音声に変換され、前記第1イヤセット機器とイヤセットペアをなす第2イヤセット機器に提供されるように、前記第1言語の音声を前記電子機器に送信するように前記通信部を制御し、
前記第2イヤセット機器に入力されて前記電子機器で受信された第2言語の音声を、前記電子機器が前記実行されたアプリケーションの通訳機能によって第1言語の音声に変換することに応答し、前記電子機器から前記変換された第1言語の音声を受信するように前記通信部を制御し、
前記受信した第1言語の音声を出力するように前記音信号出力部を制御する、第1イヤセット機器。
(付記18)
前記制御部は、
前記第2イヤセット機器と前記電子機器間の通信を中継するように前記通信部を制御するか、または前記第2イヤセット機器の中継によって前記電子機器と通信するように前記通信部を制御する、付記17に記載の第1イヤセット機器。
(付記19)
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生して前記電子機器に送信されるアプリケーション実行信号によって前記電子機器で前記アプリケーションが実行される、付記17に記載の第1イヤセット機器。
(付記20)
前記第1言語は、前記第1イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第1イヤセット機器に対応して予め設定された言語を含み、
前記第2言語は、前記第2イヤセット機器に入力される音声の言語を前記実行されたアプリケーションを利用して感知した言語を含むか、または前記実行されたアプリケーションで前記第2イヤセット機器に対応して予め設定された言語を含む、付記17に記載の第1イヤセット機器。
Hereinafter, the means taught by the present application will be exemplarily listed.
(Additional note 1)
A method for providing an interpretation function of an electronic device, the method comprising:
receiving an application execution signal generated by the first earset device or the second earset device;
executing an application corresponding to the received application execution signal; and controlling the electronic device through at least one of the first earset device and the second earset device according to the control of the application to be executed. A method for providing an interpretation function, the method comprising the step of providing an interpretation function for voice received by the user into another language.
(Additional note 2)
The step of providing the interpretation function includes:
converting the first language audio input through the first ear-set device and received by the electronic device into a second language audio and providing the second language audio; The method for providing an interpretation function according to appendix 1, wherein the second language voice received by the electronic device is converted into the first language voice and the first language voice is provided to the first ear set device.
(Additional note 3)
The electronic device directly communicates with any one of the first earset device and the second earset device, and wireless communication between the directly communicating earset device and the remaining one earset device. The method for providing an interpretation function according to appendix 1, wherein the method indirectly communicates with the remaining one ear-set device through communication.
(Additional note 4)
The method for providing an interpretation function according to appendix 1, wherein the electronic device directly communicates with both the first ear-set device and the second ear-set device at the same time.
(Appendix 5)
A music listening mode or a phone call using at least one of the first ear-set device and the second ear-set device based on the received application execution signal or the interpretation mode start signal input by the executed application. switching a call mode to an interpretation mode; and an application end signal generated by one of the earset pairs including the first earset device and the second earset device or an interpretation input by the application. The method for providing an interpretation function according to appendix 1, further comprising the step of switching the interpretation mode to the music listening mode or the telephone conversation mode based on a mode end signal.
(Appendix 6)
A telephone is being executed using at least one of the first earset device and the second earset device based on the received application execution signal or the interpretation mode start signal input by the executed application. the stage of switching the call mode to the interpretation mode;
converting audio in a first language input through at least one of the first ear-set device and the second ear-set device and received by the electronic device into audio in a second language using the interpreting function; step,
switching the interpreting mode to the telephone call mode based on an application end signal generated by the first earset device or the second earset device or an interpreter mode end signal input by the application; and The method for providing an interpretation function according to appendix 1, further comprising the step of providing a second language voice to the other party of the telephone call through the telephone call mode.
(Appendix 7)
The method for providing an interpretation function according to appendix 1, wherein the first ear-set device and the second ear-set device constitute an ear-set pair for a left ear and a right ear.
(Appendix 8)
The application execution signal may be input by a physical button included in at least one of the first earset device and the second earset device, or one of the first earset device and the second earset device. The method for providing an interpretation function according to Supplementary Note 1, wherein the method is generated based on an output value of at least one sensor.
(Appendix 9)
The step of providing the interpretation function includes:
sensing a first language of audio input through the first ear-set device and received by the electronic device and a second language of audio input through the second ear-set device and received by the electronic device;
converting the sensed first language sound into sensed second language sound, and converting the sensed second language sound into sensed first language sound; and the transformed second language sound. The method for providing an interpretation function according to appendix 1, comprising the steps of: providing audio in the second language to the second ear-set device; and providing the converted audio in the first language to the first ear-set device.
(Appendix 10)
The step of providing the interpretation function includes:
The application converts the audio input through the first ear-set device and received by the electronic device into a second language set for the second ear-set device; converting the audio received by the electronic device into a first language set for the first earset device by the application; and providing the converted audio in the second language to the second earset device. and providing the converted first language audio to the first earset device.
(Appendix 11)
A method for providing an interpretation function of a first earset device, the method comprising:
The audio in the first language input to the first ear-set device is converted into the audio in the second language by an interpreter function of an application executed on the electronic device, and the second ear-set device is paired with the first ear-set device. transmitting audio in the first language to the electronic device to be provided to an earset device;
in response to the electronic device converting a second language audio input to the second ear-set device and received by the electronic device into a first language audio by an interpreting function of the executed application; A method for providing an interpretation function, the method comprising: receiving the converted audio in the first language from the electronic device; and outputting the received audio in the first language.
(Appendix 12)
The method for providing an interpretation function according to appendix 11, wherein communication between the second ear-set device and the electronic device is relayed, or the second ear-set device communicates with the electronic device by relaying the communication.
(Appendix 13)
input via a physical button included in at least one of the first earset device and the second earset device; or an input via a sensor included in at least one of the first earset device and the second earset device; 12. The method for providing an interpretation function according to appendix 11, wherein the application is executed in the electronic device by an application execution signal generated by the output value and sent to the electronic device.
(Appendix 14)
The first language may include a language sensed using the executed application as a language of audio input to the first earset device, or a language detected by the executed application to the first earset device. Contains corresponding preset languages,
The second language may include a language sensed by using the executed application to detect the language of audio input to the second earset device, or the second language may include a language sensed using the executed application. The method for providing an interpretation function according to appendix 11, including a corresponding preset language.
(Appendix 15)
A computer program stored on a computer-readable recording medium in combination with a computer to cause the computer to execute the method according to any one of appendices 1 to 14.
(Appendix 16)
A computer-readable recording medium on which a program for causing a computer to execute the method according to any one of Supplementary Notes 1 to 14 is recorded.
(Appendix 17)
A first earset device,
a sound signal input section for receiving sound input;
a sound signal output section for outputting sound;
a communication section for communicating with an electronic device or a second ear-set device forming an ear-set pair with the first ear-set device; and a control section for controlling the sound signal input section, the sound signal output section, and the communication section. Equipped with
The control unit includes:
The sound in the first language input to the sound signal input unit is converted into the sound in the second language by an interpretation function of an application executed on the electronic device, and controlling the communication unit to transmit audio in the first language to the electronic device so as to be provided to the earset device;
in response to the electronic device converting a second language voice input to the second ear-set device and received by the electronic device into a first language voice by an interpreting function of the executed application; controlling the communication unit to receive the converted first language audio from the electronic device;
A first ear set device that controls the sound signal output unit to output the received sound in the first language.
(Appendix 18)
The control unit includes:
The communication unit is controlled to relay communication between the second earset device and the electronic device, or the communication unit is controlled to communicate with the electronic device by relaying the second earset device. , the first earset device according to appendix 17.
(Appendix 19)
input via a physical button included in at least one of the first earset device and the second earset device; or an input via a sensor included in at least one of the first earset device and the second earset device; 18. The first earset device according to claim 17, wherein the application is executed on the electronic device by an application execution signal generated by an output value and transmitted to the electronic device.
(Additional note 20)
The first language may include a language sensed using the executed application as a language of audio input to the first earset device, or a language detected by the executed application to the first earset device. Contains corresponding preset languages,
The second language may include a language sensed by using the executed application to detect the language of audio input to the second earset device, or the second language may include a language sensed using the executed application. The first earset device according to claim 17, including a corresponding preset language.

110:電子機器
120:第1イヤセット機器
130:第2イヤセット機器
110: Electronic device 120: First earset device 130: Second earset device

Claims (11)

電子機器の通訳機能提供方法であって、
左右の耳に着用する1つのイヤセットペア(pair)を形成する第1イヤセット機器および第2イヤセット機器に対し、第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号を前記電子機器で受信する段階、
前記受信したアプリケーション実行信号に対応するアプリケーションを前記電子機器で実行させる段階、
前記実行されたアプリケーションの制御にしたがい、前記電子機器で実行する通訳モードをセルフ通訳モードまたは多者間通訳モードに設定する段階、および
前記電子機器で実行される通訳モードを前記多者間通訳モードに設定した場合、前記実行するアプリケーションの制御にしたがい、前記電子機器が、第1ユーザの片耳に着用された前記第1イヤセット機器および第2ユーザの片耳に着用された前記第2イヤセット機器と通信して前記第1ユーザおよび前記第2ユーザ間の互いに異なる言語への前記多者間通訳モードによる通訳機能を提供する段階
を含
前記設定する段階は、前記第1イヤセット機器および前記第2イヤセット機器のうち少なくとも1つを通じて入力される音声に対する分析に基づいて、前記電子機器で実行する通訳モードを前記セルフ通訳モードまたは前記多者間通訳モードに自動的に設定し、
前記電子機器で実行される通訳モードを前記セルフ通訳モードに設定した場合、前記実行されたアプリケーションの制御にしたがい、前記電子機器が、前記第1イヤセット機器及び前記第2イヤセット機器の少なくとも1つを通じて入力された第1言語の音声を第2言語に変換し、変換された前記第2言語の音声を前記第1イヤセット機器及び前記第2イヤセット機器のうち少なくとも1つを通じて出力することによって前記セルフ通訳モードによる通訳機能を提供する、通訳機能提供方法。
A method for providing an interpretation function of an electronic device, the method comprising:
The application execution signal generated by the first earset device or the second earset device is transmitted to the first earset device and the second earset device forming one earset pair worn on the left and right ears. the stage of receiving with an electronic device;
causing the electronic device to execute an application corresponding to the received application execution signal;
setting an interpreting mode executed by the electronic device to a self-interpreting mode or a multi-party interpreting mode according to the control of the executed application; and
When the interpreting mode executed by the electronic device is set to the multi-party interpreting mode, the electronic device is set to the first ear set device worn on one ear of the first user according to the control of the executed application. and communicating with the second ear set device worn on one ear of a second user to provide an interpretation function between the first user and the second user in different languages using the multi-party interpretation mode. including ,
The setting step includes setting the interpretation mode executed by the electronic device to the self-interpretation mode or the Automatically set to multiparty interpretation mode,
When the interpretation mode executed by the electronic device is set to the self-interpretation mode, the electronic device is configured to perform at least one of the first earset device and the second earset device according to the control of the executed application. converting the voice in the first language input through the earphone into a second language, and outputting the converted voice in the second language through at least one of the first earset device and the second earset device. A method for providing an interpreting function, comprising: providing an interpreting function using the self-interpreting mode .
前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され前記電子機器が受信した第1ユーザの第1言語の音声を第2ユーザの第2言語の音声に変換して前記第2イヤセット機器に提供し、前記第2イヤセット機器を通じて入力され前記電子機器が受信した第2言語の音声を第1言語の音声に変換して前記第1イヤセット機器に提供し、互いに異なる言語への通訳機能を提供する、請求項1に記載の通訳機能提供方法。
The step of providing the interpretation function includes:
Converting the first user's voice in the first language input through the first ear-set device and received by the electronic device into the second user's voice in the second language, and providing the converted voice to the second ear-set device; Converting a second language voice input through a second ear-set device and received by the electronic device into a first language voice and providing the same to the first ear-set device, thereby providing an interpreting function into different languages. The method for providing an interpretation function as described in Section 1.
前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器のうちのいずれか1つのイヤセット機器と直接通信し、前記直接通信するイヤセット機器と残り1つのイヤセット機器間の無線通信によって前記残り1つのイヤセット機器と間接通信する、請求項1に記載の通訳機能提供方法。 The electronic device directly communicates with any one of the first earset device and the second earset device, and wireless communication between the directly communicating earset device and the remaining one earset device. 2. The method for providing an interpretation function according to claim 1, wherein the method indirectly communicates with the remaining earset device through communication. 前記電子機器は、前記第1イヤセット機器および前記第2イヤセット機器の両方と直接通信する、請求項1に記載の通訳機能提供方法。 The method of claim 1, wherein the electronic device directly communicates with both the first earset device and the second earset device. 前記受信したアプリケーション実行信号または前記実行するアプリケーションで入力される通訳モード開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用した音楽鑑賞モードまたは電話通話モードを通訳モードに切り替える段階、および
前記第1イヤセット機器と第2イヤセット機器を含むイヤセットペアのうちいずれか1つのイヤセット機器で発生するアプリケーション終了信号または前記アプリケーションで入力される通訳モード終了信号に基づいて、前記通訳モードを前記音楽鑑賞モードまたは電話通話モードに切り替える段階
をさらに含む、請求項1に記載の通訳機能提供方法。
A music listening mode or a phone call using at least one of the first ear-set device and the second ear-set device based on the received application execution signal or the interpretation mode start signal input by the executed application. switching a call mode to an interpretation mode; and an application end signal generated by one of the earset pairs including the first earset device and the second earset device or an interpretation input by the application. The method for providing an interpretation function according to claim 1, further comprising: switching the interpretation mode to the music listening mode or the telephone conversation mode based on a mode end signal.
前記電子機器を使用した電話通話の相手との電話通話中に、電話通話中通訳機能を提供する段階
をさらに含み、
前記電話通話中通訳機能を提供する段階は、
前記電子機器が前記電話通話の相手と電話通話中の状態で、前記第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号または前記実行するアプリケーションで入力される電話通話中通訳モードの開始信号に基づいて、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを利用して実行中の電話通話モードを電話通話中通訳モードに切り替える段階、
前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つを通じて入力され受信した言語の音声を、前記電話通話の相手の言語である他の言語の音声に変換する段階、および
前記変換された前記他の言語の音声を、前記電話通話モードを通じて前記電話通話の相手に提供する段階
をさらに含む、請求項1に記載の通訳機能提供方法。
further comprising: providing an interpreter function during a telephone call during a telephone call with the other party using the electronic device;
The step of providing an interpreting function during a telephone call includes:
An application execution signal generated by the first ear-set device or the second ear-set device or an interpreter mode during a telephone call input by the application to be executed while the electronic device is in a telephone conversation with the other party of the telephone conversation. switching an ongoing telephone call mode to a mid-phone call interpretation mode using at least one of the first earset device and the second earset device based on a start signal;
converting audio in a language input and received through at least one of the first earset device and the second earset device into audio in another language that is the language of the other party of the telephone call; and The method for providing an interpretation function according to claim 1, further comprising: providing the converted voice in the other language to the other party of the telephone call through the telephone call mode.
前記アプリケーション実行信号は、前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含む物理的なボタンによる入力、または前記第1イヤセット機器および前記第2イヤセット機器のうちの少なくとも1つが含むセンサの出力値によって発生する、請求項1に記載の通訳機能提供方法。 The application execution signal may be input by a physical button included in at least one of the first earset device and the second earset device, or one of the first earset device and the second earset device. The method for providing an interpretation function according to claim 1, wherein the interpretation function is generated based on an output value of at least one sensor. 前記通訳機能を提供する段階は、
前記第1イヤセット機器を通じて入力され受信した前記第1ユーザの音声の第1言語と前記第2イヤセット機器を通じて入力され受信した前記第2ユーザの音声の第2言語を感知する段階、
感知された第1言語の音声を感知された第2言語の音声に変換し、感知された第2言語の音声を感知された第1言語の音声に変換する段階、および
前記変換された第2言語の音声を前記第2イヤセット機器に提供し、前記変換された第1言語の音声を前記第1イヤセット機器に提供する段階
を含む、請求項2に記載の通訳機能提供方法。
The step of providing the interpretation function includes:
sensing a first language of the first user's voice input and received through the first earset device and a second language of the second user's voice input and received through the second earset device;
converting the sensed first language sound into sensed second language sound, and converting the sensed second language sound into sensed first language sound; and the transformed second language sound. 3. The method of claim 2, further comprising the steps of: providing audio in the second language to the second earset device; and providing the converted audio in the first language to the first earset device.
コンピュータと結合して請求項1~8のうちのいずれか一項に記載の方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラム。 A computer program stored on a computer-readable recording medium in combination with a computer to cause the computer to execute the method according to any one of claims 1 to 8. 請求項1~8のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータで読み取り可能な記録媒体。 A computer-readable recording medium on which a program for causing a computer to execute the method according to any one of claims 1 to 8 is recorded. 通訳機能を提供する電子機器であって、
メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
左右の耳に着用する1つのイヤセットペア(pair)を形成する第1イヤセット機器および第2イヤセット機器に対し、第1イヤセット機器または第2イヤセット機器で発生するアプリケーション実行信号を受信し、
前記受信したアプリケーション実行信号に対応するアプリケーションを実行
前記実行されたアプリケーションの制御にしたがい、前記電子機器で実行する通訳モードをセルフ通訳モードまたは多者間通訳モードに設定し、
前記電子機器で実行される通訳モードを前記多者間通訳モードに設定した場合、前記実行するアプリケーションの制御にしたがい、第1ユーザの片耳に着用された前記第1イヤセット機器および第2ユーザの片耳に着用された前記第2イヤセット機器と通信して前記第1ユーザおよび前記第2ユーザ間の互いに異なる言語への前記多者間通訳モードによる通訳機能を提供するものであり、
前記電子機器で実行する通訳モードをセルフ通訳モードまたは多者間通訳モードに設定する際に、前記第1イヤセット機器および前記第2イヤセット機器のうち少なくとも1つを通じて入力される音声に対する分析に基づいて、前記電子機器で実行する通訳モードを前記セルフ通訳モードまたは前記多者間通訳モードに自動的に設定し、
前記電子機器で実行される通訳モードを前記セルフ通訳モードに設定した場合、前記実行されたアプリケーションの制御にしたがい、前記電子機器が、前記第1イヤセット機器及び前記第2イヤセット機器の少なくとも1つを通じて入力された第1言語の音声を第2言語に変換し、変換された前記第2言語の音声を前記第1イヤセット機器及び前記第2イヤセット機器のうち少なくとも1つを通じて出力することによって前記セルフ通訳モードによる通訳機能を提供する、電子機器。
An electronic device that provides an interpreting function,
at least one processor configured to execute computer-readable instructions contained in the memory;
The at least one processor includes:
Receive an application execution signal generated by the first earset device or the second earset device with respect to a first earset device and a second earset device forming one earset pair worn on the left and right ears. death,
executing an application corresponding to the received application execution signal;
setting the interpretation mode executed by the electronic device to a self-interpretation mode or a multi-party interpretation mode according to the control of the executed application;
When the interpreting mode executed by the electronic device is set to the multi-party interpreting mode, the first ear set device worn on one ear of the first user and the second user's communicating with the second ear set device worn on one ear to provide an interpretation function between the first user and the second user in mutually different languages in the multi-party interpretation mode ;
When setting the interpretation mode executed by the electronic device to a self-interpretation mode or a multi-party interpretation mode, analysis of audio input through at least one of the first earset device and the second earset device is performed. automatically setting an interpreting mode executed by the electronic device to the self-interpreting mode or the multi-party interpreting mode based on the method;
When the interpretation mode executed by the electronic device is set to the self-interpretation mode, the electronic device is configured to perform at least one of the first earset device and the second earset device according to the control of the executed application. converting the voice in the first language input through the earphone into a second language, and outputting the converted voice in the second language through at least one of the first earset device and the second earset device. An electronic device that provides an interpretation function according to the self-interpretation mode .
JP2021121707A 2017-06-29 2021-07-26 Method of providing interpretation function of electronic device and ear-set device Active JP7437356B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170082430A KR102161554B1 (en) 2017-06-29 2017-06-29 Method and apparatus for function of translation using earset
KR10-2017-0082430 2017-06-29
JP2017220005A JP6985113B2 (en) 2017-06-29 2017-11-15 How to provide an interpreter function for electronic devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017220005A Division JP6985113B2 (en) 2017-06-29 2017-11-15 How to provide an interpreter function for electronic devices

Publications (2)

Publication Number Publication Date
JP2021177418A JP2021177418A (en) 2021-11-11
JP7437356B2 true JP7437356B2 (en) 2024-02-22

Family

ID=64742478

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017220005A Active JP6985113B2 (en) 2017-06-29 2017-11-15 How to provide an interpreter function for electronic devices
JP2021121707A Active JP7437356B2 (en) 2017-06-29 2021-07-26 Method of providing interpretation function of electronic device and ear-set device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017220005A Active JP6985113B2 (en) 2017-06-29 2017-11-15 How to provide an interpreter function for electronic devices

Country Status (3)

Country Link
JP (2) JP6985113B2 (en)
KR (1) KR102161554B1 (en)
WO (1) WO2019004762A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102182720B1 (en) 2019-05-16 2020-11-24 주식회사 포콘스 translation method using an earphone with role switching function
CN110457716B (en) * 2019-07-22 2023-06-06 维沃移动通信有限公司 Voice output method and mobile terminal
CN115037831A (en) * 2021-03-05 2022-09-09 深圳市万普拉斯科技有限公司 Mode control method and device, electronic equipment and earphone

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509379A (en) 2013-04-18 2016-03-24 小米科技有限▲責▼任公司Xiaomi Inc. Smart terminal device control method, system, program, and recording medium
US20170060850A1 (en) 2015-08-24 2017-03-02 Microsoft Technology Licensing, Llc Personal translator

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200218609Y1 (en) * 2000-10-04 2001-04-02 황용안 Dual microphone and earphone system for interpretation
JP2006146732A (en) * 2004-11-24 2006-06-08 Nec Corp Automatic translation method, automatic translation server device, and automatic translation method used for the same
US8041066B2 (en) * 2007-01-03 2011-10-18 Starkey Laboratories, Inc. Wireless system for hearing communication devices providing wireless stereo reception modes
KR101589433B1 (en) * 2009-03-11 2016-01-28 삼성전자주식회사 Simultaneous Interpretation System
US8541233B2 (en) * 2009-06-26 2013-09-24 Lifenet Health Methods for collecting and processing autografts, processed autografts, kits for collecting and transporting autografts, and tools for preparing autografts
KR101058493B1 (en) * 2010-10-26 2011-08-26 장동수 Wireless voice recognition earphones
WO2013163293A1 (en) * 2012-04-25 2013-10-31 Kopin Corporation Instant translation system
KR20150021707A (en) * 2013-08-21 2015-03-03 삼성전기주식회사 Simultaneity interpreting terminal
KR101517975B1 (en) * 2013-11-29 2015-05-06 유한회사 청텍 Earphone apparatus with synchronous interpretating and translating function
JP2016091350A (en) * 2014-11-06 2016-05-23 富士通株式会社 Information processing apparatus, information processing method, and information processing program
KR101619133B1 (en) * 2014-12-22 2016-05-10 해보라 주식회사 Earset for interpretation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509379A (en) 2013-04-18 2016-03-24 小米科技有限▲責▼任公司Xiaomi Inc. Smart terminal device control method, system, program, and recording medium
US20170060850A1 (en) 2015-08-24 2017-03-02 Microsoft Technology Licensing, Llc Personal translator

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
世界の言葉の壁を取り払う、同時通訳イヤホンPilotが商品化!,株式会社ユーディーアール ワールドビジネスブログ,日本,株式会社ユーディーアール,2016年06月30日

Also Published As

Publication number Publication date
KR20190002069A (en) 2019-01-08
JP2021177418A (en) 2021-11-11
JP6985113B2 (en) 2021-12-22
KR102161554B1 (en) 2020-10-05
WO2019004762A1 (en) 2019-01-03
JP2019012507A (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP7437356B2 (en) Method of providing interpretation function of electronic device and ear-set device
US11630636B2 (en) Changing companion communication device behavior based on status of wearable device
US20220103924A1 (en) Remotely Controlling a Hearing Device
US20230300532A1 (en) Fully customizable ear worn devices and associated development platform
CN110556127B (en) Method, device, equipment and medium for detecting voice recognition result
JP2014153715A (en) Portable terminal with voice talk function and voice talk method thereof
KR20140074549A (en) Method and apparatus for providing context aware service using speech recognition
US20190138603A1 (en) Coordinating Translation Request Metadata between Devices
KR20100102480A (en) Simultaneous interpretation system
KR20150026754A (en) Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof
KR102447381B1 (en) Method for providing intelligent agent service while calling and electronic device thereof
KR20140142476A (en) Method for processing data and an electronis device thereof
CN109360549B (en) Data processing method, wearable device and device for data processing
US20170195817A1 (en) Simultaneous Binaural Presentation of Multiple Audio Streams
CN114245271B (en) Audio signal processing method and electronic equipment
KR20180138017A (en) Device and system for voice recognition
WO2023010014A1 (en) Fully customizable ear worn devices and associated development platform
KR102393112B1 (en) Method and apparatus for function of translation using earset
CN116208704A (en) Sound processing method and device
CN107124679A (en) The method and apparatus that multimedia file is played
KR20200056754A (en) Apparatus and method for generating personalization lip reading model
WO2018035873A1 (en) Audio data processing method, terminal device, and storage medium
CN113299309A (en) Voice translation method and device, computer readable medium and electronic equipment
KR20200031062A (en) Method and system for controlling earset
US20230297324A1 (en) Audio Control Method, System, and Electronic Device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230606

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230728

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231201

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240209

R150 Certificate of patent or registration of utility model

Ref document number: 7437356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150