KR102170902B1 - Real-time multi-language interpretation wireless transceiver and method - Google Patents

Real-time multi-language interpretation wireless transceiver and method Download PDF

Info

Publication number
KR102170902B1
KR102170902B1 KR1020180086950A KR20180086950A KR102170902B1 KR 102170902 B1 KR102170902 B1 KR 102170902B1 KR 1020180086950 A KR1020180086950 A KR 1020180086950A KR 20180086950 A KR20180086950 A KR 20180086950A KR 102170902 B1 KR102170902 B1 KR 102170902B1
Authority
KR
South Korea
Prior art keywords
data
voice
earset
translation
language
Prior art date
Application number
KR1020180086950A
Other languages
Korean (ko)
Other versions
KR20200012104A (en
Inventor
백민호
Original Assignee
(주)에어사운드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에어사운드 filed Critical (주)에어사운드
Priority to KR1020180086950A priority Critical patent/KR102170902B1/en
Priority to PCT/KR2018/010398 priority patent/WO2019164078A1/en
Publication of KR20200012104A publication Critical patent/KR20200012104A/en
Application granted granted Critical
Publication of KR102170902B1 publication Critical patent/KR102170902B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 실시간 다자 통역 무선 이어셋 및 송수신 방법에 관한 것으로, 이어셋을 이용하여 다른 언어를 사용하는 다수의 사용자와 대화가 가능하도록 하는 장치에 관한 것이다. 상기 이어셋은 사용자의 언어 정보를 설정하는 ID 세팅부와, 음성을 입력받아 ID 데이터와 음성데이터를 인코딩하여 전송하는 송신단과, 상기 ID 데이터와 음성데이터를 수신받아 디코딩하여 해당 언어로 출력하는 수신단을 포함하한다. 또한, 1 대 다수 또는 다수 대 다수로 구성되는 다수개의 이어셋의 송신부에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 상기 다수개의 송수신장치의 수신부로 전송하는 번역서버와 연결된다.The present invention relates to a wireless earphone for real-time multi-way interpretation and a method for transmitting and receiving, and to an apparatus for enabling a conversation with a plurality of users using different languages by using the earphone. The earset includes an ID setting unit for setting language information of a user, a transmitting end receiving voice and encoding and transmitting ID data and voice data, and a receiving end receiving and decoding the ID data and voice data and outputting in a corresponding language. Include. In addition, ID data and voice data transmitted from the transmitter of a plurality of earphones composed of one to many or many to many are received, and ID data and voice data for each of a plurality of predefined languages are transmitted to the receiver of the plurality of transceivers. It is connected to the translation server.

Description

실시간 다자 통역 무선 이어셋 및 이를 이용한 송수신 방법{Real-time multi-language interpretation wireless transceiver and method}Real-time multi-language interpretation wireless transceiver and method}

본 발명은 실시간 다자 통역 무선 이어셋 및 방법에 관한 것으로서, 더욱 상세하게는 실시간 다자 통역 무선 이어셋이 입력된 음성과 해당 언어정보에 대한 ID 신호가 결합되는 데이터를 번역서버를 통해 송수신하여 번역을 실시간으로 수행하며, 사용자의 귀에 착용 가능한 이어셋을 통해 다수의 사람들이 다른 언어를 쓰더라도 실시간으로 대화가 가능하도록 하는 장치 및 그 방법에 관한 것이다.The present invention relates to a real-time multi-party interpretation wireless earphone and method, and more particularly, to transmit and receive data in which the voice inputted by the real-time multi-party interpretation wireless earphone and the ID signal for the corresponding language information are combined through a translation server to transmit and receive translation in real time. The present invention relates to an apparatus and a method for enabling a conversation in real time even if a number of people use different languages through an earset wearable on a user's ear.

최근에 들어 교통 및 통신 기술이 발달함에 따라 국제교류가 활발하게 이루어지고 있다. 많은 사람이 서로 다른 언어를 사용하는 국가를 방문하는 경우가 증가하고 있어 해당 국가의 언어를 자국어로 통번역할 수 있는 인력에 대한 수요가 급증하고 있다. In recent years, with the development of transportation and communication technologies, international exchanges are actively taking place. As many people visit countries where different languages are spoken, the demand for human resources who can interpret and translate the language of that country into their own language is increasing rapidly.

특히, 외국에 지사를 둔 기업, 기관이나 개인 간의 국제교류의 증가로 인하여 다양한 분야에서 통번역에 대한 서비스가 절실한 실정이다. In particular, due to the increase in international exchanges between companies, institutions and individuals with branches in foreign countries, there is a desperate need for interpretation and translation services in various fields.

이에 따라 다양한 번역 장치 및 방법에 대한 기술도 계속하여 발전해 왔는데, 인터넷을 통해 자국의 언어를 해당 국가의 언어로 통번역하는 문자 번역 서비스는 이미 상당한 번역 수준을 제공하고 있다. 또한, 스마트 기기에 의해 전용 통번역 어플리케이션 또는 전용 번역기를 이용하면 일정 수준의 통번역도 가능하다.As a result, technologies for various translation devices and methods have been continuously developed, and text translation services that interpret and translate a native language into a corresponding national language through the Internet have already provided a considerable level of translation. In addition, a certain level of interpretation and translation is possible by using a dedicated interpretation and translation application or a dedicated translator using a smart device.

이러한 스마트 기기 또는 전용 번역기는 사용자가 해당 국가의 사람을 만나 직접 대면할 때 사용자가 미리 해당 국가의 언어를 설정해 두거나 전용 번역기가 상대방의 음성을 인식함으로써 실시간으로 자국어를 해당 국가의 음성으로 통번역하게 된다.Such a smart device or a dedicated translator interprets and translates the native language into the voice of the country in real time by setting the language of the country in advance when the user meets and faces a person in the country, or the exclusive translator recognizes the voice of the other party. .

하지만, 회의 등과 같이 다양한 국가의 다양한 언어를 사용하는 사용자가 동시에 모일 때는 서로 다른 언어를 사용하는 사람과 대화할 때마다 사용자가 직접 번역기를 조작하여야 하는 불편함이 발생하고, 설령 번역기가 음성을 인식하여 자동으로 해당 언어로 번역한다고 하더라도 현재 기술 수준으로는 음성 인식에 따른 지연에 대한 문제점과 음성 인식 불량에 대한 문제점이 발생한다. However, when users who speak a variety of languages from different countries gather at the same time, such as a conference, the inconvenience of having to operate the translator directly occurs whenever the user communicates with a person who speaks different languages, even if the translator recognizes the voice. Thus, even if it is automatically translated into a corresponding language, a problem of delay due to speech recognition and a problem of poor speech recognition occur at the current technology level.

따라서, 회의 등과 같이 다양한 국적의 사람들과 실시간으로 원활하게 대화하기 위해서는 다수의 사용자가 동시에 대화를 하더라도 지연이 발생하지 않는 번역기에 대한 개발이 필요한 실정이다. Therefore, in order to smoothly communicate with people of various nationalities such as conferences in real time, it is necessary to develop a translator that does not cause delay even if a plurality of users communicate simultaneously.

또한, 실시간으로 번역이 되더라도, 직접 읽어 내용을 전달할 경우, 발음상의 차이로 사용자가 대화를 이해하지 못하거나 시간이 많이 소요되어 불편함이 있었다. In addition, even if the translation is performed in real time, when the content is directly read and delivered, the user does not understand the conversation due to a difference in pronunciation or takes a lot of time, resulting in inconvenience.

자동 통번역 시스템에 관한 기술이 한국공개특허 제10-2016-0122371호, "전자장치를 이용한 자동 통번역 시스템 및 방법" (이하 선행기술)에 개시되어 있다.A technology related to an automatic interpretation and translation system is disclosed in Korean Patent Laid-Open Publication No. 10-2016-0122371, "Automatic interpretation and translation system and method using an electronic device" (hereinafter, prior art).

상기 선행기술은 다른 국가 언어에 익숙하지 않거나 언어가 통하지 않는 조건에서도 자신이 사용하는 전자장치에서 자국어를 이용하여 언어장벽을 해소하며 불특정 다수의 언어별로 자동으로 통ㅇ번역이 가능한 시스템이다. The prior art is a system capable of automatically interpreting and translating for a number of unspecified languages by removing language barriers by using the native language in the electronic device used by the electronic device even under conditions where the language is not familiar or the language of another country is not communicated.

그러나 상기와 같은 종래의 선행기술은, 음성통화장치를 이용한 사용자와 타인의 음성통화를 통역해 주는 것이 아니라, 만남을 통한 대화시 이를 통역해 주는 것에 한정되며, 상기 음성통화장치인 휴대폰이 통역 서비스 이용하기 위해 문자 비용이 소요되는 문제점이 있다. 또한, 스마트폰을 이용하여 통역 서비스를 이용하도록 하고 있으나, 이 역시도 음성통화가 아닌 만남을 통한 대화시 유용하며, 사용자가 문자를 통해 대화를 진행하기 때문에 실제로 대화를 하는 환경은 이루어지지 않는 단점이 있다.However, the prior art of the prior art as described above is limited to interpreting the voice call between a user and another person using a voice call device, but not interpreting it during a conversation through a meeting, and the mobile phone as the voice call device provides an interpretation service. There is a problem in that text costs are required to use. In addition, although the interpretation service is to be used using a smartphone, this is also useful for conversations through meetings rather than voice calls, and the disadvantage of not having an actual conversation environment because the user proceeds with the conversation through text messages. have.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 종래의 통역기가 음성통화장치를 이용하여 번역을 진행하여, 직접 대화하는 환경을 제공하지 못하는 점을 해소하기 위한 것으로, 사용자의 발음에 상관없이 사용자가 직접 대화하는 대화환경을 제공하고자 한다.The present invention was conceived to solve the above-described problem, and is to solve the problem that a conventional interpreter does not provide a direct conversation environment by performing translation using a voice communication device, regardless of the user's pronunciation. It is intended to provide a conversation environment in which users can directly communicate.

또한, 본 발명은 종래의 통역기가 장치에 하드웨어적으로 해당 언어정보에 대한 ID를 부여받아 언어를 분석 및 인식하고 있어 복수의 언어를 통번역할 때 발생하는 인식 지연 및 인식 불량을 해소하기 위하여 실시간 다자 통역 무선 이어셋이 입력된 음성과 해당 언어정보에 대한 ID 신호가 결합되는 데이터를 번역서버를 통해 송수신함으로써 ID 신호만을 분석하면 곧바로 해당 언어를 통역할 수 있어 복수의 언어를 통번역할 때에도 음성 인식 지연 및 인식 불량을 해소할 수 있도록 한 실시간 다자 통역 무선 송수신장치를 제공하는 데 그 목적이 있다. In addition, the present invention analyzes and recognizes a language by receiving an ID for corresponding language information in hardware by a conventional interpreter, so that real-time multi-party in order to solve the recognition delay and poor recognition that occurs when interpreting and translating multiple languages. Interpretation By transmitting and receiving data that combines the input voice and the ID signal for the corresponding language information through the translation server, you can immediately interpret the corresponding language by analyzing only the ID signal, so even when interpreting and translating multiple languages, speech recognition delay and It is an object of the present invention to provide a real-time multi-party interpretation wireless transmission/reception device capable of solving poor recognition.

본 발명의 실시 예들의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The objects of the embodiments of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. .

사용자의 음성을 인식하는 마이크 및 이어폰을 포함하는 이어셋, 상기 이어셋은 1대 1, 1대 다수 또는 다수 대 다수로 구성되며, 사용자의 언어 정보를 설정하는 ID 세팅부와 상기 마이크에 인식된 음성을 언어 정보를 포함하는 ID 데이터와 음성데이터로 인코딩하는 송신단 및 상기 송신단으로부터 수신받은 ID 데이터와 음성데이터를 디코딩하는 수신단을 포함한다.An earset including a microphone and earphone for recognizing a user's voice, the earset is composed of one to one, one to one or a plurality of ones, and an ID setting unit for setting the user's language information and the voice recognized by the microphone. And a transmitting end encoding ID data and voice data including language information, and a receiving end decoding ID data and voice data received from the transmitting end.

또한, 상기 이어셋은 상기 송신단에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 번역하여, 대응되는 타 이어셋의 수신단으로 전송하는 번역서버와 연결되는 것을 특징으로 한다.In addition, the earset is connected to a translation server that receives the ID data and voice data transmitted from the transmitting end, translates the ID data and voice data for each of a plurality of predefined languages, and transmits it to the receiving end of the corresponding other earset. To do.

또한, 상기 무선 송수신 장치는 이어셋 및 상기 송신단에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 번역하여, 대응되는 타 이어셋의 수신단으로 전송하는 번역서버를 포함한다.In addition, the wireless transmission/reception apparatus includes a translation server for receiving the ID data and voice data transmitted from the earset and the transmitting end, translating the ID data and voice data for each of a plurality of predefined languages, and transmitting it to the receiving end of the corresponding tire set. Include.

사용자의 언어 정보를 설정하는 ID 세팅부와, 음성을 입력받아 ID 데이터와 음성데이터를 인코딩하여 전송하는 송신단과, 상기 ID 데이터와 음성데이터를 수신받아 디코딩하여 해당 언어로 출력하는 수신단을 포함하는 이어셋 및 1 대 다수 또는 다수 대 다수로 구성되는 다수개의 이어셋의 송신부에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 상기 다수개의 이어셋의 수신부로 전송하는 번역서버를 포함할 수 있다. Earset comprising an ID setting unit for setting language information of a user, a transmitting end for receiving voice input and encoding and transmitting ID data and voice data, and a receiving end for receiving and decoding the ID data and voice data and outputting in a corresponding language And a translation of receiving ID data and voice data transmitted from the transmitter of a plurality of earphones consisting of one to many or many to many, and transmitting the ID data and voice data for each of a plurality of predefined languages to the receiver of the plurality of earphones. May include a server.

구체적으로, 상기 송신단은, 음성을 입력받아 전기 신호를 변환하는 음성입력부와, 상기 ID 세팅부의 신호를 전송받아 분석하는 제1 헤더분석부와, 입력된 음성과 제1 헤더 분석부에서 분석된 ID 신호를 데이터로 변환하고 결합하는 인코딩부 및 상기 인코딩부에서 변환된 음성데이터와 ID 데이터가 결합된 데이터를 상기 번역서버로 송신하는 송신부를 포함할 수 있다. Specifically, the transmitting end includes a voice input unit that receives voice and converts an electric signal, a first header analysis unit that receives and analyzes a signal from the ID setting unit, and an input voice and an ID analyzed by the first header analysis unit. It may include an encoding unit for converting and combining signals into data, and a transmission unit for transmitting the combined data of voice data and ID data converted by the encoding unit to the translation server.

구체적으로, 상기 수신단은, 번역서버로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 수신부와, 상기 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하는 디코딩부와, 상기 ID 데이터를 분석하여 해당 언어 정보를 추출하고 매칭시키는 제2 헤더분석부 및 해당 언어를 음성으로 출력하는 음성출력부를 포함할 수 있다. Specifically, the receiving end includes a receiving unit that receives data in which voice data and ID data are combined from a translation server, and a decoding unit that decodes the data in which the voice data and ID data are combined and separates it into voice data and ID data, It may include a second header analysis unit for analyzing the ID data to extract and match corresponding language information, and a voice output unit for outputting the corresponding language as a voice.

상기 과제를 달성하기 위한 본 발명의 실시간 다자 통역 무선 송수신 방법은, 번역서버가 대상 이어셋의 수를 결정하는 노드설정단계와, 번역서버가 1 대 다수 또는 다수 대 다수의 통신 방식을 결정하는 통신방식결정단계와, 번역서버가 상기 통신 방식이 1 대 다수이면 다수개의 이어셋 중에서 마스터/슬레이브를 결정하는 마스터/슬레이브결정단계와, 번역서버가 ID를 정의하는 ID정의단계와, 다수개의 이어셋으로부터 번역서버가 데이터를 수신받아 통번역하는 통번역단계를 포함할 수 있다. In the real-time multi-party interpretation wireless transmission/reception method of the present invention for achieving the above object, a node setting step in which the translation server determines the number of target earphones, and a communication method in which the translation server determines a one-to-many or many-to-many communication method. A determination step, a master/slave determination step in which the translation server determines a master/slave among a plurality of earphones if the communication method is one to many, an ID definition step in which the translation server defines an ID, and a translation server from a plurality of earphones It may include an interpretation and translation step of receiving and interpreting the data.

구체적으로, 상기 통번역단계에서 이어셋이 번역서버를 통해 데이터를 송신받는 송신단계는, 음성입력부로 음성을 입력받는 음성입력단계와, 제1 헤더 분석부가 ID 세팅부의 신호를 전송받아 분석하는 송신ID분석단계와, 상기 음성입력단계에서 전송된 음성과 상기 송신ID분석단계에서 분석된 신호를 데이터로 변환하고 결합하는 인코딩단계 및 상기 인코딩단계에서 전송되는 음성데이터와 ID 데이터를 번역서버로 전송하는 데이터송신단계를 포함할 수 있다. Specifically, the transmission step in which the earphones transmit data through the translation server in the interpretation and translation step includes a voice input step of receiving a voice input through a voice input unit, and a transmission ID analysis in which the first header analysis unit receives and analyzes a signal from the ID setting unit. And an encoding step of converting and combining the voice transmitted in the voice input step and the signal analyzed in the transmission ID analysis step into data, and a data transmission for transmitting the voice data and ID data transmitted in the encoding step to a translation server. It may include steps.

구체적으로, 상기 통번역단계에서 이어셋이 번역서버를 통해 데이터를 수신받는 수신단계는, 상기 번역서버로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 데이터수신단계와, 상기 ID 데이터를 분석하여 해당 언어 정보를 추출하여 상기 이어셋에 설정된 ID와 매칭되는 ID 데이터와 음성데이터를 선택하는 수신ID분석단계와, 상기 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하고 음성으로 변환하는 디코딩단계 및 상기 디코딩단계에서 변환된 해당 언어를 음성으로 출력하는 음성출력단계를 포함할 수 있다. Specifically, in the interpretation and translation step, the receiving step of receiving data from the earset through the translation server includes a data receiving step of receiving data combining voice data and ID data from the translation server, and analyzing the ID data to Receiving ID analysis step of extracting information and selecting ID data and voice data matching the ID set in the earset, and decoding the data combined with the voice data and ID data, separating it into voice data and ID data, and converting it into voice It may include a decoding step of performing the decoding step and a voice output step of outputting the corresponding language converted in the decoding step as a voice.

이상에서 설명한 바와 같이 본 발명은 종래의 통역기가 장치에 하드웨어적으로 해당 언어정보에 대한 ID를 부여받아 언어를 분석 및 인식하여 문자를 통해 사용자에게 전달되거나, 직접 읽거나, 번역된 글을 보여주는 행동을 통해 시간이 소요되는 통역 과정과는 달리, 실시간 다자 통역 무선 이어셋을 통해, 입력된 음성과 해당 언어정보에 대한 ID 신호가 결합되는 데이터를 번역서버를 통해 송수신하여 번역된 문장을 실제로 들을 수 있도록 하여 실제 대화환경을 조성하는 효과가 있다.As described above, according to the present invention, a conventional interpreter receives an ID for corresponding language information in hardware, analyzes and recognizes the language, and transmits it to the user through text, reads it, or displays the translated text. Unlike the interpretation process that takes time through a real-time multi-party interpretation wireless earphone, the data that the input voice and the ID signal for the corresponding language information are combined is transmitted and received through the translation server so that the translated sentences can be actually heard. This has the effect of creating an actual conversation environment.

또한, 실시간 다자 통역 무선 이어셋은 상기 번역 서버에서 전송되는 데이터 중에서 ID 신호만을 분석하면 곧바로 해당 언어를 통역할 수 있어 음성을 인식할 때 발생하는 인식 지연 및 인식 불량이 발생하지 않는 효과가 있다. In addition, the real-time multi-way interpretation wireless earphone can interpret a corresponding language immediately by analyzing only an ID signal among data transmitted from the translation server, so that a recognition delay and poor recognition that occur when recognizing a voice does not occur.

도1은 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동 예를 나타낸 도면.
도2는 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동을 나타낸 도면.
도3은 본 발명의 다른 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동을 나타낸 도면.
도4는 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋의 구조를 나타낸 도면.
도5는 본 발명의 일 실시예에 따른 이어셋에서 번역서버로 송수신되는 데이터의 구조를 개략적으로 나타낸 블록도이다.
도6은 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 송수신 방법을 나타낸 순서도.
도7은 도6에 도시된 통번역단계의 송신단계를 나타낸 순서도.
도8은 도6에 도시된 통번역단계의 수신단계를 나타낸 순서도.
도9는 1 대 다수 또는 다수 대 다수로 구성되는 예를 나타낸 도면.
도10은 다수 대 다수로 구성된 후 릴레이로 연결되는 예를 나타낸 도면.
1 is a view showing an operation example of a real-time multi-party interpretation wireless earphone according to an embodiment of the present invention.
2 is a view showing the operation of a real-time multi-party interpretation wireless earphone according to an embodiment of the present invention.
3 is a view showing the operation of a real-time multi-party interpretation wireless earphone according to another embodiment of the present invention.
Figure 4 is a view showing the structure of a real-time multi-party interpretation wireless earphone according to an embodiment of the present invention.
5 is a block diagram schematically showing the structure of data transmitted and received from an earset to a translation server according to an embodiment of the present invention.
Figure 6 is a flow chart showing a real-time multi-party interpretation wireless transmission and reception method according to an embodiment of the present invention.
Fig. 7 is a flow chart showing the transmission step of the interpretation and translation step shown in Fig. 6;
Fig. 8 is a flow chart showing the reception step of the interpretation and translation step shown in Fig. 6;
Fig. 9 is a diagram showing an example of one-to-many or many-to-many.
Fig. 10 is a diagram showing an example of being connected to a relay after being composed of a plurality of units.

본 발명의 실시예들에 대한 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the embodiments of the present invention, and a method of achieving them will become apparent with reference to the embodiments described later in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동 예를 나타낸 도면이며, 도2는 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동을 나타낸 도면이다.1 is a view showing an operation example of a real-time multi-party interpretation wireless earphone according to an embodiment of the present invention, Figure 2 is a view showing the operation of the real-time multi-party interpretation wireless ear set according to an embodiment of the present invention.

도1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 실시간 다자 통역 무선 이어셋은, 이어셋을 이용하여 실시간으로 통역을 진행한다. 즉, 상기 이어셋을 통해, 말하기와 듣기가 동시에 이루어지는 것이 가능하다. 또한, 이어셋은 1대1, 1대 다수 또는 다수 대 다수로 동시에 연결되어 여러명이 동시에 다른 언어로 대화하는 것 또한 가능하며, 블루투스를 통해 핸드폰에 연결되어 다른 언어를 쓰는 사람과 실시간으로 통화하는 것 또한 가능하다. 상기 이어셋은, 웨어러블한 이어셋 연결형으로, 모든 스마트폰에서 활용 가능하며, 스마트폰 뿐만 아니라, 다양한 스마트 기기에서 사용 가능이다. 상기 이어셋은 일 실시예에 따른 장치이며, 이어셋에 한정하는 것은 아니며, 마이크와 이어폰이 구비되어 있는 장치이면 무엇이든 가능하다.As shown in Fig. 1, the real-time multi-party interpretation wireless earset according to an embodiment of the present invention uses the earset to perform interpretation in real time. That is, through the ear set, it is possible to simultaneously speak and listen. In addition, the earphones are connected to one-to-one, one-to-many, or many-to-many at the same time, so that several people can communicate in different languages at the same time, and they are connected to a mobile phone via Bluetooth to make a real-time call with a person who speaks a different language. It is also possible. The earset is a wearable earset connection type, and can be used in all smart phones, and can be used in a variety of smart devices as well as smart phones. The earset is a device according to an embodiment, and is not limited to the earset, and any device provided with a microphone and earphone may be used.

도2는 본 발명의 일 실시예로서, 제1이어셋(111)을 착용한 제1사용자와 제2이어셋(112)을 착용한 제2사용자를 중심으로 설명한다. 상기 제1사용자는 제1이어셋(111)을 착용하고, 상기 제1이어셋(111)의 제1마이크(10)는 제1사용자의 음성을 인식한다. 상기 인식된 음성은 식별ID와 음성데이터로 변환되어 제2이어셋(112)으로 전달되고, 상기 전달된 음성은 제2이어셋(112)에서 번역서버(200)로 전송된다. 상기 번역서버(200)에 대해서는 후술하기로 한다.2 is an exemplary embodiment of the present invention, and will be described centering on a first user wearing the first earphone 111 and a second user wearing the second earphone 112. The first user wears the first earphone 111, and the first microphone 10 of the first earphone 111 recognizes the voice of the first user. The recognized voice is converted into identification ID and voice data and transmitted to the second earphone 112, and the transmitted voice is transmitted from the second earphone 112 to the translation server 200. The translation server 200 will be described later.

상기 번역서버(200)에서 TTS로 변환된 데이터를 다시 제2이어셋(112)으로 전달하고, 제2이어셋(112)은 사용자에게 음성데이터로 결과를 출력하게 된다.The translation server 200 transmits the data converted to TTS back to the second earphone 112, and the second earphone 112 outputs the result as voice data to the user.

즉, 상기 제2이어셋(112)은, 상기 제1이어셋(111)으로부터 전달받은 식별 ID(언어) 및 음성 데이터를 번역서버(200)로 전송하고, 상기 번역서버(200)에서 처리된 값인 TTS 데이터를 전송받아 음성데이터로 출력하게 된다.That is, the second earphone 112 transmits the identification ID (language) and voice data received from the first earphone 111 to the translation server 200, and the TTS value processed by the translation server 200 Data is received and output as voice data.

상기 번역서버(200)는 전달받은 식별 ID와 음성데이터를 분석하여 언어 번역을 수행하게 된다. 상기 번역된 언어는 TTS로 변환되게 된다. 상기 번역서버(200)에서 TTS로 변환된 데이터는 제2이어셋(112)으로 전달되게 되고, 상기 제2이어셋(112)은 전달받은 TTS 데이터를 음성데이터로 출력하게 된다. 상기 번역서버(200)는 별도의 서버를 두어 이어셋과 통신하는 방식 일 수 있다.The translation server 200 analyzes the received identification ID and voice data to perform language translation. The translated language is converted to TTS. The data converted to TTS by the translation server 200 is transmitted to the second earphone 112, and the second earphone 112 outputs the transmitted TTS data as voice data. The translation server 200 may have a separate server to communicate with the earphones.

이때, 언어번역을 수행하는 API(Application Programming interface)는 Google Cloud Platform, PAPAGO 등의 API가 사용될 수 있으며, 전술한 API외에도 다양한 API가 사용가능하며, 이에 한정하는 것은 아니다. In this case, as an API (Application Programming Interface) for performing language translation, an API such as Google Cloud Platform or PAPAGO may be used, and various APIs other than the above-described API may be used, but are not limited thereto.

또한, 도2는 두 사용자간의 사용을 나타냈으나, 이에 한정하는 것은 아니며, 1대 1, 1대 다수 또는 다수 대 다수가 동시에 대화하도록 연결하는 것 또한 가능하다.In addition, although FIG. 2 shows the use between two users, it is not limited thereto, and it is also possible to connect one-to-one, one-to-many, or many-to-many conversations at the same time.

또한, 상기 도2는, 제1사용자의 제1이어셋(111)의 제1마이크(10)에서 인식된 음성이 제2사용자의 제2이어셋(112)에서 번역서버(200)로 전송되어 번역을 수행하였지만, 이에 한정하는 것은 아니며, 실시 예에 따라, 제1이어셋(111)에서 번역서버(200)로 식별ID와 음성데이터를 전송하여 번역한 뒤, 변환된 TTS 데이터를 제2이어셋(112)으로 전달하는 것 또한 가능하다. In addition, in FIG. 2, the voice recognized by the first microphone 10 of the first earphone 111 of the first user is transmitted from the second earphone 112 of the second user to the translation server 200 for translation. Although performed, it is not limited thereto, and according to an embodiment, the identification ID and voice data are transmitted from the first earphone 111 to the translation server 200 and translated, and then the converted TTS data is converted to the second earphone 112 It is also possible to pass it on.

즉, 사용자의 음성을 인식하는 마이크 및 이어폰을 포함하는 이어셋은, 1대 1, 1대 다수 또는 다수 대 다수로 구성되며, 상기 마이크에 인식된 음성을 언어 정보를 포함하는 ID 데이터와 음성데이터로 인코딩하는 송신단 및 상기 송신단으로부터 수신받은 ID 데이터와 음성데이터 음성데이터를 디코딩하는 수신단을 포함한다. 또한, 상기 송신단에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를, 대응되는 타 이어셋의 수신단으로 전송하는 번역서버(200)를 포함한다.That is, the earset including a microphone and earphone for recognizing a user's voice is composed of one to one, one to one or many to many, and the voice recognized by the microphone is converted into ID data and voice data including language information. And a transmitting end for encoding and a receiving end for decoding ID data and voice data and voice data received from the transmitting end. In addition, it includes a translation server 200 for receiving the ID data and voice data transmitted from the transmitting end and transmitting the ID data and voice data for each of a plurality of predefined languages to the receiving end of a corresponding tire set.

또한, 만약 이어셋이 블루투스 형태의 이어셋이라면, 상기 번역서버는 이어셋이 블루투스 페어링되는 스마트폰에 구현 될 수 있다. 이때, 상기 번역서버는 스마트폰에 소프트웨어의 형태(예를 들면 어플리케이션)로 구현되어, 실시간 다자 통역 서비스를 할 수 있는 이어셋과 연동될 수 있다.In addition, if the earphone is a Bluetooth type earphone, the translation server may be implemented in a smartphone to which the earphone is paired with Bluetooth. In this case, the translation server may be implemented in the form of software (for example, an application) on a smartphone, and may be interlocked with an earset capable of providing a real-time multi-party interpretation service.

또한 번역서버의 또다른 구체적인 실시예로는 번역API를 처리하는 부분을 클라우드 서버단에 구현하고, 스마트폰에는 이어셋과 연동하며 사용자와 인터페이스하는 부분만 어플리케이션의 형태로 구현되도록 할 수도 있다.In addition, as another specific embodiment of the translation server, a part that processes the translation API may be implemented in the cloud server, and only the part that interfaces with the user and interfaces with the smartphone may be implemented in the form of an application.

도3은 본 발명의 다른 실시예에 따른 실시간 다자 통역 무선 이어셋의 작동을 나타낸 도면이다. 도3에 도시된 바와 같이, 상기 이어셋은 펜던트의 형태로 제조 될 수 있다. 즉, 귀에 착용하는 대신 펜던트 형태로 제조된 이어셋은 목걸이 등에 걸어 사용가능하다.3 is a view showing the operation of a real-time multi-party interpretation wireless earphone according to another embodiment of the present invention. As shown in Figure 3, the earset may be manufactured in the form of a pendant. That is, instead of wearing it on the ear, the earset manufactured in the form of a pendant can be used by hanging it on a necklace.

일예로, 영어를 사용하는 사용자와 한국어를 사용하는 사용자가 각각 펜던트를 소지하였을 경우, 영어를 사용하는 사용자가 영어로 말을 하게 되면, 펜던트는 인식된 영어를 한국어를 사용하는 사용자의 펜던트로 전송하게 되고, 한국어를 사용하는 사용자의 펜던트는 전달받은 영어를 한국어로 번역하게 된다.For example, if an English-speaking user and a Korean-speaking user each have a pendant, when the English-speaking user speaks English, the pendant transmits the recognized English to the Korean-speaking user's pendant. The Korean-speaking user's pendant translates the received English into Korean.

번역된 한국어는 한국어를 사용하는 사용자에게 전달되고, 사용자는 그 내용을 듣고 한국어로 말을 대답을 하게 된다. 한국어를 사용하는 사용자의 펜던트는 상기 한국어를 인식하고, 영어를 사용하는 사용자의 펜던트에 한국어를 전달하고 상기 펜던트는 한국어를 영어로 번역하여 사용자에게 출력하게 된다.The translated Korean is delivered to a user who speaks Korean, and the user listens to the contents and answers the word in Korean. The Korean-speaking user's pendant recognizes the Korean language, and delivers Korean to the English-speaking user's pendant, and the pendant translates Korean into English and outputs it to the user.

상기와 같은 이어셋 또는 펜던트 형태의 번역 이어셋은, 수신받은 언어를 타 언어로 번역함에 있어, 번역 서버 내의 API를 선택하여 번역한다. 본 발명의 일 실시예에 따른 이어셋은, 번역을 진행할 시, 인식률이 높은 API를 사용자의 기호에 따라 선택하여 사용자 맞춤으로 사용가능하다.The earset or pendant-type translation earset as described above selects and translates an API in the translation server when translating the received language into another language. The earset according to an embodiment of the present invention can be customized to a user by selecting an API having a high recognition rate according to a user's preference when performing translation.

예를 들어, 파파고과 같은 번역 API의 경우, 한국어 인식률이 뛰어난 반면, 중국어 인식률은 상대적으로 뛰어나지 못해, 한글을 중국어로 번역하는 것은 뛰어나지만 중국어를 한국어로 번역하는 것은 뛰어나지 못하다. 이와 마찬가지로 구글은 영어 인식률이 더 높아 영어를 타 언어로 번역하는 것이 뛰어나다. 이러한 경우, 본 발명의 일 실시예에 따른 이어셋은, 한국어를 인식할 시에는 파파고를 선택하여 이용하고 영어를 인식할 시에는 구글을 선택하여 번역 하는 등, 언어에 따라 인식률이 높은 API를 선택 가능하다.For example, in the case of a translation API such as Papago, the Korean recognition rate is excellent, while the Chinese recognition rate is relatively poor, so it is excellent at translating Hangul into Chinese, but not excellent at translating Chinese into Korean. Likewise, Google has a higher recognition rate in English, so it is excellent at translating English into other languages. In this case, the earset according to an embodiment of the present invention can select an API with a high recognition rate depending on the language, such as selecting and using Papago when recognizing Korean, and selecting Google to translate when recognizing English. Do.

따라서, 번역서버에 복수개의 API(파파고, 구글, 바이두 등)를 미리 구비하여, 각국 언어를 번역할 시 해당 언어의 인식률이 높은 API를 선택하여 사용할 수 있도록 한다. 즉, 번역서버에서 번역과 관련된 API를 언어별로 최적화하여 쉽게 번경가능하며, 해당 번역 API의 발전 또는 업그레이드에 따른 마이그레이션(migration) 또한 용이하다.Therefore, a plurality of APIs (Papago, Google, Baidu, etc.) are provided in advance in the translation server, so that when translating each language, an API with a high recognition rate of the corresponding language can be selected and used. That is, translation-related APIs can be easily changed by optimizing translation-related APIs for each language in the translation server, and migration according to the development or upgrade of the corresponding translation API is also easy.

상기 API를 선택할 시, 해당 언어를 인식하여 자동으로 API를 선택 할 수도 있고, 사용자가 직접 API를 선택하여 사용하는 것 또한 가능하다.When selecting the API, it is possible to automatically select the API by recognizing the corresponding language, or it is also possible for the user to directly select and use the API.

도4는 이어셋의 내부를 개략적으로 나타낸 블록도로서, 본 발명의 송수신장치(100)는 ID 세팅부(110), 송신단(120) 및 수신단(130)를 포함할 수 있다. 4 is a block diagram schematically showing the inside of an earset, and the transmission/reception apparatus 100 of the present invention may include an ID setting unit 110, a transmission terminal 120, and a reception terminal 130.

먼저, 이러한 이어셋(100)은 본 발명의 일실시예에서 송신장치와 수신장치가 하나의 장치에 함께 장착된 것을 가정하였지만, 이에 한정되는 것이 아니고, 송신장치와 수신장치가 별도의 장치에 분리되어 장착되어서 서로 송수신하면서 하나의 세트로 구성되게 할 수도 있고, 송신장치 하나와 다수개의 수신장치의 세트로 구성되게 할 수도 있다. 다시 말하면, 다수명이 서로 동시에 대화하는 회의 같은 경우에는 송신장치와 수신장치과 하나의 세트로 구성되도록 하는 것이 바람직하고 한명이 다수명에게 발표하는 경우에는 하나의 송신장치와 다수개의 수신장치의 구성으로 이루어지도록 하는 것이 바람직하다고 할 수 있다.First, the earset 100 is assumed that the transmitting device and the receiving device are mounted together in one device in an embodiment of the present invention, but the present invention is not limited thereto, and the transmitting device and the receiving device are separated into separate devices. It may be mounted to be configured as a set while transmitting and receiving each other, or may be configured as a set of one transmitting device and a plurality of receiving devices. In other words, in the case of a conference in which a plurality of people communicate with each other at the same time, it is desirable to consist of a set with the transmitting device and the receiving device. In the case of a single presentation to a large number of people, it is composed of one transmitting device and a plurality of receiving devices. It can be said that it is desirable to lose.

ID 세팅부(110)는 사용자의 언어 정보를 설정하는 기능을 수행한다. 다시 말하면, 사용자가 자신의 국적, 즉, 듣고자 원하는 자기 나라의 언어를 설정하게 되면 해당 언어에 대한 정보를 생성하여 이어셋(100)의 송신부(120) 및 수신부(130)로 전송할 수 있도록 한다. 본 발명의 일실시예에서는 ID 세팅부(110)를 장치의 외부에 인식 가능한 디스플레이와 버튼의 조합이거나, 터치스크린 등으로 이루어지는 것으로 가정하였는데, ID 세팅부(110)가 위의 예에 한정되는 것은 아니고 유사한 기능의 다른 수단으로 얼마든지 변용이 가능함은 당연하다 할 것이다.The ID setting unit 110 performs a function of setting language information of a user. In other words, when a user sets his/her nationality, that is, the language of his/her country he/she wants to hear, information about the corresponding language is generated and transmitted to the transmitter 120 and the receiver 130 of the earphone 100. In an embodiment of the present invention, it is assumed that the ID setting unit 110 is a combination of a display and a button recognizable to the outside of the device, or is formed of a touch screen, but the ID setting unit 110 is limited to the above example. No, it is natural that it can be transformed by any other means of similar function.

송신단(120)은, 음성을 입력받아 ID 데이터와 음성데이터를 인코딩하여 전송하는 기능을 수행하는데, 음성입력부(121), 제1 헤더분석부(122), 인코딩부(123) 및 송신부(124)를 포함할 수 있다. The transmitter 120 receives voice and encodes and transmits ID data and voice data. The voice input unit 121, the first header analysis unit 122, the encoding unit 123, and the transmission unit 124 It may include.

음성입력부(121)는 음성을 입력받아 전기 신호를 변환하는 기능을 수행하는데, 본 발명의 일실시예에서는 음성입력부(121)가 다양한 종류의 마이크로폰으로 이루어지는 것으로 가정하였다. 물론 이러한 음성입력부(121) 이외에도 텍스트 입력 장치 또는 터치펜 등의 다양한 입력기기가 대체 사용될 수도 있다 하겠다.The voice input unit 121 performs a function of receiving a voice and converting an electric signal. In an embodiment of the present invention, it is assumed that the voice input unit 121 is formed of various types of microphones. Of course, in addition to the voice input unit 121, various input devices such as a text input device or a touch pen may be used instead.

제1 헤더분석부(122)는 ID 세팅부(110)의 신호를 전송받아 분석하는 기능을 수행하는데, 사용자가 자신의 언어, 즉, 듣고자 하는 해당 언어를 설정하게 되면 그에 따라 ID 세팅부(110)에 의해 해당 언어의 정보가 포함한 ID 신호가 발생하고 이러한 신호는 수신단(120)으로 전송되어 제1 헤더분석부(122)로 전송되며, 제1 헤더분석부(122)는 해당 신호를 분석하여 이후 인코딩부(123)에서 변활될 데이터 형식에 적합한 신호를 생성해내게 된다. The first header analysis unit 122 performs a function of receiving and analyzing a signal from the ID setting unit 110. When the user sets his/her language, that is, the language to be heard, the ID setting unit ( 110) generates an ID signal including information of the corresponding language, and this signal is transmitted to the receiving end 120 and transmitted to the first header analysis unit 122, and the first header analysis unit 122 analyzes the signal. Accordingly, the encoding unit 123 generates a signal suitable for the data format to be converted.

인코딩부(123)는, 입력된 음성과 제1 헤더분석부(122)에서 분석된 ID 신호를 데이터로 변환하고 결합하는 기능을 수행하는데, 이와 같이 함으로써 번역서버(200)로 전송되는 데이터는 ID 신호에 해당하는 헤드 데이티와 입력된 음성에 해당하는 음성 데이터로 이루어지도록 한다.The encoding unit 123 converts and combines the input voice and the ID signal analyzed by the first header analysis unit 122 into data. By doing so, the data transmitted to the translation server 200 is ID It consists of head data corresponding to the signal and voice data corresponding to the input voice.

송신부(124)는, 인코딩부(123)에서 변환된 음성데이터와 ID 데이터가 결합된 데이터를 번역서버(200)로 송신하는 기능을 수행한다. 본 발명의 일실시예에서 송신부(124)는 일정 거리 이상 떨어진 번역서버(200)와 무선으로 송수신할 수 있도록 송신부(124)가 RF 통신모듈, Wifi 모듈 등으로 이루어지는 것으로 가정하였는데, 이외에도 다양한 통신 모듈이 사용될 수 있음은 당연하다 할 것이다. The transmission unit 124 performs a function of transmitting the combined data of the voice data and the ID data converted by the encoding unit 123 to the translation server 200. In an embodiment of the present invention, the transmitter 124 assumes that the transmitter 124 is made of an RF communication module, a Wifi module, etc. so that it can wirelessly transmit/receive with the translation server 200 separated by a certain distance or more. It is natural that it can be used.

수신단(130)은 ID 데이터와 음성데이터를 수신받아 디코딩하여 해당 언어로 출력하는 기능을 수행하는데, 음성출력부(131), 제2 헤더분석부(132), 디코딩부(133) 및 수신부(134)를 포함할 수 있다. The receiving end 130 receives and decodes ID data and voice data and outputs it in a corresponding language. The voice output unit 131, the second header analysis unit 132, the decoding unit 133, and the receiving unit 134 ) Can be included.

음성출력부(131)는, 해당 언어를 음성으로 출력하는 기능을 수행하는데, 본 발명의 일실시예에서는 보통 스피커로 구성될 수 있고, 이어폰을 이용할 수 있도록 구성될 수 있고, 이들 모두를 포함하여 구성될 수도 있다. The voice output unit 131 performs a function of outputting a corresponding language as a voice, and in one embodiment of the present invention, it may be composed of a normal speaker, may be configured to use an earphone, and include all of them. It can also be configured.

제2 헤더분석부(132)는, ID 데이터를 분석하여 해당 언어 정보를 추출하고 매칭시키는 기능을 수행한다. 다시 말하면, 번역서버(200)에서 전파되는 다양한 언어에 대한 데이터를 전송받아 전송 데이터열의 헤드부만을 빠르게 분석함으로써 헤드부에 수록된 ID 데이터의 해당 언어 정보를 쉽게 추출하게 된다. 이와 같이 함으로써 종래의 번역기처럼 음성 자체를 인식하여 내부의 미리 저장된 언어와 비교하지 않아도 해당 번역기가 원하는 언어를 빠르게 통역할 수 있게 된다. The second header analysis unit 132 performs a function of analyzing ID data to extract and match corresponding language information. In other words, the translation server 200 receives data for various languages propagated from the translation server 200 and quickly analyzes only the head of the transmitted data string, thereby easily extracting the corresponding language information of the ID data contained in the head. In this way, the corresponding translator can quickly interpret the desired language without recognizing the voice itself like a conventional translator and comparing it with an internal pre-stored language.

디코딩부(133)는, 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하는 기능을 수행하게 된다. 다시 말하면, 번역서버(200)에서 전파되는 다양한 언어에 대한 데이터 중에서 제2 헤더분석부(132)가 해당 번역기에 맞는 데이터를 선택하면 선택된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하고 분리된 음성데이터를 변환하여 음성 신호로 바꿀 수 있도록 한다.The decoding unit 133 performs a function of decoding data in which voice data and ID data are combined and separating the data into voice data and ID data. In other words, if the second header analysis unit 132 selects data suitable for the corresponding translator among data for various languages propagated from the translation server 200, the selected data is decoded, separated into voice data and ID data, and separated voice It converts the data so that it can be converted into an audio signal.

수신부(134)는, 번역서버(200)로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 기능을 수행한다. 본 발명의 일실시예에서 수신부(134)는 일정 거리이상 떨어진 번역서버(200)와 무선으로 송수신할 수 있도록 RF 통신모듈, Wifi 모듈 등으로 이루어지는 것으로 가정하였는데, 이외에도 다양한 통신 모듈이 사용될 수 있음은 당연하다 할 것이다. The receiving unit 134 performs a function of receiving data combined with voice data and ID data from the translation server 200. In an embodiment of the present invention, it is assumed that the receiving unit 134 is made of an RF communication module, a Wifi module, etc. so as to transmit and receive wirelessly to and from the translation server 200 separated by a certain distance, but various communication modules may be used. I will say of course.

번역서버(200)는 1 대 다수 또는 다수 대 다수로 구성되는 다수개의 이어셋(100)의 송신부(124)에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 상기 다수개의 이어셋(100)의 수신부(134)로 전송하는 기능을 수행한다. The translation server 200 receives ID data and voice data transmitted from the transmitter 124 of a plurality of earphones 100 composed of one to many or many to many, and receives ID data and voice data for each of a plurality of predefined languages. It performs a function of transmitting to the receiving unit 134 of the plurality of earphones (100).

번역서버(200)는 본 발명의 일실시예에서 내부에 다양한 언어별 데이터 베이스와, 이들 데이터 베이스에 수록된 데이터를 이용하여 각각의 언어로 번역하는 알고리즘이 수록된 연산장치, 데이터 신호를 송수신 할 수 있는 통신부를 포함하는 것으로 가정하였다. In one embodiment of the present invention, the translation server 200 includes a database for various languages inside, an algorithm for translating into each language using data contained in these databases, and transmitting and receiving data signals. It is assumed to include a communication unit.

이상과 같이 구성되는 본 발명의 실시간 다자 통역 무선 송수신 시스템의 작동을 간략하게 설명하면 다음과 같다. A brief description of the operation of the real-time multi-party interpretation wireless transmission/reception system of the present invention configured as described above is as follows.

먼저, 사용자가 이어셋(100)의 ID 세팅부(110)를 조작한다. First, the user manipulates the ID setting unit 110 of the earset 100.

다음으로 송신단(120)은 입력되는 음성과 ID 세팅부(110)의 신호를 인코딩하고 합쳐서 번역서버(200)로 송신한다. Next, the transmitting end 120 encodes the input voice and the signal of the ID setting unit 110, combines it, and transmits it to the translation server 200.

다음으로, 번역서버(200)는 복수개의 이어셋(100)으로부터 송신되는 데이터를 전송받아 이어셋(100)의 구성을 파악하여 ID를 정의한 후, 실시간으로 입력되는 어느 하나의 이어셋(100)의 데이터를 미리 정의된 ID에 따라 다수개의 국가별 언어 데이터를 생성하여 이어셋(100)로 전파하게 된다. Next, the translation server 200 receives the data transmitted from the plurality of earphones 100, identifies the configuration of the earphones 100, defines the ID, and then stores the data of any one of the earphones 100 input in real time. According to a predefined ID, language data for each country is generated and propagated to the earset 100.

마지막으로, 수신단(130)은 이러한 다수개의 국가별 언어 데이터를 수신한 후 수신된 데이터의 ID 데이터를 분석하여 해당 기기의 ID 정보와 일치하는 데이터를 선택하여 디코딩하고 음성으로 출력하게 된다. Finally, after receiving the language data for each country, the receiving end 130 analyzes the ID data of the received data, selects and decodes data matching the ID information of the corresponding device, and outputs it as a voice.

도6은 본 발명의 일실시예에 따른 실시간 다자 통역 무선 송수신 방법을 나타낸 순서도로서, 본 발명의 실시간 다자 통역 무선 송수신 방법은, 노드설정단계(S310), 통신방식결정단계(S320), 마스터/슬레이브결정단계(S330), ID정의단계(S340) 및 통번역단계(S350)를 포함할 수 있다. Figure 6 is a flow chart showing a real-time multi-party interpretation wireless transmission and reception method according to an embodiment of the present invention, the real-time multi-party interpretation wireless transmission and reception method of the present invention, the node setting step (S310), the communication method determining step (S320), the master / It may include a slave determination step (S330), an ID definition step (S340), and an interpretation and translation step (S350).

노드설정단계(S310)는, 번역서버(200)가 대상 이어셋(100)의 수를 결정하는 단계이다. 상술한 바와 같이 본 발명의 일실시예에서는 다수의 사용자가 동시에 대화를 하는 회의 석상이나, 한 명이 다수명에게 발표를 하는 경우를 상정하였고, 이에 따라 번역기에 해당하는 이어셋(100)이 다수개가 필요하게 되므로 번역서버(200)는 실시간 다자 통역을 위해서 전체적인 이어셋(100)의 개수를 파악할 필요가 있다. The node setting step (S310) is a step in which the translation server 200 determines the number of target earphones 100. As described above, in one embodiment of the present invention, it is assumed that a conference seat in which a plurality of users are simultaneously conversing, or a case in which one person makes a presentation to a plurality of persons, is required. Accordingly, a plurality of earphones 100 corresponding to a translator is required. Therefore, the translation server 200 needs to determine the total number of earphones 100 for real-time multi-party interpretation.

통신방식결정단계(S320)는, 번역서버(200)가 1 대 다수 또는 다수 대 다수의 통신 방식을 결정하는 단계로서, 상술한 바와 같이 파악된 다수개의 이어셋(100)이 어떠한 방식으로 서로 연결되어 구성되는가를 파악하여 브로드 캐스팅 방식으로 시스템을 운용할 것인지 다자간 쌍방향 방식으로 시스템을 운용할 것인지를 결정하여야 한다. The communication method determination step (S320) is a step in which the translation server 200 determines a one-to-many or many-to-many communication method, and the plurality of earphones 100 identified as described above are connected to each other in some way. It is necessary to determine whether to operate the system in a broadcasting method or a multi-party interactive method by grasping whether it is configured.

본 발명의 일실시예에서는 크게 1 대 다수 이거나 다수 대 다수의 통신방식으로 이어셋(100)이 구성되는 것을 가정하였지만, 이외에도 다양한 방식으로 이어셋(100)이 구성되어 그에 따른 통신 방식으로 시스템이 운용될 수 있음은 당연하다 할 것이다. In one embodiment of the present invention, it is assumed that the earphone 100 is configured in a large one-to-many or many-to-many communication method, but the earphones 100 are configured in various ways, and the system can be operated according to the communication method. It would be natural to be able to.

통신방식결정단계(S320)에서 이어셋(100)의 구성이 1 대 다수이면 이후의 마스터/슬레이브결정단계(S330)로 진행하고, 이어셋(100)의 구성이 1 대 다수가 아니고 다수 대 다수이면 ID정의단계(S340)로 진행하게 된다.If the configuration of the earset 100 in the communication method determination step (S320) is one to many, proceed to the subsequent master/slave determination step (S330), and if the configuration of the earset 100 is not one to many, but many to multiple, ID It proceeds to the definition step (S340).

마스터/슬레이브결정단계(S330)는, 번역서버(200)가 상기 통신 방식이 1 대 다수이면 다수개의 이어셋(100) 중에서 마스터/슬레이브를 결정하는 단계로서, 가령, 이어셋(100)이 번역서버(200)에 의해 1 대 다수의 통신방식으로 구성되었다고 판단하게 되면 그 중 송신을 담당하는 이어셋(100)을 찾아서 마스터로 지정하고 수신을 담당하는 이어셋(100)을 찾아서 슬레이브로 지정하게 된다. 예를 들면 마스터로 지정된 이어셋(100)의 경우에는 회의 석상의 발표자인 것을 예상할 수 있고 슬레이브로 지정된 이어셋(100)의 경우에는 발표자의 발표를 청취하는 참석자인 것을 예상할 수 있다. The master/slave determination step (S330) is a step of determining, by the translation server 200, a master/slave among a plurality of earphones 100 if the communication method is one to many, for example, the earphones 100 is a translation server ( When it is determined that the communication method is composed of one-to-many communication methods by 200), the earset 100 in charge of transmission is found and designated as a master, and the earset 100 in charge of reception is found and designated as a slave. For example, in the case of the earset 100 designated as a master, it can be expected that the speaker of the conference is the presenter, and in the case of the earset 100 designated as a slave, it can be expected that it is a participant who listens to the speaker's presentation.

ID정의단계(S340)는, 번역서버(200)가 ID를 정의하는 단계로서, 앞의 단계에서처럼 이어셋(100)을 파악하여 통신방식을 정하고 난 후, 이어셋(100)으로부터 전송되는 데이터를 전송받아 각각의 이어셋(100)에 저장된 ID 데이터에 따라 각각의 언어로 데이터를 생성하여 송출을 준비하는 단계이다. 따라서, 이후, 어느 하나의 이어셋(100)에서라도 음성 데이터가 실린 신호가 전송되면 ID정의단계(S340)에서 정해진 모든 ID 데이터의 언어별 데이터를 생성하여 실시간으로 이어셋(100)으로 송출하기 위함이다. The ID definition step (S340) is a step in which the translation server 200 defines an ID, and after determining a communication method by identifying the earset 100 as in the previous step, the data transmitted from the earset 100 is received. In this step, data is generated in each language according to the ID data stored in each ear set 100 to prepare for transmission. Therefore, after that, when a signal carrying voice data is transmitted from any one of the earphones 100, the purpose is to generate language-specific data of all the ID data determined in the ID definition step (S340) and transmit it to the earphones 100 in real time.

통번역단계(S350)는, 다수개의 이어셋이 번역서버를 통해 데이터를 송신 또는 수신받아 통번역하는 단계이다. 이 단계에서 사용자는 비로소 자신이 말한 음성이 상대방에게 해당 언어로 통역되어 들리게 되고 상대방이 말한 음성이 사용자의 언어로 통역되어 들리게 된다.Interpretation and translation step (S350) is a step in which a plurality of earphones transmits or receives data through a translation server to interpret and translate. At this stage, the user finally hears the voice spoken by the other party in the corresponding language, and the voice spoken by the other party is interpreted and heard in the user's language.

통번역단계(S350)는, 구체적으로 송신단계와 수신단계로 나누어 볼 수 있다. The interpretation and translation step (S350) may be specifically divided into a transmission step and a reception step.

도7은 도6에 도시된 통번역단계의 송신단계를 나타낸 순서도로서, 통번역단계(S350)에서 이어셋(100)가 번역서버(200)를 통해 데이터를 송신받는 송신단계는, 음성입력단계(S410), 송신ID분석단계(S420), 인코딩단계(S430) 및 데이터송신단계(S440)를 포함할 수 있다.Figure 7 is a flow chart showing the transmission step of the interpretation and translation step shown in Figure 6, the transmission step in which the earset 100 transmits data through the translation server 200 in the interpretation and translation step (S350), the voice input step (S410) , Transmission ID analysis step (S420), encoding step (S430), and data transmission step (S440) may be included.

음성입력단계(S410)는, 음성입력부(121)로 음성을 입력받는 단계로서, 마이크 등을 통해 사용자가 말할 때 그 음성을 입력 받아 전기적 신호로 변환한다. The voice input step (S410) is a step of receiving a voice through the voice input unit 121. When the user speaks through a microphone, the voice is received and converted into an electric signal.

송신ID분석단계(S420)는, 제1 헤더 분석부(122)가 ID 세팅부(110)의 신호를 전송받아 분석함으로써 이후의 인코딩단계(S430)에서 데이터로 변환될 수 있도록 한다. In the transmission ID analysis step (S420), the first header analysis unit 122 receives and analyzes the signal from the ID setting unit 110 so that it can be converted into data in a subsequent encoding step (S430).

인코딩단계(S430)는, 음성입력단계(S410)에서 전송된 음성과 상기 송신ID분석단계(S420)에서 분석된 신호를 데이터로 변환하고 결합하는 단계이다. 상술한 바와 같이 이와 같이 이어셋(100)이 번역서버(200)로 송수신하는 데이터 신호열을 헤드부의 ID 데이터와 음성부의 음성데이터로 구성함으로써 차후에 음성을 직접 인식하지 않고서도 해당 데이터 신호가 어떠한 언어에 해당하는지를 쉽게 빠르게 파악할 수 있도록 한다. The encoding step (S430) is a step of converting and combining the voice transmitted in the voice input step (S410) and the signal analyzed in the transmission ID analysis step (S420) into data. As described above, the data signal sequence transmitted and received by the earset 100 to the translation server 200 is composed of the ID data of the head and the voice data of the voice part, so that the data signal corresponds to any language without directly recognizing the voice in the future. Make it easy and quick to figure out whether it is.

데이터송신단계(S440)는, 인코딩단계(S430)에서 전송되는 음성데이터와 ID 데이터를 번역서버(200)로 전송하는 단계이다. The data transmission step (S440) is a step of transmitting the voice data and ID data transmitted in the encoding step (S430) to the translation server 200.

도8은 도6에 도시된 통번역단계의 수신단계를 나타낸 순서도로서, 통번역단계에서 이어셋이 번역서버를 통해 데이터를 수신받는 수신단계는, 데이터수신단계(S510), 수신ID분석단계(S520), 디코딩단계(S530) 및 음성출력단계(S540)를 포함할 수 있다. Figure 8 is a flow chart showing the receiving step of the interpretation and translation step shown in Figure 6, the receiving step in which the earset receives data through the translation server in the interpretation and translation step, the data receiving step (S510), the received ID analysis step (S520), It may include a decoding step (S530) and a voice output step (S540).

데이터수신단계(S510)는, 번역서버(200)로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 단계로서, 번역서버(200)는 ID정의단계(S34)에서 정의된 바와 같이 미리 정해진 각각의 이어셋(100)에 해당한 ID 별로 데이터를 만들어 동시에 송출하면 이어셋(100)이 이를 수신하게 된다.The data receiving step (S510) is a step of receiving data in which voice data and ID data are combined from the translation server 200, and the translation server 200 has each of the predetermined values as defined in the ID definition step (S34). When data is created for each ID corresponding to the ear set 100 and transmitted at the same time, the ear set 100 receives it.

수신ID분석단계(S520)는, ID 데이터를 분석하여 해당 언어 정보를 추출하여 상기 이어셋(100)에 설정된 ID와 매칭되는 ID 데이터와 음성데이터를 선택하는 단계이다. 다시 말하면, 동시에 송출되는 각각의 언어별 데이터 신호를 수신 받은 후 각각의 데이터 신호에서 빠르게 ID 데이터만을 분석하여 해당 이어셋(100)에서 요구하는 언어별 ID 데이터가 수록된 데이터 신호를 선택하는 단계이다. The reception ID analysis step (S520) is a step of analyzing ID data, extracting corresponding language information, and selecting ID data and voice data matching the ID set in the earset 100. In other words, after receiving the data signals for each language transmitted at the same time, only the ID data from each data signal is quickly analyzed to select a data signal containing the ID data for each language requested by the corresponding earphone 100.

디코딩단계(S530)는, 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하고 음성으로 변환하는 단계로서, 선택된 데이터 신호를 디코딩함으로써 이후 음성출력단계(S340)에서 실제처로 스피커 또는 이어폰을 울릴 수 있도록 해당 음성데이터를 전기적 신호로 변환하는 단계이다.The decoding step (S530) is a step of decoding the data in which the voice data and the ID data are combined, separating the data into voice data and ID data, and converting the data into voice. This is a step of converting the corresponding voice data into an electrical signal so that a speaker or earphone can sound.

음성출력단계(S540)는, 디코딩단계(S330)에서 변환된 해당 언어를 음성으로 출력하는 단계이다. The audio output step S540 is a step of outputting the corresponding language converted in the decoding step S330 as a voice.

도9와 도10에는 이어셋(100)의 구성 방식을 개략적으로 도형으로 표시한 것을 표시하였다. 9 and 10 schematically show the configuration method of the ear set 100 as a figure.

도9의 좌측상단에는 피어 투 피어 일방향 네트워크로 이어셋(100)이 구성되는 것을 나타내었다. 즉, 여기서 사용되는 이어셋(100)은 송신장치와 수신장치가 별도로 구성되어 일방향으로만 통신되는 것을 표시한 것이다. The upper left of Fig. 9 shows that the earset 100 is configured as a peer-to-peer one-way network. That is, the earset 100 used herein indicates that a transmitting device and a receiving device are configured separately and communicated only in one direction.

그 아래에는 피어 투 피어 양방향 네트워크로 이어셋(100)이 구성되는 것을 나타내었다. 즉, 여기서 사용되는 이어셋(100)은 송신장치와 수신장치가 별도로 구성되어 양방향으로만 통신되는 것을 표시한 것이다. Below it is shown that the earphone 100 is configured as a peer-to-peer bidirectional network. That is, the earset 100 used herein indicates that a transmitting device and a receiving device are separately configured to communicate only in both directions.

그 아래에는 일 대 다수 네트워크로 이어셋(100)이 구성되는 것을 나타내었다. 즉, 여기서는 이어셋(100)이 송신장치 하나와 다수개의 수신장치로 구성되어 송신장치 하나에서 일방향으로 전파되는 것을 표시한 것이다. 이를 방송국의 송출방식과 유사하므로 브로드캐스트 네트워크라고 지칭하기도 한다. Below it is shown that the earset 100 is configured as a one-to-many network. That is, in this case, the earset 100 is composed of one transmitting device and a plurality of receiving devices to indicate that it is propagated in one direction from one transmitting device. Since this is similar to the transmission method of a broadcasting station, it is also referred to as a broadcast network.

우측에는 성형망 네트워크로 이어셋(100)이 다수개가 서로 서로 송수신하도록 구성되는 것을 나타내었다. 다시 말하면, 이어셋(100)이 분리되지 않고 일체로 작동하여 다수개가 서로 서로 양방향 통신을 하는 것을 표시한 것이다. On the right, it is shown that a plurality of earphones 100 are configured to transmit and receive each other through a star network network. In other words, it is indicated that the earphones 100 are not separated and operate integrally so that a plurality of them communicate in both directions with each other.

이외에도, 도10에 도시한 것과 같이 성형망 네트워크가 중간에 릴레이로 중계되어 서로 연결도록 이어셋(100)이 구성될 수도 있다. 다시 말하면 2개의 성형망 네트워크가 일종의 통신장치인 릴레이로 연결되는 것을 표시한 것으로, 가령, 공간이 분리된 장소에서 하나의 공간과 하나의 공간이 서로 연결되는 경우를 예정한 것이다. In addition, as shown in FIG. 10, the earset 100 may be configured such that the star network network is relayed through an intermediate relay and connected to each other. In other words, it indicates that two star network networks are connected by a relay, which is a kind of communication device, for example, a case where one space and one space are connected to each other in a space separated place.

이상에서 설명한 바와 같이 본 발명은 종래의 통역기가 장치에 하드웨어적으로 해당 언어정보에 대한 ID를 부여받아 언어를 분석 및 인식하는 것과는 달리 실시간 다자 통역 무선 이어셋이 입력된 음성과 해당 언어정보에 대한 ID 신호가 결합되는 데이터를 번역서버를 통해 송수신하고 있기 때문에, 실시간 다자 통역 무선 이어셋은 상기 번역 서버에서 전송되는 데이터 중에서 ID 신호만을 분석하면 곧바로 해당 언어를 통역할 수 있어 음성을 인식할 때 발생하는 인식 지연 및 인식 불량이 발생하지 않는 효과가 있다. As described above, in the present invention, unlike the conventional interpreter in which the device receives an ID for the corresponding language information in hardware and analyzes and recognizes the language, the real-time multi-party interpreter wireless earphones input voice and ID for the corresponding language information. Since the data to which the signals are combined is transmitted and received through the translation server, the real-time multi-party interpretation wireless earphone can interpret the corresponding language immediately by analyzing only the ID signal among the data transmitted from the translation server. It has the effect of not causing delay and poor recognition.

이상의 설명에서는 본 발명의 다양한 실시예들을 제시하여 설명하였으나 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함을 쉽게 알 수 있을 것이다. In the above description, various embodiments of the present invention have been presented and described, but the present invention is not necessarily limited thereto, and those of ordinary skill in the art to which the present invention pertains, within the scope of the technical spirit of the present invention. It will be easy to see that branch substitutions, modifications and changes are possible.

111 : 제1이어셋
211 : 제2이어셋
10 : 제1마이크 11 : 제1이어폰
20 : 제1이어폰 21 : 제2이어폰
100: 이어셋 110: ID 세팅부
120: 송신단 121: 음성입력부
122: 제1 헤더분석부 123: 인코딩부
124: 송신부 130: 수신단
131: 음성출력부 132: 제2 헤더분석부
133: 디코딩부 134: 수신부
200: 번역서버부
111: first earphone
211: second earphone
10: first microphone 11: first earphone
20: first earphone 21: second earphone
100: earset 110: ID setting unit
120: transmitter 121: voice input unit
122: first header analysis unit 123: encoding unit
124: transmitter 130: receiver
131: audio output unit 132: second header analysis unit
133: decoding unit 134: receiving unit
200: translation server unit

Claims (8)

사용자의 음성을 인식하는 마이크 및 이어폰을 포함하는 이어셋;
상기 이어셋은
1대 1, 1대 다수 또는 다수 대 다수로 구성되며,
사용자의 언어 정보를 설정하는 ID 세팅부;
상기 마이크에 인식된 음성을 언어 정보를 포함하는 ID 데이터와 음성데이터로 인코딩하는 송신단; 및
상기 송신단으로부터 수신받은 ID 데이터와 음성데이터를 디코딩하는 수신단;을 포함하며,
상기 이어셋은
상기 송신단에서 전송되는 ID 데이터와 음성데이터를 수신 받아 미리 정의된 복수개의 언어별로 ID 데이터와 음성데이터를 번역하여, 대응되는 타 이어셋의 수신단으로 전송하는 번역서버와 연결되며,
상기 송신단은
음성을 입력받아 전기 신호를 변환하는 음성입력부;
상기 ID 세팅부의 신호를 전송받아 분석하는 제1 헤더분석부;
입력된 음성과 제1 헤더 분석부에서 분석된 ID 신호를 데이터로 변환하고 결합하는 인코딩부; 및
상기 인코딩부에서 변환된 음성데이터와 ID 데이터가 결합된 데이터를 상기 번역서버로 송신하는 송신부;를 포함하며,
상기 수신단은
번역서버로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 수신부;
상기 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하는 디코딩부;
상기 ID 데이터를 분석하여 해당 언어 정보를 추출하고 매칭시키는 제2 헤더분석부; 및
해당 언어를 음성으로 출력하는 음성출력부;를 포함하고,
상기 이어셋은 수신받은 언어를 타 언어로 번역할 시에 번역서버에서 제공되는 API 중 인식률 또는 번역 정확도가 높은 API를 사용자의 기호에 따라 수동 선택되거나,
상기 번역서버에서 언어별 인식률 또는 번역 정확도가 상대적으로 높은 API가 저장되어 번역할 언어에 따라 특정 API가 자동 선택되도록 구성되어 번역이 이루어지며,
상기 번역서버는 이어셋의 구성이 1대 다수인 경우 브로드 캐스팅 방식으로 시스템을 운용하며, 다수개의 이어셋 중 송신을 담당하는 이어셋을 찾아 마스터로 지정하고 수신을 담당하는 이어셋을 찾아 슬레이브로 지정하여 마스터로 지정된 이어셋으로부터 전송되는 데이터를 전송받아 슬레이브로 지정된 각각의 이어셋에 저장된 ID 데이터에 따라 각각의 언어로 데이터를 생성하여 슬레이브로 지정된 이어셋으로 전송하는 것을 특징으로 하는 실시간 다자 통역 무선 이어셋.
Earsets including a microphone and earphones for recognizing a user's voice;
The earset is
It is composed of 1 to 1, 1 to many or many to many,
An ID setting unit for setting language information of a user;
A transmitter for encoding the voice recognized by the microphone into ID data and voice data including language information; And
Includes; a receiving end for decoding the ID data and voice data received from the transmitting end,
The earset is
It is connected to a translation server that receives the ID data and voice data transmitted from the transmitter, translates the ID data and voice data for each of a plurality of predefined languages, and transmits it to the receiver of the corresponding tire set,
The transmitting end
A voice input unit for receiving voice and converting an electric signal;
A first header analysis unit for receiving and analyzing the signal of the ID setting unit;
An encoding unit converting and combining the input voice and the ID signal analyzed by the first header analysis unit into data; And
Includes; a transmission unit for transmitting the combined data of the voice data and ID data converted by the encoding unit to the translation server,
The receiving end
A receiver for receiving data combined with voice data and ID data from the translation server;
A decoding unit that decodes the data in which the voice data and ID data are combined and separates the data into voice data and ID data;
A second header analysis unit that analyzes the ID data to extract and match corresponding language information; And
Includes; a voice output unit for outputting the language as a voice,
The earset manually selects an API with high recognition rate or translation accuracy among APIs provided by the translation server when translating the received language into another language according to the user's preference, or
In the translation server, an API having a relatively high recognition rate or translation accuracy for each language is stored, and a specific API is automatically selected according to the language to be translated, and translation is performed.
The translation server operates the system in a broadcasting method when the configuration of the earset is one or more, and it finds the earset in charge of transmission among the plurality of earsets and designates it as a master. A wireless earphone for real-time multi-party interpretation, characterized in that receiving data transmitted from a designated earset, generating data in each language according to ID data stored in each earset designated as a slave, and transmitting the data to the earset designated as a slave.
삭제delete 삭제delete 삭제delete 삭제delete 번역서버가 대상 이어셋의 수를 결정하는 노드설정단계;
번역서버가 1 대 다수 또는 다수 대 다수의 통신 방식을 결정하는 통신방식결정단계;
번역서버가 상기 통신 방식이 1 대 다수이면 다수개의 이어셋 중에서 마스터/슬레이브를 결정하는 마스터/슬레이브결정단계;
번역서버가 ID를 정의하는 ID정의단계;
다수개의 이어셋으로부터 번역서버가 데이터를 수신받아 통번역하는 통번역단계;를 포함하되,
상기 통번역단계에서 이어셋이 번역서버로 데이터를 송신하는 송신단계는
음성입력부로 음성을 입력받는 음성입력단계;
제1 헤더 분석부가 ID 세팅부의 신호를 전송받아 분석하는 송신ID분석단계;
상기 음성입력단계에서 전송된 음성과 상기 송신ID분석단계에서 분석된 신호를 데이터로 변환하고 결합하는 인코딩단계; 및
상기 인코딩단계에서 전송되는 음성데이터와 ID 데이터를 번역서버로 전송하는 데이터송신단계;를 포함하며,
상기 통번역단계에서 이어셋이 번역서버로부터 데이터를 수신받는 수신단계는
상기 번역서버로부터 음성데이터와 ID 데이터가 결합된 데이터를 전송 받는 데이터수신단계;
상기 ID 데이터를 분석하여 해당 언어 정보를 추출하여 상기 이어셋에 설정된 ID와 매칭되는 ID 데이터와 음성데이터를 선택하는 수신ID분석단계;
상기 음성데이터와 ID 데이터가 결합된 데이터를 디코딩하여 음성데이터와 ID 데이터로 분리하고 음성으로 변환하는 디코딩단계; 및
상기 디코딩단계에서 변환된 해당 언어를 음성으로 출력하는 음성출력단계;를 포함하고,
상기 통번역단계는
상기 이어셋이 수신받은 언어를 타 언어로 번역할 시에 번역서버에서 제공되는 API 중 인식률 또는 번역 정확도가 높은 API를 사용자의 기호에 따라 수동 선택되거나,
상기 번역서버에서 언어별 인식률 또는 번역 정확도가 상대적으로 높은 API가 저장되어 번역할 언어에 따라 특정 API가 자동 선택되도록 구성되어 번역이 이루어지며,
상기 마스터/슬레이브결정단계는
상기 번역서버가 이어셋의 구성이 1대 다수인 경우 브로드 캐스팅 방식으로 시스템을 운용하되,
다수개의 이어셋 중 송신을 담당하는 이어셋을 찾아 마스터로 지정하는 단계와, 수신을 담당하는 이어셋을 찾아 슬레이브로 지정하는 단계와, 마스터로 지정된 이어셋으로부터 전송되는 데이터를 전송받아 슬레이브로 지정된 각각의 이어셋에 저장된 ID 데이터에 따라 각각의 언어로 데이터를 생성하여 슬레이브로 지정된 이어셋으로 전송하는 단계가 더 포함되는 것을 특징으로 하는 실시간 다자 통역 무선 송수신 방법.
A node setting step of determining, by the translation server, the number of target earphones;
A communication method determining step in which the translation server determines a one-to-many or many-to-many communication method;
A master/slave determination step of determining, by the translation server, a master/slave among a plurality of earphones when the communication method is one to many;
An ID definition step in which the translation server defines an ID;
Including; an interpretation and translation step in which the translation server receives data from a plurality of earphones and interprets and translates,
In the interpretation and translation step, the transmission step in which the earset transmits data to the translation server
A voice input step of receiving a voice through a voice input unit;
A transmission ID analysis step of receiving and analyzing a signal of the ID setting unit by the first header analysis unit;
An encoding step of converting and combining the voice transmitted in the voice input step and the signal analyzed in the transmission ID analysis step into data; And
A data transmission step of transmitting voice data and ID data transmitted in the encoding step to a translation server; and
In the interpretation and translation step, the receiving step in which the earset receives data from the translation server is
A data receiving step of receiving data combined with voice data and ID data from the translation server;
A reception ID analysis step of analyzing the ID data, extracting corresponding language information, and selecting ID data and voice data matching the ID set in the earset;
A decoding step of decoding the data combined with the voice data and the ID data, separating the data into voice data and ID data, and converting the data into voice; And
Including; a voice output step of outputting the language converted in the decoding step as voice,
The interpretation and translation step
When the earset translates the received language into another language, one of the APIs provided by the translation server with high recognition rate or translation accuracy is manually selected according to the user's preference, or
In the translation server, an API having a relatively high recognition rate or translation accuracy for each language is stored, and a specific API is automatically selected according to the language to be translated, and translation is performed.
The master/slave determination step
If the translation server has a configuration of one or more earphones, the system is operated in a broadcasting method,
The steps of finding the earset in charge of transmission among a plurality of earsets and designating it as a master, the steps of finding the earset in charge of receiving and designating it as a slave, and receiving data transmitted from the earset designated as a master to each earset designated as a slave. And generating data in each language according to the stored ID data and transmitting the data to an earset designated as a slave.
삭제delete 삭제delete
KR1020180086950A 2018-02-23 2018-07-26 Real-time multi-language interpretation wireless transceiver and method KR102170902B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180086950A KR102170902B1 (en) 2018-07-26 2018-07-26 Real-time multi-language interpretation wireless transceiver and method
PCT/KR2018/010398 WO2019164078A1 (en) 2018-02-23 2018-09-06 Real-time multi-language interpretation wireless transmitting and receiving system capable of extracting topic sentence and transmitting and receiving method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180086950A KR102170902B1 (en) 2018-07-26 2018-07-26 Real-time multi-language interpretation wireless transceiver and method

Publications (2)

Publication Number Publication Date
KR20200012104A KR20200012104A (en) 2020-02-05
KR102170902B1 true KR102170902B1 (en) 2020-10-28

Family

ID=69514852

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180086950A KR102170902B1 (en) 2018-02-23 2018-07-26 Real-time multi-language interpretation wireless transceiver and method

Country Status (1)

Country Link
KR (1) KR102170902B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114253148A (en) * 2021-12-09 2022-03-29 英华达(上海)科技有限公司 Intelligent device control method, gateway device and intelligent device control system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754210B1 (en) * 2006-03-08 2007-09-03 삼성전자주식회사 Method and apparatus for reproducing multi channel sound using cable/wireless device
KR101528466B1 (en) * 2014-07-23 2015-06-15 (주)이미지스테크놀로지 Multi-pairing method of electronic device and control method of electronic device using the same
US20170357643A1 (en) * 2011-12-12 2017-12-14 Google Inc. Auto-translation for multi user audio and video

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747874B1 (en) * 2014-11-25 2017-06-27 한국전자통신연구원 Automatic interpretation system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100754210B1 (en) * 2006-03-08 2007-09-03 삼성전자주식회사 Method and apparatus for reproducing multi channel sound using cable/wireless device
US20170357643A1 (en) * 2011-12-12 2017-12-14 Google Inc. Auto-translation for multi user audio and video
KR101528466B1 (en) * 2014-07-23 2015-06-15 (주)이미지스테크놀로지 Multi-pairing method of electronic device and control method of electronic device using the same

Also Published As

Publication number Publication date
KR20200012104A (en) 2020-02-05

Similar Documents

Publication Publication Date Title
US10885318B2 (en) Performing artificial intelligence sign language translation services in a video relay service environment
CN111739553A (en) Conference sound acquisition method, conference recording method, conference record presentation method and device
JP7467635B2 (en) User terminal, video calling device, video calling system, and control method thereof
US20190138603A1 (en) Coordinating Translation Request Metadata between Devices
KR20140105673A (en) Supporting Method And System For communication Service, and Electronic Device supporting the same
KR20160017625A (en) Method for changing contents of character data into transmitter's voice and outputting the transmiter's voice
US20180293230A1 (en) Multifunction simultaneous interpretation device
CN110915239B (en) On-line automatic audio transcription for hearing aid users
KR101606128B1 (en) smart device easy to convert of Multilingual.
CN111554280A (en) Real-time interpretation service system for mixing interpretation contents using artificial intelligence and interpretation contents of interpretation experts
KR102170902B1 (en) Real-time multi-language interpretation wireless transceiver and method
KR102042247B1 (en) Wireless transceiver for Real-time multi-user multi-language interpretation and the method thereof
US20240233745A1 (en) Performing artificial intelligence sign language translation services in a video relay service environment
US20210312143A1 (en) Real-time call translation system and method
KR102299571B1 (en) System and Method for Providing Simultaneous Interpretation Service for Disabled Person
JPH0965424A (en) Automatic translation system using radio portable terminal equipment
JP7467636B2 (en) User terminal, broadcasting device, broadcasting system including same, and control method thereof
WO2019164078A1 (en) Real-time multi-language interpretation wireless transmitting and receiving system capable of extracting topic sentence and transmitting and receiving method using same
KR102441407B1 (en) Apparatus and method for selecting talker using smart glass
CN107566863A (en) A kind of exchange of information methods of exhibiting, device and equipment, set top box
JP7519441B2 (en) User terminal and control method thereof
JP3217741U (en) Multi-function immediate speech translator
JP3221050U (en) Multifunctional Instant Speech Translator
KR20170056942A (en) Conference management method and system of voice understanding and hearing aid supporting for hearing-impaired person
JP2020119043A (en) Voice translation system and voice translation method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant