KR102350787B1 - Translation system using sound vibration sensor - Google Patents

Translation system using sound vibration sensor Download PDF

Info

Publication number
KR102350787B1
KR102350787B1 KR1020200057766A KR20200057766A KR102350787B1 KR 102350787 B1 KR102350787 B1 KR 102350787B1 KR 1020200057766 A KR1020200057766 A KR 1020200057766A KR 20200057766 A KR20200057766 A KR 20200057766A KR 102350787 B1 KR102350787 B1 KR 102350787B1
Authority
KR
South Korea
Prior art keywords
interpretation
signal
voice
piezoelectric element
speaker
Prior art date
Application number
KR1020200057766A
Other languages
Korean (ko)
Other versions
KR20210068300A (en
Inventor
김천명
유병민
임재화
하정애
이지영
Original Assignee
주식회사 이엠텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이엠텍 filed Critical 주식회사 이엠텍
Priority to US17/101,422 priority Critical patent/US11425487B2/en
Priority to CN202011375687.9A priority patent/CN112883744A/en
Publication of KR20210068300A publication Critical patent/KR20210068300A/en
Application granted granted Critical
Publication of KR102350787B1 publication Critical patent/KR102350787B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Abstract

본 발명은 피에조 소자를 사용하여 사용자의 음성으로부터 발생되는 진동을 감지하여 소음을 원천적으로 차단할 수 있는 음성 진동 마이크를 이용한 통역 시스템에 관한 것이다.
본 발명인 음성 진동 마이크를 이용한 통역 시스템은 음성 진동 센서와 스피커가 구비된 제 1 이어셋과, 마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와, 제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며, 제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이다.
The present invention relates to an interpretation system using a voice vibration microphone capable of fundamentally blocking noise by detecting vibrations generated from a user's voice using a piezo element.
An interpretation system using a voice vibration microphone according to the present invention includes a first ear set equipped with a voice vibration sensor and a speaker, a first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set, and a first wearable sound device and a first electronic communication device that performs wireless communication with the interpreter server and communicates with an interpretation server, wherein the first wearable acoustic device and the first electronic communication device are in a communicable state.

Figure R1020200057766
Figure R1020200057766

Description

음성 진동 마이크를 이용한 통역 시스템{TRANSLATION SYSTEM USING SOUND VIBRATION SENSOR}Interpretation system using a voice vibration microphone {TRANSLATION SYSTEM USING SOUND VIBRATION SENSOR}

본 발명은 통역 시스템에 관한 것으로서, 특히 피에조 소자를 사용하여 사용자의 음성으로부터 발생되는 진동을 감지하여 소음을 원천적으로 차단할 수 있는 음성 진동 마이크를 이용한 통역 시스템에 관한 것이다.The present invention relates to an interpretation system, and more particularly, to an interpretation system using a voice vibration microphone capable of fundamentally blocking noise by detecting vibrations generated from a user's voice using a piezo element.

최근 우리나라를 방문하는 외국인 방문객들과 해외를 방문하는 내국인의 수가 해를 거듭할수록 꾸준한 증가 추세를 보이고 있다. 특히 산업 전반적인 분야에서 중국과의 거래가 이루어지면서 중국인의 우리나라 방문이 급증하고 있다. 뿐만 아니라 일본을 비롯한 세계 각 국의 방문객들이 대거 방문할 것임은 쉽게 예상할 수 있다. 또한 사업을 목적으로 우리나라를 방문하는 사람들 수도 증가일로에 있다. 따라서 세계 각 국의 수많은 방문자들간의 의사소통과 우리나라 국민간의 의사소통이 매우 중요하게 대두되고 있다. Recently, the number of foreign visitors to Korea and Koreans visiting overseas has been steadily increasing year by year. In particular, as transactions with China are made in the overall industry, the number of Chinese visits to Korea is increasing rapidly. In addition, it is easy to predict that a large number of visitors from all over the world, including Japan, will visit. Also, the number of people visiting Korea for business purposes is increasing. Therefore, communication between numerous visitors from all over the world and communication between Koreans is becoming very important.

이러한 외국인 방문객들 및 해외 여행자들은 통상적으로는 서비스가 철저한 호텔 등을 이용하게 되는데, 일반적으로 호텔에서는 방문객이 자국의 언어를 사용하여 의사소통을 하고자 하는 경우, 또는 자신과는 다른 언어권의 언어를 사용하는 사람과 의사소통을 하고자 하는 경우, 호텔에 상주하는 통역사를 거쳐 의사소통을 하거나, 인터넷을 이용한 이-메일(e-mail)또는 팩시밀리 등을 이용할 수 있도록 하고 있다. 또한 호텔에 세계 각 국의 언 어를 구사할 수 있는 통역사들을 모두 배치시키는 것은 현실적으로 어려움이 있으며, 통역사를 항시 동반해야 하며 한 두 명의 통역사들로는 다수의 방문객들에게 만족할 만한 서비스를 제공할 수 없는 불합리함, 그리고 원 하는 시간에 통역서비스를 제공받지 못하는 문제점이 발생하게 된다. These foreign visitors and overseas travelers usually use hotels with thorough service. Generally, in hotels, when visitors want to communicate using their own language, or they use a language other than their own, If you want to communicate with someone you want to communicate with, you can communicate through an interpreter resident in the hotel, or you can use e-mail or facsimile using the Internet. In addition, it is practically difficult to have all interpreters who can speak different languages in a hotel, and it is unreasonable that an interpreter must be accompanied at all times, and one or two interpreters cannot provide satisfactory service to a large number of visitors. , and there is a problem that interpretation services are not provided at the desired time.

이에 따라 해당 기술분야에서는 관광 시 자신이 소지한 통신 단말기를 이용해 외국인과의 대화 시 실시간으로 동시통역을 위한 기술개발이 요구되고 있다.Accordingly, in the field of technology, there is a demand for technology development for simultaneous interpretation in real time when talking with foreigners using their own communication terminals during tourism.

본 발명은 피에조 소자를 사용하여 사용자의 음성으로부터 발생되는 진동을 감지하여 소음을 원천적으로 차단할 수 있는 음성 진동 마이크를 이용한 통역 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an interpretation system using a voice vibration microphone capable of fundamentally blocking noise by detecting vibrations generated from a user's voice using a piezo element.

본 발명인 음성 진동 마이크를 이용한 통역 시스템은 음성 진동 센서와 스피커가 구비된 제 1 이어셋과, 마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와, 제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며, 제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이고, 제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고, 제 1 웨어러블 음향 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출한다.An interpretation system using a voice vibration microphone according to the present invention includes a first ear set equipped with a voice vibration sensor and a speaker, a first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set, and a first wearable sound device and a first electronic communication device that performs wireless communication with an interpretation server and communicates with an interpretation server, wherein the first wearable acoustic device and the first electronic communication device are in a communicable state, and the first wearable acoustic device is connected from the first earphone transmits a first voice signal of to the electronic communication device, the electronic communication device transmits the first voice signal to the interpretation server, receives the first interpretation signal corresponding to the first voice signal from the interpretation server, the first interpretation signal transmits to the first wearable sound device, the first wearable sound device emits sound through the provided speaker, and the first wearable sound device transmits the second voice signal from the provided microphone to the electronic communication device and the electronic communication device sends the second voice signal to the interpretation server, receives a second interpretation signal corresponding to the second voice signal from the interpretation server, and sends the second interpretation signal to the first wearable sound device, The first wearable sound device transmits the second interpretation signal to the first earphone, and the first earphone emits sound of the second interpretation signal through the provided speaker.

또한, 본 발명인 음성 진동 마이크를 이용한 통역 시스템은 음성 진동 센서와 스피커가 구비된 제 1 이어셋과, 마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스로 구성되며, 제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고, 제 1 웨어러블 음향 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출한다. In addition, the interpretation system using the voice vibration microphone of the present invention is composed of a first ear set equipped with a voice vibration sensor and a speaker, and a first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set, 1 The wearable sound device transmits the first voice signal from the first earphone set to the interpretation server, receives the first interpretation signal corresponding to the first audio signal from the interpretation server, and receives the first interpretation signal through the speaker provided with the first interpretation signal 1 emits a sound of an interpretation signal, the first wearable sound device transmits a second audio signal from the provided microphone to the interpretation server, receives a second interpretation signal corresponding to the second audio signal from the interpretation server, and Transmits the interpretation signal to the first ear set, the first ear set emits a sound of the second interpretation signal through the provided speaker.

또한, 본 발명인 음성 진동 마이크를 이용한 통역 시스템은 음성 진동 센서와 스피커가 구비된 제 1 이어셋과, 마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와, 마이크와 스피커를 구비하며 제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며, 제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이고, 제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고, In addition, the interpretation system using the voice vibration microphone of the present invention includes a first ear set equipped with a voice vibration sensor and a speaker, a first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set, a microphone and a speaker and a first electronic communication device that performs wireless communication with a first wearable acoustic device and communicates with an interpretation server, wherein the first wearable acoustic device and the first electronic communication device are in a communicationable state; The wearable acoustic device transmits a first voice signal from the first earset to the electronic communication device, the electronic communication device transmits the first voice signal to the interpretation server, and a first interpretation signal corresponding to the first voice signal from the interpretation server receiving, and emitting a sound of the first interpretation signal through a speaker provided with the first interpretation signal,

전자 통신 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출한다.The electronic communication device transmits the second voice signal from the provided microphone to the interpretation server, receives the second interpretation signal corresponding to the second voice signal from the interpretation server, and transmits the second interpretation signal to the first wearable sound device And, the first wearable sound device transmits the second interpretation signal to the first ear set, and the first ear set emits the sound of the second interpretation signal through the provided speaker.

또한, 음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추, 및 압전 소자의 출력을 전달하는 통전부를 포함하고, 지지 구조에 의해 고정되는 압전 소자의 고정부는 전체 부피의 40%이하이고, 압전 소자는 두께가 0.3mm 이상이고, 무게추는 무게가 5mg 이상이고, 무게추는 밀도 5 이상의 금속류로 제조된 것이 바람직하다.In addition, the voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to a free end of the piezoelectric element, and a piezoelectric element includes a current-carrying part that transmits the output of , the fixing part of the piezoelectric element fixed by the support structure is 40% or less of the total volume, the thickness of the piezoelectric element is 0.3mm or more, the weight is 5mg or more, and the weight is It is preferable that it is made of metals with a density of 5 or more.

본 발명은 피에조 소자를 사용하여 사용자의 음성으로부터 발생되는 진동을 감지하여 소음을 원천적으로 차단할 수 있는 음성 진동 마이크를 이용한 통역 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an interpretation system using a voice vibration microphone capable of fundamentally blocking noise by detecting vibrations generated from a user's voice using a piezo element.

본 발명이 제공하는 캔틸레버 구조의 피에조 음성 진동 마이크는 피에조 소자를 사용하여 화자의 음성으로부터 발생되는 진동을 감지하기 때문에 외부 소음을 원천적으로 차단할 수 있다는 장점이 있다.The piezo voice vibration microphone of the present invention provided with a cantilever structure has an advantage that it can fundamentally block external noise because it uses a piezo element to sense vibrations generated from a speaker's voice.

또한 본 발명이 제공하는 캔틸레버 구조의 피에조 음성 진동 마이크는 피에조 소자가 캔틸레버 구조로 되어 있어 진동 감지 능력이 뛰어나다는 장점이 있다. In addition, the piezo voice vibration microphone of the cantilever structure provided by the present invention has an advantage in that the piezo element has a cantilever structure and thus has excellent vibration sensing ability.

도 1은 본 발명에 따른 음성 진동 마이크를 이용한 통역 시스템의 제어 구성도이다.
도 2는 본 발명의 제1 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 분해도이다.
도 3은 본 발명의 제1 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 4는 본 발명의 제2 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 5는 본 발명의 제3 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 하우징을 제외한 부품을 도시한 도면이다.
도 6은 본 발명의 제4 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 7은 본 발명의 제5 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 8은 본 발명의 제6 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 9는 본 발명의 제7 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
도 10은 본 발명의 제8 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 마이크의 단면도이다.
1 is a control configuration diagram of an interpretation system using a voice vibration microphone according to the present invention.
2 is an exploded view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a first embodiment of the present invention.
3 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a first embodiment of the present invention.
4 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a second embodiment of the present invention.
5 is a view showing parts except for the housing of the voice vibration microphone using the piezoelectric element of the cantilever structure according to the third embodiment of the present invention.
6 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a fourth embodiment of the present invention.
7 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a fifth embodiment of the present invention.
8 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a sixth embodiment of the present invention.
9 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to a seventh embodiment of the present invention.
10 is a cross-sectional view of a voice vibration microphone using a piezoelectric element having a cantilever structure according to an eighth embodiment of the present invention.

이하에서, 본 발명은 실시예와 도면을 통하여 상세하게 설명된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, the present invention will be described in detail through examples and drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood that various modifications, equivalents, and/or alternatives of the embodiments of the present invention are included. In connection with the description of the drawings, like reference numerals may be used for like components.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "have", "may have", "includes", or "may include" indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B”, “at least one of A or/and B”, or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, "A or B", "at least one of A and B", or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in this document may modify various elements, regardless of order and/or importance, and may modify one element to another. It is used only to distinguish it from the components, and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be referred to as a second component, and similarly, the second component may also be renamed as a first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component); When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (or configured to)" as used in this document, depending on the context, for example, "suitable for", "having the capacity to" It can be used interchangeably with "," "designed to", "adapted to", "made to", or "capable of". The term "configured (or set up to)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase "a processor configured (or configured to perform) A, B, and C" executes a dedicated processor (eg, an embedded processor), or one or more software programs stored in a memory device, to perform the corresponding operations. By doing so, it may refer to a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meanings as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, have an ideal or excessively formal meaning. not interpreted In some cases, even terms defined in this document cannot be construed to exclude embodiments of this document.

도 1은 본 발명에 따른 음성 진동 마이크를 이용한 통역 시스템의 제어 구성도이다.1 is a control configuration diagram of an interpretation system using a voice vibration microphone according to the present invention.

통역 시스템은 웨어러블 음향 디바이스(30)와 통신을 각각 수행하는 제 1 및 제 2 무선 이어셋(10), (20)과, 제 1 및/또는 제 2 무선 이어셋(10), (20)과 전자 통신 디바이스(40) 및 통역 서버(50) 각각과 독립적으로 통신을 수행하는 웨어러블 음향 디바이스(30)와, 웨어러블 음향 디바이스(30) 및 통역 서버(50) 각각과 통신을 수행하는 전자 통신 디바이스(40)와, 네트워크(60)를 통하여 전자 통신 디바이스(40) 및/또는 웨어러블 음향 디바이스(30) 및/또는 전자 통신 디바이스(140) 각각과 독립적으로 통신을 수행하며, 통역 대상 정보를 수신하여 포함된 음성 신호에 포함된 음성을 텍스트로 번역하여, 텍스트로부터 변환된 음성 신호를 포함하는 통역 정보를 제공하는 통역 서버(50)와, 웨어러블 음향 디바이스(30)와 통신을 각각 수행하는 제 3 무선 이어셋(110)과, 제 3 무선 이어셋(110)과 전자 통신 디바이스(140) 각각과 독립적으로 통신을 수행하는 웨어러블 음향 디바이스(130)와, 웨어러블 음향 디바이스(130) 및 통역 서버(50) 각각과 통신을 수행하는 전자 통신 디바이스(140) 등을 포함하여 구성된다. The interpretation system includes first and second wireless earphones 10 and 20, and first and/or second wireless earphones 10 and 20 for communicating with the wearable acoustic device 30, respectively, and electronic communication A wearable acoustic device 30 that independently communicates with each of the device 40 and the interpretation server 50, and an electronic communication device 40 that communicates with each of the wearable acoustic device 30 and the interpretation server 50 and communicates independently with each of the electronic communication device 40 and/or the wearable sound device 30 and/or the electronic communication device 140 through the network 60, and receives the interpretation target information to receive the included voice The interpretation server 50 that translates the voice included in the signal into text and provides interpretation information including the voice signal converted from the text, and the third wireless earphone 110 that communicates with the wearable sound device 30, respectively ), and the third wireless earphone 110 and the electronic communication device 140 and the wearable acoustic device 130 that independently communicates with each other, and the wearable acoustic device 130 and the interpretation server 50, respectively. It is configured to include an electronic communication device 140 and the like.

네트워크(60)는 유선 통신 및/또는 무선 통신을 수행하도록 하는 시스템에 해당되며, 본 발명이 속하는 기술 분야에 대한 통상의 기술자에게 당연히 인식되는 기술에 해당되어 그 상세한 설명은 생략된다.The network 60 corresponds to a system for performing wired communication and/or wireless communication, and corresponds to a technology naturally recognized by those skilled in the art to which the present invention pertains, and thus detailed description thereof will be omitted.

제 1 무선 이어셋(10)은 사용자의 음성을 획득하여 음성 신호를 데이터 프로세서(19)에 인가하는 음성 진동 마이크(11)와, 데이터 프로세서(19)로부터 전기 신호를 인가 받아 음 방출하는 스피커(13)(또는 리시버)와, 웨어러블 음향 디바이스(30)와 무선 통신을 수행하는 통신 모듈(15)(예를 들면, 블루투스 모듈 등의 무선 통신 모듈 등)과, 통신부(15)을 통하여 웨어러블 음향 디바이스(30)와 무선 통신을 수행하며 통역 기능의 수행 시에 음성 진동 마이크(11)로부터의 음성 신호를 통신부(15)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 웨어러블 음향 디바이스(30)로부터의 전기 신호인 음성 신호를 통신부(15)를 통하여 인가 받아 스피커(13)에 인가하는 데이터 프로세서(19)를 포함하여 구성된다. 다만, 전원을 공급하는 전원부(미도시)와 마이크(11)와 스피커(13) 및 통신부(15)의 구성이나 기능은 본 발명이 속하는 기술 분야에 대한 통상의 기술자에게 당연히 인식되는 기술에 해당되어 그 설명이 생략된다. 하기의 도 2 내지 10에서, 제 1 이어셋(10)의 기구적 구조에 대해서 상세하게 설명된다. 또한, 데이터 프로세서(19)가 이미 널리 알려진 바와 같이, 전화 통화 기능과 음향 재생 기능을 수행하며, 본 발명에 따른 통역 기능을 수행하는 과정은 하기에서 기재된다.The first wireless earphone 10 obtains the user's voice and applies a voice signal to the data processor 19 with a voice vibration microphone 11, and a speaker 13 that receives an electrical signal from the data processor 19 and emits sound ) (or a receiver), a communication module 15 that performs wireless communication with the wearable acoustic device 30 (eg, a wireless communication module such as a Bluetooth module, etc.), and a wearable acoustic device ( 30) and transmits a voice signal from the voice vibration microphone 11 to the wearable acoustic device 30 through the communication unit 15 when an interpretation function is performed, and electricity from the wearable acoustic device 30 It is configured to include a data processor 19 that receives an audio signal, which is a signal, through the communication unit 15 and applies it to the speaker 13 . However, the configuration or function of the power supply unit (not shown) for supplying power, the microphone 11, the speaker 13, and the communication unit 15 corresponds to the technology naturally recognized by those skilled in the art to which the present invention belongs. The description is omitted. 2 to 10 below, it will be described in detail with respect to the mechanical structure of the first ear set (10). In addition, as is well known, the data processor 19 performs a phone call function and a sound reproduction function, and a process of performing an interpretation function according to the present invention will be described below.

제 2 무선 이어셋(20)은 상술된 제 1 무선 이어셋(10)의 구성과 동일하며, 음성 진동 마이크(21), 스피커(23), 통신부(25) 및 데이터 프로세서(29)를 포함하여 구성된다. The second wireless earphone 20 is the same as the configuration of the first wireless earphone 10 described above, and is configured to include a voice vibration microphone 21 , a speaker 23 , a communication unit 25 and a data processor 29 . .

제 1 및 제 2 무선 이어셋(20) 각각은 마스터 디바이스 및 슬레이브 디바이스로 서로 통신을 수행할 수도 있다.Each of the first and second wireless earphones 20 may communicate with each other as a master device and a slave device.

웨어러블 음향 디바이스(30)는 예를 들면, 넥밴드형 음향 변환 장치 등과 같이 무선 통신 기능을 포함하며 전화 통화 기능, 음향 재생 기능 등을 수행하는 장치이다. 웨어러블 음향 디바이스(30)는 외부의 음향을 획득하는 마이크(31)와, 전기 신호를 인가 받아 음 방출하는 스피커(33)와, 제 1 및/또는 제 2 이어셋(10), (20), 전자 통신 디바이스(40) 및 통역 서버(50) 각각과 무선 통신(예를 들면, 블루투스 통신 등) 및/또는 유선 통신을 수행하는 통신부(35)와, 마이크(31), 스피커(33) 및 통신부(35))를 제어하여 전화 통화 기능, 음향 재생 기능 및 통역 기능을 선택적으로 수행하는 데이터 프로세서(39)를 포함하여 구성된다. 다만, 전원을 공급하는 전원부(미도시), 마이크(31)와 스피커(33)와 통신부(35)의 구성이나 기능은 본 발명이 속하는 기술 분야에 대한 통상의 기술자에게 당연히 인식되는 기술에 해당되어 그 설명이 생략된다.The wearable sound device 30 is, for example, a device that includes a wireless communication function, such as a neckband-type sound conversion device, and performs a phone call function, a sound reproduction function, and the like. The wearable sound device 30 includes a microphone 31 for acquiring an external sound, a speaker 33 for emitting sound by receiving an electrical signal, and first and/or second earphones 10, 20, and electronic A communication unit 35 for performing wireless communication (eg, Bluetooth communication, etc.) and/or wired communication with each of the communication device 40 and the interpretation server 50, a microphone 31, a speaker 33, and a communication unit ( 35)) to control the data processor 39 to selectively perform a phone call function, a sound reproduction function, and an interpretation function. However, the configuration or function of the power supply unit (not shown) for supplying power, the microphone 31, the speaker 33, and the communication unit 35 corresponds to the technology naturally recognized by those skilled in the art to which the present invention belongs. The description is omitted.

데이터 프로세서(39)는 본 발명이 속하는 기술 분야에 대한 통상의 기술자가 이미 알고 있는 바와 같이, 전화 통화 기능과 음향 재생 기능을 수행하며, 본 발명에 따른 통역 기능을 수행하는 프로세서(예를 들면, CPU, MCU, MICROPROCESSOR 등)와, 음성 신호 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(39)는 이미 널리 알려진 바와 같이, 전화 통화 기능과 음향 재생 기능을 수행하며, 본 발명에 따른 통역 기능을 수행하는 과정은 하기에서 기재된다.The data processor 39 performs a phone call function and a sound reproduction function, as known to those skilled in the art to which the present invention pertains, and a processor (eg, an interpretation function according to the present invention) CPU, MCU, MICROPROCESSOR, etc.) and a storage space (eg, memory, etc.) for storing audio signals and the like. As is well known, the data processor 39 performs a phone call function and a sound reproduction function, and the process of performing the interpretation function according to the present invention will be described below.

전자 통신 디바이스(40)는 예를 들면, 통신 기능을 지닌 스마트폰, 테블릿 등의 정보 통신 장치에 해당되며, 사용자로부터의 입력(예를 들면, 통역 기능을 위한 어플리케이션의 시작이나 종료 선택, 통역 기능 시작이나 종료 선택, 통역 목표 언어 및/또는 통역 대상 언어의 선택 입력 등)을 획득하여 데이터 프로세서(49)에 인가하는 입력부(41)와, 통역 기능을 위한 사용자 인터페이스 등을 시각적 또는 청각적으로 표시하거나 표출하는 표시부(43)와, 웨어러블 음향 디바이스(30)와 무선 통신(예를 들면, 블루투스 통신 등)을 수행하며 네트워크(60)를 통하여 번역 서버(50)와 통신을 수행하는 통신부(45)와, 음성이나 음향을 획득하는 마이크(46)와, 전화 통화 기능과 음향 재생 기능을 수행하며, 본 발명에 따른 통역 기능을 수행하는 데이터 프로세서(49)를 포함하여 구성된다. 다만, 전원을 공급하는 전원부(미도시), 입력부(41)와 표시부(43)와 마이크(46) 및 통신부(45)의 구성이나 기능은 본 발명이 속하는 기술 분야에 대한 통상의 기술자에게 당연히 인식되는 기술에 해당되어 그 설명이 생략된다.The electronic communication device 40 corresponds to, for example, an information communication device such as a smartphone or tablet having a communication function, and input from a user (eg, selection of start or end of an application for an interpretation function, interpretation The input unit 41 for acquiring and applying the function start or end selection, the selection input of the interpretation target language and/or the interpretation target language, etc.) to the data processor 49 and the user interface for the interpretation function are visually or audibly displayed. The display unit 43 for displaying or expressing, and the communication unit 45 for performing wireless communication (eg, Bluetooth communication, etc.) with the wearable sound device 30 and communicating with the translation server 50 through the network 60 ), a microphone 46 for acquiring voice or sound, a data processor 49 for performing a phone call function and a sound reproduction function, and performing an interpretation function according to the present invention. However, the configuration or function of the power supply unit (not shown) for supplying power, the input unit 41, the display unit 43, the microphone 46, and the communication unit 45 is naturally recognized by those skilled in the art to which the present invention belongs. It corresponds to the technology to be used and the description thereof is omitted.

데이터 프로세서(49)는 전화 통화 기능과 음향 재생 기능 및 통역 기능을 수행하는 프로세서(예를 들면, CPU, MCU, MICROPROCESSOR 등)와, 통역 기능을 위한 어플리케이션 및 사용자 인터페이스, 통역 정보 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 수행하여, 하기에서 다양한 실시예들을 통하여 상세하게 설명된다.The data processor 49 includes a processor (eg, CPU, MCU, MICROPROCESSOR, etc.) that performs a phone call function, a sound reproduction function, and an interpretation function, an application and a user interface for the interpretation function, and a storage for storing interpretation information, etc. It is configured to include a space (eg, memory, etc.) and the like. The data processor 49 performs an application for an interpretation function, which will be described in detail below through various embodiments.

번역 서버(50)는 STT(Speech to Text) 기능(통역 대상 정보에 포함된 음성 정보를 추출하고 이를 인식하여 텍스트로 변환하는 기능) 및/또는 텍스트를 번역하여 번역 텍스트를 생성하는 기능 및/또는 TTS(Text to Speech) 기능(텍스트를 음성으로 합성하는 기능)을 포함하는 서버로서, 이러한 번역 서버(50)는 본 발명이 속하는 기술 분야에 대한 통상의 기술자에게 당연히 인식되는 기술에 해당되어 그 상세한 설명은 생략된다.The translation server 50 has a Speech to Text (STT) function (a function of extracting voice information included in the interpretation target information and recognizing it and converting it into text) and/or a function of generating translated text by translating the text and/or As a server including a Text to Speech (TTS) function (a function for synthesizing text into speech), the translation server 50 corresponds to a technology naturally recognized by those skilled in the art to which the present invention pertains, and the detailed description thereof Description is omitted.

제 3 무선 이어셋(110)은 상술된 제 1 및 제 2 무선 이어셋(10), (20)의 구성을 지니며, 웨어러블 음향 디바이스(130)와 통신을 수행한다.The third wireless earphone 110 has the configuration of the above-described first and second wireless earphone 10, 20, and performs communication with the wearable acoustic device (130).

웨어러블 음향 디바이스(130)는 상술된 웨어러블 음향 디바이스(30)와 동일한 구성이며, 제 3 무선 이어셋(110)과 전자 통신 디바이스(140) 각각과 통신을 수행한다.The wearable acoustic device 130 has the same configuration as the above-described wearable acoustic device 30 , and performs communication with each of the third wireless earphone 110 and the electronic communication device 140 .

전자 통신 디바이스(140)는 상술된 전자 통신 디바이스(40)와 동일한 구성이며, 웨어러블 음향 디바이스(30)와 통신하며 네트워크(60)를 통하여 통역 서버(50)와 통신을 수행한다.The electronic communication device 140 has the same configuration as the above-described electronic communication device 40 , and communicates with the wearable acoustic device 30 and communicates with the interpretation server 50 through the network 60 .

전자 통신 디바이스(40)와 전자 통신 디바이스(140)는 근거리 통신 등과 같이 네트워크(60)를 통하지 않고 서로 데이터 통신을 수행할 수도 있다.The electronic communication device 40 and the electronic communication device 140 may perform data communication with each other without passing through the network 60 such as short-distance communication.

본 명세서에서, 통역 대상 언어는 사용자가 말하는 언어로 번역 또는 통역 되어야 하는 언어에 해당되며, 통역 목표 언어는 사용자가 말한 언어를 번역 또는 통역에 의해 최종적으로 대화 상대방에게 전달하고자 하는 언어에 해당된다. 예를 들면, 한국어를 사용하는 사용자가 영어로 통역을 하고자 할 경우, 통역 목표 언어는 영어가 되며, 통역 대상 언어는 한국어가 된다. In the present specification, the target language for interpretation corresponds to a language that is to be translated or interpreted into the language spoken by the user, and the target language for interpretation corresponds to a language to be finally delivered to the conversation partner by translating or interpreting the language spoken by the user. For example, when a Korean-speaking user wants to interpret in English, the target language for interpretation becomes English, and the target language for interpretation becomes Korean.

하기에서, 본 발명에 따른 통역 시스템에서의 통역 기능의 예시들이 기재된다. In the following, examples of the interpretation function in the interpretation system according to the present invention are described.

제 1 실시예로서, 도 1의 통역 시스템에서의 제어 과정이 설명된다. 데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시켜, 통역 대상 언어 및 통역 목표 언어를 설정하는 제 1 설정 과정과, 웨어러블 음향 디바이스(30) 및 제 1 무선 이어셋(10)을 통역 기능 모드로 동작시키는 제 2 통역 과정을 수행한다. As a first embodiment, a control process in the interpretation system of Fig. 1 is described. The data processor 49 operates the application for the interpretation function, the first setting process of setting the interpretation target language and the interpretation target language, and the wearable sound device 30 and the first wireless earphone 10 into the interpretation function mode A second interpretation process that operates is performed.

먼저, 제 1 설정 과정에서, 데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시키고, 표시부(미도시)에 통역 대상 언어 및 통역 목표 언어를 설정할 수 있는 사용자 인터페이스를 표시하고, 입력부(미도시)로부터의 사용자 선택에 의해 통역 대상 언어 및 통역 목표 언어를 입력 받아 설정한다. First, in the first setting process, the data processor 49 operates an application for an interpretation function, displays a user interface for setting an interpretation target language and an interpretation target language on a display unit (not shown), and an input unit (not shown) ), the target language for interpretation and the target language for interpretation are inputted by the user's selection and set.

다음으로, 제 2 통역 과정에서, 데이터 프로세서(49)는 사용자의 음성은 사용자가 귀 속에 삽입하거나 착용하는 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터의 음성 신호(제 1 음성 신호)로 획득하고, 사용자의 대화 상대방의 음성은 사용자가 목이나 어깨 등에 착용하는 웨어러블 음향 디바이스(30)의 마이크(30)로부터의 음성 신호(제 2 음성 신호)로 획득하기 위해, 웨어러블 음향 디바이스(30)로 통신부(45)를 통하여 통역 기능 모드의 시작 명령을 인가한다. 이에, 데이터 프로세서(39)는 통역 기능 모드의 시작 명령에 따라 통역 기능 모드를 시작하고, 제 1 무선 이어셋(10)로 통신부(35)를 통하여 통역 기능 모드의 시작 명령을 전송한다. 또한, 데이터 프로세서(19)는 통신부(15)를 통하여 통역 기능 모드의 시작 명령을 수신하여 통역 기능 모드를 시작한다. Next, in the second interpretation process, the data processor 49 detects the user's voice as a voice signal (first voice signal) from the voice vibration microphone 11 of the first wireless earphone 10 that the user inserts or wears in the ear. ), and the voice of the user's conversation partner is acquired as a voice signal (second voice signal) from the microphone 30 of the wearable acoustic device 30 worn by the user on the neck or shoulder, etc., the wearable acoustic device ( 30), through the communication unit 45, a start command of the interpretation function mode is applied. Accordingly, the data processor 39 starts the interpretation function mode according to the start command of the interpretation function mode, and transmits a start command of the interpretation function mode to the first wireless earphone 10 through the communication unit 35 . In addition, the data processor 19 receives a start command of the interpretation function mode through the communication unit 15 to start the interpretation function mode.

제 1 실시예에서, 사용자의 음성 통역 경로는 데이터 프로세서(19)가 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터 제 1 음성 신호를 획득하고, 제 1 음성 신호를 통신부(15)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)가 제 1 음성 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)가 통신부(45)를 통하여 제 1 음성 신호를 수신하고, 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 1 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 또한, 사용자의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 1 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 1 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 1 통역 신호를 수신하고, 통신부(45)를 통하여 제 1 통역 신호를 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 1 통역 신호를 통신부(35)를 통하여 수신하고, 스피커(33)로 인가하여 대화 상대방이 제 1 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In the first embodiment, in the user's voice interpretation path, the data processor 19 obtains the first voice signal from the voice vibration microphone 11 of the first wireless earphone 10, and transmits the first voice signal to the communication unit 15 transmits to the wearable sound device 30 through the data processor 39 receives the first voice signal through the communication unit 35 49 receives the first voice signal through the communication unit 45, and controls the communication unit 45 to include information on the interpretation target (the first audio signal, the target language for interpretation, the target language for interpretation, etc.) through the network 60 ) to the interpretation server 50, including a voice signal transmission path. In addition, in the user's voice interpretation route, the interpretation server 50 transmits the first interpretation signal, which is the audio signal obtained by interpreting the first audio signal from the interpretation target information into the interpretation target language, to the electronic communication device 40 through the network 60 and the data processor 49 receives the first interpretation signal through the communication unit 45 , and transmits the first interpretation signal to the wearable sound device 30 through the communication unit 45 , and the data processor 39 receives the first interpretation signal through the communication unit 45 . and an interpretation signal transmission path that receives the first interpretation signal through the communication unit 35 and applies it to the speaker 33 so that the conversation partner can hear the interpretation voice according to the first interpretation signal.

또한, 대화 상대방의 음성 통역 경로는 데이터 프로세서(39)가 마이크(31)로부터 획득되는 제 2 음성 신호를 통신부(35)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)가 통신부(45)를 통하여 제 2 음성 신호를 수신하고, 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 2 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 제 2 음성 신호의 통역 대상 언어는 제 1 음성 신호의 통역 목표 언어와 동일하고, 제 2 음성 신호의 통역 목표 언어는 제 1 음성 신호의 통역 대상 언어와 동일하다. 또한, 대화 상대방의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 2 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 2 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 2 통역 신호를 수신하고, 통신부(45)를 통하여 제 2 통역 신호를 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 2 통역 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 제 1 무선 이어셋(10)으로 전송하고, 데이터 프로세서(19)는 통신부(15)를 통하여 제 2 통역 신호를 수신하여 스피커(13)에 인가하여 사용자가 제 2 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In addition, in the voice interpretation path of the conversation partner, the data processor 39 transmits the second voice signal obtained from the microphone 31 to the electronic communication device 40 through the communication unit 35 , and the data processor 49 transmits the communication unit Receives the second voice signal through (45), controls the communication unit (45) to transmit the information to be interpreted (including the second voice signal, the target language for interpretation, the target language for interpretation, etc.) through the network 60 to the interpretation server ( 50) includes a voice signal transmission path to transmit to. The interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal, and the interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal. In addition, in the voice interpretation path of the conversation partner, the interpretation server 50 transmits the second interpretation signal, which is a voice signal obtained by interpreting the second voice signal from the interpretation target information into the interpretation target language, through the network 60 to the electronic communication device 40 and the data processor 49 receives the second interpretation signal through the communication unit 45, transmits the second interpretation signal to the wearable sound device 30 through the communication unit 45, and the data processor 39 receives the second interpretation signal through the communication unit 35 , and transmits it to the first wireless earphone 10 through the communication unit 35 , and the data processor 19 receives the second interpretation signal through the communication unit 15 . and an interpretation signal transmission path that is applied to the speaker 13 so that the user can hear the interpretation voice according to the second interpretation signal.

다음으로, 제 2 실시예에서, 웨어러블 음향 디바이스(30)가 전자 통신 디바이스(40)에 의한 제어 없이 네트워크(60)를 통하여 통역 서버(50)와 직접 통신을 수해하여 통역 기능을 수행할 수도 있다. Next, in the second embodiment, the wearable sound device 30 may directly communicate with the interpretation server 50 through the network 60 without control by the electronic communication device 40 to perform an interpretation function. .

데이터 프로세서(39)는 입력부(미도시)로부터의 통역 기능 시작 입력을 획득하여, 통역 기능을 위한 어플리케이션을 동작시켜, 통역 대상 언어 및 통역 목표 언어를 설정하는 제 1 설정 과정과, 제 1 무선 이어셋(10)을 통역 기능 모드로 동작시키는 제 2 통역 과정을 수행한다. The data processor 39 obtains an interpretation function start input from the input unit (not shown), operates an application for the interpretation function, and sets the interpretation target language and the interpretation target language, a first setting process, and a first wireless earphone set The second interpretation process of operating (10) in the interpretation function mode is performed.

먼저, 제 1 설정 과정에서, 데이터 프로세서(39)는 통역 기능을 위한 어플리케이션을 동작시키고, 통역 대상 언어 및 통역 목표 언어를 입력부(미도시)로부터 입력 받아 설정한다. First, in the first setting process, the data processor 39 operates an application for an interpretation function, and receives and sets an interpretation target language and an interpretation target language from an input unit (not shown).

다음으로, 제 2 통역 과정에서, 데이터 프로세서(39)는 사용자의 음성은 사용자 귀 속에 삽입하거나 착용하는 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터의 음성 신호(제 1 음성 신호)로 획득하고, 사용자의 대화 상대방의 음성은 사용자가 목이나 어깨 등에 착용하는 웨어러블 음향 디바이스(30)의 마이크(30)로부터의 음성 신호(제 2 음성 신호)로 획득하기 위해, 제 1 무선 이어셋(10)로 통신부(35)를 통하여 통역 기능 모드의 시작 명령을 전송한다. 또한, 데이터 프로세서(19)는 통신부(15)를 통하여 통역 기능 모드의 시작 명령을 수신하여 통역 기능 모드를 시작한다. Next, in the second interpretation process, the data processor 39 receives the user's voice from the voice vibration microphone 11 of the first wireless earphone 10 inserted or worn in the user's ear (the first voice signal) In order to acquire as a voice signal (second voice signal) from the microphone 30 of the wearable acoustic device 30 that the user wears on the neck or shoulder, the voice of the user's conversation partner is acquired with a first wireless earphone ( 10), a start command of the interpretation function mode is transmitted through the communication unit 35 . In addition, the data processor 19 receives a start command of the interpretation function mode through the communication unit 15 to start the interpretation function mode.

제 2 실시예에서, 사용자의 음성 통역 경로는 데이터 프로세서(19)가 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터 제 1 음성 신호를 획득하고, 제 1 음성 신호를 통신부(15)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)가 제 1 음성 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 1 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 또한, 사용자의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 1 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 1 통역 신호를 네트워크(60)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 1 통역 신호를 통신부(35)를 통하여 수신하고, 스피커(33)로 인가하여 대화 상대방이 제 1 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In the second embodiment, in the user's voice interpretation path, the data processor 19 obtains the first voice signal from the voice vibration microphone 11 of the first wireless earphone 10, and transmits the first voice signal to the communication unit 15 transmits to the wearable sound device 30 through 1 includes a voice signal transmission path for transmitting a voice signal, an interpretation target language, an interpretation target language, etc.) to the interpretation server 50 . In addition, in the user's voice interpretation path, the interpretation server 50 transmits the first interpretation signal, which is a voice signal obtained by interpreting the first voice signal from the interpretation target information into the interpretation target language, to the wearable sound device 30 through the network 60 . and the data processor 39 receives the first interpretation signal through the communication unit 35 and applies it to the speaker 33 so that the conversation partner can hear the interpretation voice according to the first interpretation signal. includes

또한, 대화 상대방의 음성 통역 경로는 데이터 프로세서(39)가 마이크(31)로부터 획득되는 제 2 음성 신호를 통신부(35)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 2 음성 신호, 통역 대상 언어, 통역 목표 언어를 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 제 2 음성 신호의 통역 대상 언어는 제 1 음성 신호의 통역 목표 언어와 동일하고, 제 2 음성 신호의 통역 목표 언어는 제 1 음성 신호의 통역 대상 언어와 동일하다. 또한, 대화 상대방의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 2 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 2 통역 신호를 네트워크(60)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 2 통역 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 제 1 무선 이어셋(10)으로 전송하고, 데이터 프로세서(19)는 통신부(15)를 통하여 제 2 통역 신호를 수신하여 스피커(13)에 인가하여 사용자가 제 2 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In addition, as for the voice interpretation path of the conversation partner, the data processor 39 controls the communication unit 35 to control the second voice signal obtained from the microphone 31, and through the network 60, information on the interpretation target (second voice signal, interpretation) and a voice signal transmission path for transmitting a target language and an interpretation target language) to the interpretation server 50 . The interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal, and the interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal. In addition, in the voice interpretation path of the conversation partner, the interpretation server 50 transmits the second interpretation signal, which is a voice signal obtained by interpreting the second voice signal from the interpretation target information into the interpretation target language, through the network 60 to the wearable sound device 30 To transmit, the data processor 39 receives the second interpretation signal through the communication unit 35, and transmits to the first wireless earphone 10 through the communication unit 35, the data processor 19 is the communication unit 15 ) through which the second interpretation signal is received and applied to the speaker 13 so that the user can hear the interpretation voice according to the second interpretation signal.

다음으로, 제 3 실시예에서, 제 1 실시예와는 달리, 전자 통신 단말기(40)가 내장된 마이크(41)를 통하여 대화 상대방의 음성을 획득하고, 사용자 음성에 대한 통역 신호를 내장된 스피커(43)를 통하여 음 방출한다. 제 3 실시예를 위해서는, 전자 통신 디바이스(40)가 대화 상대방에 인접하여 위치되는 것이 바람직하다.Next, in the third embodiment, unlike the first embodiment, the electronic communication terminal 40 acquires the voice of the conversation partner through the built-in microphone 41, and transmits an interpretation signal for the user's voice through the built-in speaker (43) through the sound emission. For the third embodiment, the electronic communication device 40 is preferably located adjacent to the conversation partner.

데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시켜, 통역 대상 언어 및 통역 목표 언어를 설정하는 제 1 설정 과정과, 웨어러블 음향 디바이스(30) 및 제 1 무선 이어셋(10)을 통역 기능 모드로 동작시키는 제 2 통역 과정을 수행한다. The data processor 49 operates the application for the interpretation function, the first setting process of setting the interpretation target language and the interpretation target language, and the wearable sound device 30 and the first wireless earphone 10 into the interpretation function mode A second interpretation process that operates is performed.

먼저, 제 1 설정 과정에서, 데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시키고, 표시부(미도시)에 통역 대상 언어 및 통역 목표 언어를 설정할 수 있는 사용자 인터페이스를 표시하고, 입력부(미도시)로부터의 사용자 선택에 의해 통역 대상 언어 및 통역 목표 언어를 입력 받아 설정한다. First, in the first setting process, the data processor 49 operates an application for an interpretation function, displays a user interface for setting an interpretation target language and an interpretation target language on a display unit (not shown), and an input unit (not shown) ), the target language for interpretation and the target language for interpretation are inputted by the user's selection and set.

다음으로, 제 2 통역 과정에서, 데이터 프로세서(49)는 사용자의 음성은 사용자가 귀 속에 삽입하거나 착용하는 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터의 음성 신호(제 1 음성 신호)로 획득하고, 사용자의 대화 상대방의 음성은 내장된 마이크(41)로부터의 음성 신호(제 2 음성 신호)로 획득하기 위해, 웨어러블 음향 디바이스(30)로 통신부(45)를 통하여 통역 기능 모드의 시작 명령을 인가한다. 이에, 데이터 프로세서(39)는 통역 기능 모드의 시작 명령에 따라 통역 기능 모드를 시작하고, 제 1 무선 이어셋(10)로 통신부(35)를 통하여 통역 기능 모드의 시작 명령을 전송한다. 또한, 데이터 프로세서(19)는 통신부(15)를 통하여 통역 기능 모드의 시작 명령을 수신하여 통역 기능 모드를 시작한다. Next, in the second interpretation process, the data processor 49 detects the user's voice as a voice signal (first voice signal) from the voice vibration microphone 11 of the first wireless earphone 10 that the user inserts or wears in the ear. ), and the voice of the user's conversation partner is acquired as a voice signal (second voice signal) from the built-in microphone 41, in the interpretation function mode through the communication unit 45 with the wearable sound device 30 Approve the start command. Accordingly, the data processor 39 starts the interpretation function mode according to the start command of the interpretation function mode, and transmits a start command of the interpretation function mode to the first wireless earphone 10 through the communication unit 35 . In addition, the data processor 19 receives a start command of the interpretation function mode through the communication unit 15 to start the interpretation function mode.

제 3 실시예에서, 사용자의 음성 통역 경로는 데이터 프로세서(19)가 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터 제 1 음성 신호를 획득하고, 제 1 음성 신호를 통신부(15)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)가 제 1 음성 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)가 통신부(45)를 통하여 제 1 음성 신호를 수신하고, 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 1 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 또한, 사용자의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 1 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 1 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 1 통역 신호를 수신하고, 스피커(43)로 인가하여 대화 상대방이 제 1 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In the third embodiment, in the user's voice interpretation path, the data processor 19 obtains the first voice signal from the voice vibration microphone 11 of the first wireless earphone 10, and transmits the first voice signal to the communication unit 15 transmits to the wearable sound device 30 through the data processor 39 receives the first voice signal through the communication unit 35 49 receives the first voice signal through the communication unit 45, and controls the communication unit 45 to include information on the interpretation target (the first audio signal, the target language for interpretation, the target language for interpretation, etc.) through the network 60 ) to the interpretation server 50, including a voice signal transmission path. In addition, in the user's voice interpretation route, the interpretation server 50 transmits the first interpretation signal, which is the audio signal obtained by interpreting the first audio signal from the interpretation target information into the interpretation target language, to the electronic communication device 40 through the network 60 and the data processor 49 receives the first interpretation signal through the communication unit 45 and applies it to the speaker 43 so that the conversation partner can hear the interpretation voice according to the first interpretation signal. includes

또한, 대화 상대방의 음성 통역 경로는 데이터 프로세서(49)가 마이크(41)로부터 획득되는 제 2 음성 신호를 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 2 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 제 2 음성 신호의 통역 대상 언어는 제 1 음성 신호의 통역 목표 언어와 동일하고, 제 2 음성 신호의 통역 목표 언어는 제 1 음성 신호의 통역 대상 언어와 동일하다. 또한, 대화 상대방의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 2 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 2 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 2 통역 신호를 수신하고, 통신부(45)를 통하여 제 2 통역 신호를 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 2 통역 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 제 1 무선 이어셋(10)으로 전송하고, 데이터 프로세서(19)는 통신부(15)를 통하여 제 2 통역 신호를 수신하여 스피커(13)에 인가하여 사용자가 제 2 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In addition, as for the voice interpretation path of the conversation partner, the data processor 49 controls the communication unit 45 to control the second voice signal obtained from the microphone 41, and thus the interpretation target information (second voice signal, interpretation) through the network 60 . and a voice signal transmission path for transmitting a target language, an interpretation target language, etc.) to the interpretation server 50 . The interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal, and the interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal. In addition, in the voice interpretation path of the conversation partner, the interpretation server 50 transmits the second interpretation signal, which is a voice signal obtained by interpreting the second voice signal from the interpretation target information into the interpretation target language, through the network 60 to the electronic communication device 40 and the data processor 49 receives the second interpretation signal through the communication unit 45, transmits the second interpretation signal to the wearable sound device 30 through the communication unit 45, and the data processor 39 receives the second interpretation signal through the communication unit 35 , and transmits it to the first wireless earphone 10 through the communication unit 35 , and the data processor 19 receives the second interpretation signal through the communication unit 15 . and an interpretation signal transmission path that is applied to the speaker 13 so that the user can hear the interpretation voice according to the second interpretation signal.

다음으로, 제 4 실시예로서, 웨어러블 음향 디바이스(30)에 제 1 및 제 2 무선 이어셋(10), (20)와 무선 통신 연결되며, 제 1 무선 이어셋(10)은 사용자의 귀에 착용되고 제 2 무선 이어셋(20)은 대화 상대방의 귀에 착용된다.Next, as a fourth embodiment, the first and second wireless earphones 10, 20 and wireless communication are connected to the wearable acoustic device 30, and the first wireless earphone 10 is worn on the user's ear and first 2 The wireless earphone 20 is worn on the ear of the conversation partner.

데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시켜, 통역 대상 언어 및 통역 목표 언어를 설정하는 제 1 설정 과정과, 웨어러블 음향 디바이스(30) 및 제 1 및 제 2 무선 이어셋(10), (20)을 통역 기능 모드로 동작시키는 제 2 통역 과정을 수행한다. The data processor 49 operates the application for the interpretation function, the first setting process of setting the interpretation target language and the interpretation target language, the wearable sound device 30 and the first and second wireless earphones 10, ( 20) is operated in the interpretation function mode to perform the second interpretation process.

먼저, 제 1 설정 과정에서, 데이터 프로세서(49)는 통역 기능을 위한 어플리케이션을 동작시키고, 표시부(미도시)에 통역 대상 언어 및 통역 목표 언어를 설정할 수 있는 사용자 인터페이스를 표시하고, 입력부(미도시)로부터의 사용자 선택에 의해 통역 대상 언어 및 통역 목표 언어를 입력 받아 설정한다. First, in the first setting process, the data processor 49 operates an application for an interpretation function, displays a user interface for setting an interpretation target language and an interpretation target language on a display unit (not shown), and an input unit (not shown) ), the target language for interpretation and the target language for interpretation are inputted by the user's selection and set.

다음으로, 제 2 통역 과정에서, 데이터 프로세서(49)는 사용자의 음성은 사용자가 귀 속에 삽입하거나 착용하는 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터의 음성 신호(제 1 음성 신호)로 획득하고, 사용자의 대화 상대방의 음성은 대화 상대방이 귀에 삽입하거나 착용하는 제 2 무선 이어셋(20)의 음성 진동 마이크(21)로부터의 음성 신호(제 2 음성 신호)로 획득하기 위해, 웨어러블 음향 디바이스(30)로 통신부(45)를 통하여 통역 기능 모드의 시작 명령을 인가한다. 이에, 데이터 프로세서(39)는 통역 기능 모드의 시작 명령에 따라 통역 기능 모드를 시작하고, 제 1 및 제 2 무선 이어셋(10), (20)로 통신부(35)를 통하여 통역 기능 모드의 시작 명령을 전송한다. 또한, 데이터 프로세서(19), (29) 각각은 통신부(15), (25) 각각을 통하여 통역 기능 모드의 시작 명령을 수신하여 통역 기능 모드를 시작한다. Next, in the second interpretation process, the data processor 49 detects the user's voice as a voice signal (first voice signal) from the voice vibration microphone 11 of the first wireless earphone 10 that the user inserts or wears in the ear. ), and the voice of the conversation partner of the user is acquired as a voice signal (second voice signal) from the voice vibration microphone 21 of the second wireless earphone 20 that the conversation partner inserts or wears in the ear, wearable A start command of the interpretation function mode is applied to the sound device 30 through the communication unit 45 . Accordingly, the data processor 39 starts the interpretation function mode according to the start command of the interpretation function mode, and the start command of the interpretation function mode through the communication unit 35 to the first and second wireless earphones 10 and 20 to send In addition, each of the data processors 19 and 29 receives a start command of the interpretation function mode through the communication units 15 and 25, respectively, and starts the interpretation function mode.

제 4 실시예에서, 사용자의 음성 통역 경로는 데이터 프로세서(19)가 제 1 무선 이어셋(10)의 음성 진동 마이크(11)로부터 제 1 음성 신호를 획득하고, 제 1 음성 신호를 통신부(15)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)가 제 1 음성 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)가 통신부(45)를 통하여 제 1 음성 신호를 수신하고, 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 1 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 또한, 사용자의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 1 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 1 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 1 통역 신호를 수신하고, 통신부(45)를 통하여 제 1 통역 신호를 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 1 통역 신호를 통신부(35)를 통하여 수신하고, 제 1 통역 신호를 제 2 무선 이어셋(20)으로 전송하고, 데이터 프로세서(29)는 제 1 통역 신호를 스피커(23)로 인가하여 대화 상대방이 제 1 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In the fourth embodiment, in the user's voice interpretation path, the data processor 19 obtains the first voice signal from the voice vibration microphone 11 of the first wireless earphone 10, and transmits the first voice signal to the communication unit 15 transmits to the wearable sound device 30 through the data processor 39 receives the first voice signal through the communication unit 35 49 receives the first voice signal through the communication unit 45, and controls the communication unit 45 to include information on the interpretation target (the first audio signal, the target language for interpretation, the target language for interpretation, etc.) through the network 60 ) to the interpretation server 50, including a voice signal transmission path. In addition, in the user's voice interpretation route, the interpretation server 50 transmits the first interpretation signal, which is the audio signal obtained by interpreting the first audio signal from the interpretation target information into the interpretation target language, to the electronic communication device 40 through the network 60 and the data processor 49 receives the first interpretation signal through the communication unit 45 , and transmits the first interpretation signal to the wearable sound device 30 through the communication unit 45 , and the data processor 39 receives the first interpretation signal through the communication unit 45 . Receives the first interpretation signal through the communication unit 35, transmits the first interpretation signal to the second wireless earphone 20, the data processor 29 applies the first interpretation signal to the speaker 23 to the conversation partner and an interpretation signal transmission path through which an interpretation voice according to the first interpretation signal can be heard.

또한, 대화 상대방의 음성 통역 경로는 데이터 프로세서(29)가 제 1 무선 이어셋(20)의 음성 진동 마이크(21)로부터 제 2 음성 신호를 획득하고, 제 2 음성 신호를 통신부(25)를 통하여 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)가 제 2 음성 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)가 통신부(45)를 통하여 제 2 음성 신호를 수신하고, 통신부(45)를 제어하여 네트워크(60)를 통하여 통역 대상 정보(제 2 음성 신호, 통역 대상 언어, 통역 목표 언어 등을 포함)를 통역 서버(50)에 전송하는 음성 신호 전송 경로를 포함한다. 제 2 음성 신호의 통역 대상 언어는 제 1 음성 신호의 통역 목표 언어와 동일하고, 제 2 음성 신호의 통역 목표 언어는 제 1 음성 신호의 통역 대상 언어와 동일하다. 또한, 대화 상대방의 음성 통역 경로는 통역 서버(50)가 통역 대상 정보에서 제 2 음성 신호를 통역 목표 언어로 통역한 음성 신호인 제 2 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송하고, 데이터 프로세서(49)는 통신부(45)를 통하여 제 2 통역 신호를 수신하고, 통신부(45)를 통하여 제 2 통역 신호를 웨어러블 음향 디바이스(30)로 전송하고, 데이터 프로세서(39)는 제 2 통역 신호를 통신부(35)를 통하여 수신하고, 통신부(35)를 통하여 제 1 무선 이어셋(10)으로 전송하고, 데이터 프로세서(19)는 통신부(15)를 통하여 제 2 통역 신호를 수신하여 스피커(13)에 인가하여 사용자가 제 2 통역 신호에 따른 통역 음성을 들을 수 있도록 하는 통역 신호 전송 경로를 포함한다. In addition, in the voice interpretation path of the conversation partner, the data processor 29 acquires the second voice signal from the voice vibration microphone 21 of the first wireless earphone 20 , and transmits the second voice signal to the wearable through the communication unit 25 . transmit to the acoustic device 30 , the data processor 39 receives the second voice signal through the communication unit 35 , transmits it to the electronic communication device 40 through the communication unit 35 , and the data processor 49 Receives the second audio signal through the temporary communication unit 45, and controls the communication unit 45 to interpret the interpretation target information (including the second audio signal, the interpretation target language, the interpretation target language, etc.) through the network 60 It includes a voice signal transmission path to be transmitted to the server (50). The interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal, and the interpretation target language of the second audio signal is the same as the interpretation target language of the first audio signal. In addition, in the voice interpretation path of the conversation partner, the interpretation server 50 transmits the second interpretation signal, which is a voice signal obtained by interpreting the second voice signal from the interpretation target information into the interpretation target language, through the network 60 to the electronic communication device 40 and the data processor 49 receives the second interpretation signal through the communication unit 45, transmits the second interpretation signal to the wearable sound device 30 through the communication unit 45, and the data processor 39 receives the second interpretation signal through the communication unit 35 , and transmits it to the first wireless earphone 10 through the communication unit 35 , and the data processor 19 receives the second interpretation signal through the communication unit 15 . and an interpretation signal transmission path that is applied to the speaker 13 so that the user can hear the interpretation voice according to the second interpretation signal.

다음으로, 제 5 실시예로서, 사용자 통역 장치는 제 1 무선 이어셋(10)과, 웨어러블 음향 디바이스(30) 및 전자 통신 디바이스(40)를 포함하여 구성되며, 대화 상대방 통역 장치는 제 3 무선 이어셋(110)과, 웨어러블 음향 디바이스(130) 및 전자 통신 디바이스(140)를 포함하여 구성된다.Next, as a fifth embodiment, the user interpretation apparatus is configured to include a first wireless earphone 10, a wearable sound device 30 and an electronic communication device 40, the conversation partner interpretation apparatus is a third wireless earphone set 110 , and a wearable acoustic device 130 and an electronic communication device 140 .

전자 통신 단말기(40)와 전자 통신 단말기(140)가 통역 기능을 위한 어플리케이션을 수행하면서, 서로 통신 연결된 상태를 유지된다. While the electronic communication terminal 40 and the electronic communication terminal 140 perform an application for an interpretation function, a communication connection state is maintained.

사용자 통역 장치에서, 데이터 프로세서(49)가 사용자의 음성인 제 1 음성 신호를 통역 서버(50)로 네트워크(60)를 통하여 전송하고, 통역 서버(50)가 제 1 음성 신호에 대응하는 제 1 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(40)로 전송한다. 데이터 프로세서(49)는 제 1 통역 신호를 통신부(45)를 통하여 대화 상대방 통역 장치로 전송한다. 전자 통신 디바이스(140)의 데이터 프로세서(149)가 제 1 통역 신호를 수신하여 웨어러블 음향 디바이스(130) 및/또는 제 3 무선 이어셋(110)의 스피커(133), (113)를 통하여 음 방출되도록 한다. In the user interpretation apparatus, the data processor 49 transmits a first voice signal that is the user's voice to the interpretation server 50 through the network 60, and the interpretation server 50 sends a first voice signal corresponding to the first voice signal. It transmits the interpretation signal to the electronic communication device 40 via the network 60 . The data processor 49 transmits the first interpretation signal to the conversation partner interpretation apparatus through the communication unit 45 . so that the data processor 149 of the electronic communication device 140 receives the first interpretation signal and emits sound through the speakers 133 and 113 of the wearable sound device 130 and/or the third wireless earphone 110 do.

반대로, 대화 상대방 통역 장치에서, 데이터 프로세서(149)가 대화 상대방의 음성인 제 2 음성 신호를 통역 서버(50)로 네트워크(60)를 통하여 전송하고, 통역 서버(50)가 제 2 음성 신호에 대응하는 제 2 통역 신호를 네트워크(60)를 통하여 전자 통신 디바이스(140)로 전송한다. 데이터 프로세서(149)는 제 2 통역 신호를 통신부(145)를 통하여 사용자 통역 장치로 전송한다. 즉, 전자 통신 디바이스(40)의 데이터 프로세서(49)가 제 2 통역 신호를 수신하여 웨어러블 음향 디바이스(30) 및/또는 제 1 무선 이어셋(10)의 스피커(33), (13)를 통하여 음 방출되도록 한다. Conversely, in the conversation partner interpreting apparatus, the data processor 149 transmits the second voice signal, which is the voice of the conversation partner, to the interpretation server 50 through the network 60, and the interpretation server 50 responds to the second voice signal. It transmits a corresponding second interpretation signal to the electronic communication device 140 via the network 60 . The data processor 149 transmits the second interpretation signal to the user interpretation apparatus through the communication unit 145 . That is, the data processor 49 of the electronic communication device 40 receives the second interpretation signal, the wearable sound device 30 and / or the speaker 33 of the first wireless earphone 10, the sound through the 13 let it be released

다음으로, 제 6 실시예로서, 웨어러블 음향 디바이스(30)가 음성 진동 마이크를 추가적으로 구비하는 것으로서, 사용자가 웨어러블 음향 디바이스(30)를 신체에 착용한 때 추가적으로 구비된 음성 진동 마이크가 사용자의 피부에 직접적으로 또는 간접적으로 접촉되도록 한다. 웨어러블 음향 디바이스(30)는 마이크(31)와 음성 진동 마이크 중의 어느 하나 이상으로부터의 음성 신호를 이용하여 통역 기능을 수행할 수 있다.Next, as a sixth embodiment, the wearable acoustic device 30 additionally includes a voice vibration microphone. When the user wears the wearable acoustic device 30 on the body, the additionally provided voice vibration microphone is applied to the user's skin. Direct or indirect contact. The wearable acoustic device 30 may perform an interpretation function by using a voice signal from any one or more of the microphone 31 and the voice vibration microphone.

다음으로, 제 7 실시예로서, 제 1 또는 제 2 무선 이어셋(10), (20)이 음성 진동 마이크 이외에 일반적인 마이크를 추가적으로 구비하여, 마이크와 음성 진동 마이크(11), (21) 중의 어느 하나 이상으로부터의 음성 신호를 이용하여 통역 기능을 수행할 수 있다. Next, as a seventh embodiment, the first or second wireless earphone set (10), (20) is additionally provided with a general microphone in addition to the voice vibration microphone, any one of the microphone and the voice vibration microphone (11), (21) An interpretation function can be performed using the voice signal from the above.

도 1에서의 음성 진동 마이크(11), (21), (111)는 도 2 내지 10에서의 음성 진동 센서와 동일하다. The voice vibration microphones 11 , 21 , and 111 in FIG. 1 are the same as the voice vibration sensors in FIGS. 2 to 10 .

도 2는 본 발명의 제1 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 분해도, 도 3은 본 발명의 제1 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 2 is an exploded view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a first embodiment of the present invention, and FIG. 3 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to the first embodiment of the present invention. .

본 발명의 제1 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서(이하, 음성 진동 센서)는 하부 하우징(110)과 상부 하우징(120)으로 이루어지는 하우징이 외관을 형성하며, 하우징 내에 진동을 센싱하는 부품들이 설치된다. In a voice vibration sensor (hereinafter, referred to as a voice vibration sensor) using a piezoelectric element having a cantilever structure according to the first embodiment of the present invention, a housing comprising a lower housing 110 and an upper housing 120 forms an exterior, and the vibration inside the housing Components for sensing are installed.

하부 하우징(110)은 하면과 측벽을 구비하며 상면이 개방된 박스 형상이며, 상부 하우징(120)은 하부 하우징(110)에 결합되어 개방된 상면을 폐쇄한다. 하부 하우징(110) 내에 두께나 폭에 비해 길이가 긴 스트립 형태의 압전 소자(220)가 설치된다. 이때 압전 소자(220)의 일단은 고정되고, 타단은 자유단인 캔틸레버 구조로 고정된다. 압전 소자(220)는 PZT Ceramic 소재로 제조되는 것이 바람직하다. The lower housing 110 is provided with a lower surface and sidewalls and has a box shape with an open upper surface, and the upper housing 120 is coupled to the lower housing 110 to close the open upper surface. A piezoelectric element 220 in the form of a strip having a length longer than the thickness or width is installed in the lower housing 110 . At this time, one end of the piezoelectric element 220 is fixed, and the other end is fixed in a cantilever structure that is a free end. The piezoelectric element 220 is preferably made of a PZT ceramic material.

하부 하우징(110) 내에는 압전 소자(220)의 고정단을 지지하는 지지 구조(210)가 마련된다. 지지 구조(210)에 의해 고정되는 압전 소자(220)의 고정부는 전체 부피의 40%이하인 것이 바람직하다. 압전 소자(220)의 고정부의 부피가 커질 경우, 자유단의 진동 폭이 작아져 음성 진동의 감지 범위가 제한되기 때문이다. A support structure 210 for supporting the fixed end of the piezoelectric element 220 is provided in the lower housing 110 . The fixing portion of the piezoelectric element 220 fixed by the support structure 210 is preferably 40% or less of the total volume. This is because, when the volume of the fixed portion of the piezoelectric element 220 is increased, the vibration width of the free end is reduced, so that the detection range of the voice vibration is limited.

한편, 압전 소자(220)의 자유단에는 무게추(230)가 부착된다. 무게추(230)는 압전 소자(220)의 진동을 증폭시켜, 음성 진동 센서의 음성 진동의 감지 범위를 넓혀준다는 장점이 있다. 이때, 무게추(230)는 무게가 5mg 이상인 것이 바람직하다. 그보다 무게가 작을 경우 무게추(230)의 진동 증폭 효과가 떨어지므로, 압전 소자(220)의 감지 효율 증가와 노이즈 최소화를 위해 5mg 이상인 것이 바람직하다. 한편, 무게추(230)는 부피를 줄이며 무게를 올릴 수 있는 밀도 5 이상의 금속류로 제작되는 것이 바람직하다. 이때, 무게추(230)의 형상은 압전 소자(220)의 진동을 제한하지 않으며 압전 소자(220)에 부착될 수 있는 형태라면 어떠한 형태라도 무방하다. 예를 들어, 무게추(230)는 원기둥 형태나, 압전 소자(220)의 자유단을 감싸는 캡 형태, 직육면체, 정육면체 등 어떠한 형상이라도 무방하다. 무게추(230)는 압전 소자(220)에 부착될 때, 본드나 테이프와 같은 접착부재에 의해 부착된다. Meanwhile, a weight 230 is attached to the free end of the piezoelectric element 220 . The weight 230 amplifies the vibration of the piezoelectric element 220 and has an advantage in that the detection range of the voice vibration of the voice vibration sensor is expanded. At this time, it is preferable that the weight 230 has a weight of 5 mg or more. If the weight is smaller than that, since the vibration amplification effect of the weight 230 is reduced, it is preferably 5 mg or more to increase the sensing efficiency of the piezoelectric element 220 and minimize noise. On the other hand, the weight 230 is preferably made of a metal having a density of 5 or higher that can increase the weight while reducing the volume. At this time, the shape of the weight 230 does not limit the vibration of the piezoelectric element 220 and may be any shape as long as it can be attached to the piezoelectric element 220 . For example, the weight 230 may have any shape, such as a cylindrical shape, a cap shape surrounding the free end of the piezoelectric element 220 , a cuboid, or a cube. When the weight 230 is attached to the piezoelectric element 220, it is attached by an adhesive member such as a bond or a tape.

한편 압전 소자(220)의 고정단 측에 압전 소자(220)의 출력을 전달할 수 있는 통전부(300)가 연결된다. 통전부(300)의 일단(302)은 하우징(110, 120) 내에서 압전 소자(220)와 연결되며, 통전부(300)의 타단(304)은 하우징(110, 120) 외부로 인출되어, 외부와의 접점을 형성한다. Meanwhile, the current conducting unit 300 capable of transmitting the output of the piezoelectric element 220 is connected to the fixed end side of the piezoelectric element 220 . One end 302 of the conducting unit 300 is connected to the piezoelectric element 220 in the housings 110 and 120, and the other end 304 of the conducting unit 300 is drawn out of the housings 110 and 120, Form a contact with the outside.

음성 진동 센서는 하우징(110, 120)을 통해 전달되는 화자의 음성으로 인해 생기는 진동을 압전 소자(220)의 압전 특성을 이용해 감지한다. 압전 소자(220)는 캔틸레버 구조로 설치되어, 하우징(110, 120)의 진동이 자유단에서 증폭되기 때문에 음성 진동을 민감하게 감지할 수 있다는 장점이 있다. 또한 화자의 신체에 부착되어 음성 발화 시 발생하는 진동을 감지하기 때문에 외부 소음은 센서에서 감지할 수 없어, 음성 진동 센서를 마이크로 이용할 경우 외부 소음을 원천적으로 차단할 수 있다는 장점이 있다. The voice vibration sensor detects vibrations caused by the speaker's voice transmitted through the housings 110 and 120 using the piezoelectric properties of the piezoelectric element 220 . Since the piezoelectric element 220 is installed in a cantilever structure, the vibrations of the housings 110 and 120 are amplified at the free end, there is an advantage in that the voice vibration can be sensitively detected. In addition, the sensor cannot detect external noise because it is attached to the speaker's body and detects vibrations generated during voice utterance.

도 4는 본 발명의 제2 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 4 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a second embodiment of the present invention.

본 발명의 제2 실시예에 따른 음성 진동 센서 역시, 하우징, 압전 소자(220), 무게추(230), 통전부(300)를 구비한다. 그러나, 압전 소자(220)의 고정단을 지지하는 지지 구조가 별도로 하부 하우징(110a)에 부착되지 않는다. 대신, 하부 하우징(110a)의 일부가 내측으로 절곡되어 압전 소자(220)를 지지할 수 있는 지지 구조(112a)가 형성된 것이 특징이다. The voice vibration sensor according to the second embodiment of the present invention also includes a housing, a piezoelectric element 220 , a weight 230 , and a energizing unit 300 . However, a support structure for supporting the fixed end of the piezoelectric element 220 is not separately attached to the lower housing 110a. Instead, a portion of the lower housing 110a is bent inward to form a support structure 112a capable of supporting the piezoelectric element 220 .

도 5는 본 발명의 제3 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 하우징을 제외한 부품을 도시한 도면이다. 5 is a view showing parts except for the housing of the voice vibration sensor using the piezoelectric element of the cantilever structure according to the third embodiment of the present invention.

본 발명의 제3 실시예에 따른 음성 진동 센서는, 압전 소자(222a, 224a)를 2 개 구비한다는 점에서 앞선 실시예들과 다르다. 본 발명의 제3 실시예에서는 압전 소자(222a, 224a)가 2개 구비되었으나 3개 이상을 구비할 수도 있다. 압전 소자(222a, 224a)를 복수 개 구비하는 경우 음성 진동을 감지할 수 있는 감지 범위가 넓어진다는 장점이 있다. 이때, 압전 소자(222a, 224a)의 두께를 서로 달리하여, 음성 진동 감지의 정확성을 높일 수 있다. 압전 소자(222a, 224a)의 두께를 달리함으로써 각 압전 소자(222a, 224a)의 자유단의 진폭이 달라질 뿐만 아니라, 압전 특성도 달라지기 때문에 각 압전 소자(222a, 224a)에서 발생하는 신호를 조합함으로써 음성 센싱 정확도를 높일 수 있다. The voice vibration sensor according to the third embodiment of the present invention is different from the previous embodiments in that it includes two piezoelectric elements 222a and 224a. In the third embodiment of the present invention, two piezoelectric elements 222a and 224a are provided, but three or more may be provided. When a plurality of piezoelectric elements 222a and 224a are provided, there is an advantage in that a detection range capable of detecting voice vibration is widened. In this case, by varying the thickness of the piezoelectric elements 222a and 224a from each other, it is possible to increase the accuracy of sound vibration detection. By varying the thickness of the piezoelectric elements 222a and 224a, not only the amplitude of the free end of each of the piezoelectric elements 222a and 224a changes, but also the piezoelectric characteristics are different, so the signals generated from each of the piezoelectric elements 222a and 224a are combined By doing so, the voice sensing accuracy can be improved.

여기서 압전 소자(222a, 224a)의 두께를 서로 달리할 때, 지지 구조(300a)에서 각 압전 소자(222a, 224a)를 지지하는 부분의 높이를 달리함으로써 압전 소자(222a, 224a)의 상면이 동일 높이가 되도록, 즉 같은 평면 상에 있도록 하는 것이 바람직하다. 압전 소자(222a, 224a)의 상면을 동일 평면 상에 배치함으로써, 통전부(300)를 부착하기 용이하다는 장점이 있다. Here, when the thicknesses of the piezoelectric elements 222a and 224a are different from each other, the top surfaces of the piezoelectric elements 222a and 224a are the same by varying the height of the portion supporting each of the piezoelectric elements 222a and 224a in the support structure 300a. It is desirable to be at a height, ie, on the same plane. By arranging the upper surfaces of the piezoelectric elements 222a and 224a on the same plane, there is an advantage in that it is easy to attach the conducting part 300 .

도 6은 본 발명의 제4 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 도 7은 본 발명의 제5 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 본 발명의 제4 실시예에 따른 음성 진동 센서와 제5 실시예에 따른 음성 진동 센서는 압전 소자(220)의 손상을 방지하기 위한 댐핑 구조가 구비된다. 본 발명의 제4 실시예에서는, 무게추(230)와 근접한 위치의 하부 하우징(110) 상에 댐핑 본드(400)가 도포된다. 본 발명의 제5 실시예에서는 하우 하우징(110) 및 상부 하우징(120) 상에 포론(402, 404)이 부착된다. 포론(402, 404)은 하우징(110, 120) 내의 빈 공간에 적절히 배치되며, 추락 등에 의해 압전 소자(220)로 충격이 가해지는 것을 방지한다. 6 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a fourth embodiment of the present invention. 7 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a fifth embodiment of the present invention. The sound vibration sensor according to the fourth embodiment and the voice vibration sensor according to the fifth embodiment of the present invention are provided with a damping structure for preventing damage to the piezoelectric element 220 . In the fourth embodiment of the present invention, the damping bond 400 is applied on the lower housing 110 in a position close to the weight 230 . In the fifth embodiment of the present invention, the porons 402 and 404 are attached to the housing 110 and the upper housing 120 . The porons 402 and 404 are appropriately disposed in the empty space within the housings 110 and 120, and prevent an impact from being applied to the piezoelectric element 220 by a fall or the like.

도 8은 본 발명의 제6 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 본 발명의 제6 실시예에 따른 음성 진동 센서는 압전 소자(220)의 손상을 방지하기 위해, 압전 소자(220)에 보강판(500)을 부착한 것이 특징이다. 보강판(500)은 댐핑 역할을 해주지는 않으나 압전 소자(220)가 파손되는 것을 방지할 수 있다. 8 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a sixth embodiment of the present invention. The voice vibration sensor according to the sixth embodiment of the present invention is characterized in that the reinforcing plate 500 is attached to the piezoelectric element 220 in order to prevent damage to the piezoelectric element 220 . The reinforcing plate 500 does not play a role of damping, but may prevent the piezoelectric element 220 from being damaged.

도 9는 본 발명의 제7 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 본 발명의 제7 실시예에 따른 음성 진동 센서는, 제6 실시예와 같이 음성 진동 센서는 압전 소자(220)의 손상을 방지하기 위해, 압전 소자(220)에 보강판(500)이 부착된다. 여기에 더해서, 압전 소자(220)의 자유단과 하우징 사이에 탄성 부재(600)가 설치된다. 탄성 부재(600)는 자유단의 진동을 댐핑해주는 역할을 한다. 본 발명의 제7 실시예에서는 압전 소자(220)의 자유단 하부에 부착된 무게추(230)와 하부 하우징(110) 사이에 탄성 부재(600)가 설치된다. 그러나 무게추(230)와 탄성 부재(600)의 설치 위치는 필요에 따라 변경될 수 있다. 9 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to a seventh embodiment of the present invention. In the voice vibration sensor according to the seventh embodiment of the present invention, as in the sixth embodiment, the reinforcing plate 500 is attached to the piezoelectric element 220 in order to prevent damage to the piezoelectric element 220 in the voice vibration sensor. . In addition to this, the elastic member 600 is provided between the free end of the piezoelectric element 220 and the housing. The elastic member 600 serves to damp the vibration of the free end. In the seventh embodiment of the present invention, the elastic member 600 is installed between the weight 230 attached to the lower portion of the free end of the piezoelectric element 220 and the lower housing 110 . However, the installation positions of the weight 230 and the elastic member 600 may be changed as needed.

도 10은 본 발명의 제8 실시예에 따른 캔틸레버 구조의 압전 소자를 이용한 음성 진동 센서의 단면도이다. 발명의 제8 실시예에 따른 음성 진동 센서는 앞선 실시예들과 마찬가지로, 하우징(110, 120), 지지 구조(210), 압전 소자(220), 무게추(230) 및 통전부(300)를 구비한다. 이때, 통전부(300) 상에 압전 소자(220)의 신호를 증폭하기 위한 앰프(310)가 구비될 수 있다. 10 is a cross-sectional view of a voice vibration sensor using a piezoelectric element having a cantilever structure according to an eighth embodiment of the present invention. The voice vibration sensor according to the eighth embodiment of the present invention includes housings 110 and 120 , a support structure 210 , a piezoelectric element 220 , a weight 230 , and an energizing unit 300 , as in the previous embodiments. be prepared In this case, the amplifier 310 for amplifying the signal of the piezoelectric element 220 may be provided on the conducting unit 300 .

이상 설명한 바와 같이, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형의 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.As described above, the present invention is not limited to the specific preferred embodiments described above, and anyone with ordinary skill in the art to which the invention pertains can use various methods without departing from the gist of the present invention as claimed in the claims. It goes without saying that modifications are possible, and such modifications are intended to be within the scope of the claims.

10,, 20: 제 1 및 제 2 무선 이어셋
30, 130: 웨어러블 음향 디바이스
40, 140: 전자 통신 디바이스
10,, 20: first and second wireless earphone
30, 130: wearable sound device
40, 140: electronic communication device

Claims (6)

음성 진동 센서와 스피커가 구비된 제 1 이어셋과;
마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와;
제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며,
제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이고,
제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고,
제 1 웨어러블 음향 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출하고,
음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추 및 압전 소자의 출력을 전달하는 통전부를 포함하되,
압전 소자는 서로 다른 두께를 가지는 압전 소자가 2개 이상으로 구비되며, 화자의 신체에 접촉하여 화자의 음성 발화 시 발생하는 신체의 진동을 하우징을 통해 전달받고 압전 소자의 자유단에 의해 증폭시켜 화자의 음성 진동을 압전 소자의 압전 특성을 이용해 감지하는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
A first earphone equipped with a voice vibration sensor and a speaker;
A first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set;
and a first electronic communication device that performs wireless communication with a first wearable acoustic device and communicates with an interpretation server,
The first wearable acoustic device and the first electronic communication device are in a communicable state,
The first wearable sound device transmits a first voice signal from the first earphone set to the electronic communication device, the electronic communication device transmits the first voice signal to the interpretation server, and a first corresponding to the first voice signal from the interpretation server receiving the interpretation signal, transmitting the first interpretation signal to the first wearable sound device, the first wearable sound device emitting sound through the provided speaker;
The first wearable sound device transmits a second voice signal from the provided microphone to the electronic communication device, the electronic communication device transmits the second voice signal to the interpretation server, and a second voice signal corresponding to the second voice signal from the interpretation server Receives the interpretation signal, transmits the second interpretation signal to the first wearable sound device, the first wearable sound device transmits the second interpretation signal to the first earphone, and the first earset interprets the second through the provided speaker emit a signal,
The voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to the free end of the piezoelectric element, and the output of the piezoelectric element. Including an energizing unit to transmit,
The piezoelectric element is provided with two or more piezoelectric elements having different thicknesses, and the vibration of the body generated when the speaker's voice is uttered in contact with the speaker's body is transmitted through the housing and amplified by the free end of the piezoelectric element. An interpretation system using a voice vibration microphone, characterized in that it detects the voice vibration of a piezoelectric element using the piezoelectric characteristics.
음성 진동 센서와 스피커가 구비된 제 1 이어셋과;
마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스로 구성되며,
제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고,
제 1 웨어러블 음향 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출하고,
음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추 및 압전 소자의 출력을 전달하는 통전부를 포함하되,
압전 소자는 서로 다른 두께를 가지는 압전 소자가 2개 이상으로 구비되며, 화자의 신체에 접촉하여 화자의 음성 발화 시 발생하는 신체의 진동을 하우징을 통해 전달받고 압전 소자의 자유단에 의해 증폭시켜 화자의 음성 진동을 압전 소자의 압전 특성을 이용해 감지하는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
A first earphone equipped with a voice vibration sensor and a speaker;
It includes a first wearable sound device having a microphone and a speaker and performing wireless communication with a first earphone,
The first wearable sound device transmits the first voice signal from the first earphone set to the interpretation server, receives the first interpretation signal corresponding to the first voice signal from the interpretation server, and through the speaker provided with the first interpretation signal sound emission of the first interpretation signal,
The first wearable sound device transmits the second voice signal from the provided microphone to the interpretation server, receives the second interpretation signal corresponding to the second voice signal from the interpretation server, and transmits the second interpretation signal to the first earphone And, the first earphone emits a sound of the second interpretation signal through the provided speaker,
The voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to the free end of the piezoelectric element, and the output of the piezoelectric element. Including an energizing unit to transmit,
The piezoelectric element is provided with two or more piezoelectric elements having different thicknesses, and the vibration of the body generated when the speaker's voice is uttered in contact with the speaker's body is transmitted through the housing and amplified by the free end of the piezoelectric element. An interpretation system using a voice vibration microphone, characterized in that it detects the voice vibration of a piezoelectric element using the piezoelectric characteristics.
음성 진동 센서와 스피커가 구비된 제 1 이어셋과;
마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와;
마이크와 스피커를 구비하며 제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며,
제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이고,
제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고,
전자 통신 디바이스는 구비된 마이크로부터의 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출하고,
음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추 및 압전 소자의 출력을 전달하는 통전부를 포함하되,
압전 소자는 서로 다른 두께를 가지는 압전 소자가 2개 이상으로 구비되며, 화자의 신체에 접촉하여 화자의 음성 발화 시 발생하는 신체의 진동을 하우징을 통해 전달받고 압전 소자의 자유단에 의해 증폭시켜 화자의 음성 진동을 압전 소자의 압전 특성을 이용해 감지하는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
A first earphone equipped with a voice vibration sensor and a speaker;
A first wearable sound device having a microphone and a speaker and performing wireless communication with the first ear set;
It includes a first electronic communication device having a microphone and a speaker, performing wireless communication with a first wearable sound device, and communicating with an interpretation server,
The first wearable acoustic device and the first electronic communication device are in a communicable state,
The first wearable sound device transmits a first voice signal from the first earphone set to the electronic communication device, the electronic communication device transmits the first voice signal to the interpretation server, and a first corresponding to the first voice signal from the interpretation server receiving the interpretation signal, and emitting the sound of the first interpretation signal through a speaker provided with the first interpretation signal;
The electronic communication device transmits the second voice signal from the provided microphone to the interpretation server, receives the second interpretation signal corresponding to the second voice signal from the interpretation server, and transmits the second interpretation signal to the first wearable sound device and, the first wearable sound device transmits the second interpretation signal to the first earphone, and the first earphone emits sound through the provided speaker,
The voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to the free end of the piezoelectric element, and the output of the piezoelectric element. Including an energizing unit to transmit,
The piezoelectric element is provided with two or more piezoelectric elements having different thicknesses, and the vibration of the body generated when the speaker's voice is uttered in contact with the speaker's body is transmitted through the housing and amplified by the free end of the piezoelectric element. An interpretation system using a voice vibration microphone, characterized in that it detects the voice vibration of a piezoelectric element using the piezoelectric characteristics.
음성 진동 센서와 스피커가 구비된 제 1 및 제 2 이어셋과;
제 1 및 제 2 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와;
제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며, 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성되며,
제 1 웨어러블 음향 디바이스와 제 1 전자 통신 디바이스가 통신 가능 상태이고,
제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 1 통역 신호를 제 2 이어셋으로 전송하고, 제 2 이어셋은 구비된 스피커를 통하여 제 1 통역 신호를 음 방출하고,
제 1 웨어러블 음향 디바이스는 제 2 이어셋으로부터의 제 2 음성 신호를 전자 통신 디바이스로 전송하고, 전자 통신 디바이스는 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 웨어러블 음향 디바이스에 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하고, 제 1 이어셋은 구비된 스피커를 통하여 제 2 통역 신호를 음 방출하고,
음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추 및 압전 소자의 출력을 전달하는 통전부를 포함하되,
압전 소자는 서로 다른 두께를 가지는 압전 소자가 2개 이상으로 구비되며, 화자의 신체에 접촉하여 화자의 음성 발화 시 발생하는 신체의 진동을 하우징을 통해 전달받고 압전 소자의 자유단에 의해 증폭시켜 화자의 음성 진동을 압전 소자의 압전 특성을 이용해 감지하는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
First and second earphones equipped with a voice vibration sensor and a speaker;
A first wearable acoustic device for performing wireless communication with the first and second earphones;
and a first electronic communication device that performs wireless communication with a first wearable acoustic device and communicates with an interpretation server,
The first wearable acoustic device and the first electronic communication device are in a communicable state,
The first wearable sound device transmits a first voice signal from the first earphone set to the electronic communication device, the electronic communication device transmits the first voice signal to the interpretation server, and a first corresponding to the first voice signal from the interpretation server Receives the interpretation signal, transmits the first interpretation signal to the first wearable sound device, the first wearable sound device transmits the first interpretation signal to the second earphone, and the second earphone transmits the first interpretation through the provided speaker emit a signal,
The first wearable acoustic device transmits a second voice signal from the second earset to the electronic communication device, the electronic communication device transmits the second voice signal to the interpretation server, and a second corresponding to the second voice signal from the interpretation server Receives the interpretation signal, transmits the second interpretation signal to the first wearable sound device, the first wearable sound device transmits the second interpretation signal to the first earphone, and the first earset interprets the second through the provided speaker emit a signal,
The voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to the free end of the piezoelectric element, and the output of the piezoelectric element. Including an energizing unit to transmit,
The piezoelectric element is provided with two or more piezoelectric elements having different thicknesses, and the vibration of the body generated when the speaker's voice is uttered in contact with the speaker's body is transmitted through the housing and amplified by the free end of the piezoelectric element. An interpretation system using a voice vibration microphone, characterized in that it detects the voice vibration of a piezoelectric element using the piezoelectric characteristics.
음성 진동 센서와 스피커가 구비된 제 1 이어셋과, 마이크와 스피커를 구비하며 제 1 이어셋과 무선 통신을 수행하는 제 1 웨어러블 음향 디바이스와, 제 1 웨어러블 음향 디바이스와 무선 통신을 수행하며 통역 서버와 통신을 수행하는 제 1 전자 통신 디바이스로 구성된 사용자 통역 장치와;
음성 진동 센서와 스피커가 구비된 제 2 이어셋과, 마이크와 스피커를 구비하며 제 2 이어셋과 무선 통신을 수행하는 제 2 웨어러블 음향 디바이스와, 제 2 웨어러블 음향 디바이스와 무선 통신을 수행하며 통역 서버와 통신을 수행하는 제 2 전자 통신 디바이스로 구성된 대화 상대방 통역 장치와;
제 1 웨어러블 음향 디바이스는 제 1 이어셋으로부터의 제 1 음성 신호를 제 1 전자 통신 디바이스로 전송하고, 제 1 전자 통신 디바이스는 제 1 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 1 음성 신호에 대응하는 제 1 통역 신호를 수신하고, 제 1 통역 신호를 제 2 전자 통신 디바이스에 전송하고, 제 2 전자 통신 디바이스는 제 1 통역 신호를 제 2 웨어러블 음향 디바이스로 전송하고, 제 2 웨어러블 음향 디바이스는 제 1 통역 신호를 제 2 이어셋으로 전송하여 제 1 통역 신호를 음 방출하고,
제 2 웨어러블 음향 디바이스는 제 2 이어셋으로부터의 제 2 음성 신호를 제 2 전자 통신 디바이스로 전송하고, 제 2 전자 통신 디바이스는 제 2 음성 신호를 통역 서버에 전송하고, 통역 서버로부터 제 2 음성 신호에 대응하는 제 2 통역 신호를 수신하고, 제 2 통역 신호를 제 1 전자 통신 디바이스에 전송하고, 제 1 전자 통신 디바이스는 제 2 통역 신호를 제 1 웨어러블 음향 디바이스로 전송하고, 제 1 웨어러블 음향 디바이스는 제 2 통역 신호를 제 1 이어셋으로 전송하여 제 2 통역 신호를 음 방출하고,
음성 진동 센서는 외관을 형성하는 하우징과, 하우징 내에 설치되는 캔틸레버 구조의 압전 소자와, 압전 소자의 고정단을 지지하는 지지 구조와, 압전 소자의 자유단에 부착되는 무게추 및 압전 소자의 출력을 전달하는 통전부를 포함하되,
압전 소자는 서로 다른 두께를 가지는 압전 소자가 2개 이상으로 구비되며, 화자의 신체에 접촉하여 화자의 음성 발화 시 발생하는 신체의 진동을 하우징을 통해 전달받고 압전 소자의 자유단에 의해 증폭시켜 화자의 음성 진동을 압전 소자의 압전 특성을 이용해 감지하는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
A first ear set equipped with a voice vibration sensor and a speaker, a first wearable acoustic device having a microphone and a speaker and performing wireless communication with the first ear set, and wireless communication with the first wearable acoustic device and communicating with an interpretation server a user interpretation apparatus configured with a first electronic communication device that performs
A second earset equipped with a voice vibration sensor and a speaker, a second wearable acoustic device having a microphone and a speaker and performing wireless communication with the second earset, and a second wearable acoustic device performing wireless communication and communicating with an interpretation server a conversation partner interpreting apparatus configured with a second electronic communication device that performs
The first wearable sound device transmits a first voice signal from the first earset to the first electronic communication device, and the first electronic communication device transmits the first voice signal to the interpretation server, and from the interpretation server to the first voice signal receive a corresponding first interpretation signal, transmit the first interpretation signal to a second electronic communication device, the second electronic communication device transmit the first interpretation signal to a second wearable sound device, and the second wearable sound device includes: By transmitting the first interpretation signal to the second earphone, the sound emission of the first interpretation signal,
The second wearable sound device transmits a second voice signal from the second earset to the second electronic communication device, and the second electronic communication device transmits the second voice signal to the interpretation server, and from the interpretation server to the second voice signal. receive a corresponding second interpretation signal, send the second interpretation signal to the first electronic communication device, the first electronic communication device transmits the second interpretation signal to the first wearable sound device, the first wearable sound device includes: By transmitting the second interpretation signal to the first earphone, the sound emission of the second interpretation signal,
The voice vibration sensor includes a housing forming an exterior, a piezoelectric element having a cantilever structure installed in the housing, a support structure supporting a fixed end of the piezoelectric element, a weight attached to the free end of the piezoelectric element, and the output of the piezoelectric element. Including an energizing unit to transmit,
The piezoelectric element is provided with two or more piezoelectric elements having different thicknesses, and the vibration of the body generated when the speaker's voice is uttered in contact with the speaker's body is transmitted through the housing and amplified by the free end of the piezoelectric element. An interpretation system using a voice vibration microphone, characterized in that it detects the voice vibration of a piezoelectric element using the piezoelectric characteristics.
제 1 항 내지 제 5 항 중의 어느 한 항에 있어서,
2개 이상의 압전 소자들의 상면이 동일 평면 상에 배치되는 것을 특징으로 하는 음성 진동 마이크를 이용한 통역 시스템.
6. The method according to any one of claims 1 to 5,
An interpretation system using a voice vibration microphone, characterized in that upper surfaces of two or more piezoelectric elements are disposed on the same plane.
KR1020200057766A 2019-11-29 2020-05-14 Translation system using sound vibration sensor KR102350787B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/101,422 US11425487B2 (en) 2019-11-29 2020-11-23 Translation system using sound vibration microphone
CN202011375687.9A CN112883744A (en) 2019-11-29 2020-11-30 Translation system using sound vibration microphone

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190157186 2019-11-29
KR20190157186 2019-11-29

Publications (2)

Publication Number Publication Date
KR20210068300A KR20210068300A (en) 2021-06-09
KR102350787B1 true KR102350787B1 (en) 2022-01-14

Family

ID=76415201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200057766A KR102350787B1 (en) 2019-11-29 2020-05-14 Translation system using sound vibration sensor

Country Status (1)

Country Link
KR (1) KR102350787B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524579B1 (en) * 2012-02-28 2015-06-03 쿄세라 코포레이션 Piezoelectric vibration element, piezoelectric vibration device, and portable terminal
KR101693268B1 (en) * 2015-04-10 2017-01-05 해보라 주식회사 Earset
KR101834546B1 (en) * 2013-08-28 2018-04-13 한국전자통신연구원 Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof
JP2019175426A (en) * 2018-12-20 2019-10-10 株式会社フォルテ Translation system, translation method, translation device, and voice input/output device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101589433B1 (en) * 2009-03-11 2016-01-28 삼성전자주식회사 Simultaneous Interpretation System
KR20150081157A (en) * 2014-01-03 2015-07-13 엘지전자 주식회사 Neck badn type terminal mobile

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524579B1 (en) * 2012-02-28 2015-06-03 쿄세라 코포레이션 Piezoelectric vibration element, piezoelectric vibration device, and portable terminal
KR101834546B1 (en) * 2013-08-28 2018-04-13 한국전자통신연구원 Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof
KR101693268B1 (en) * 2015-04-10 2017-01-05 해보라 주식회사 Earset
JP2019175426A (en) * 2018-12-20 2019-10-10 株式会社フォルテ Translation system, translation method, translation device, and voice input/output device

Also Published As

Publication number Publication date
KR20210068300A (en) 2021-06-09

Similar Documents

Publication Publication Date Title
CN112544090B (en) Audio circuit
US20100098266A1 (en) Multi-channel audio device
KR101616839B1 (en) Wearable device, wearable device system and method for controlling wearable device
US11425487B2 (en) Translation system using sound vibration microphone
CN104604249A (en) Bone-conduction pickup transducer for microphonic applications
US20210337293A1 (en) Silent voice input
CN108763978B (en) Information prompting method, device, terminal, earphone and readable storage medium
JP2018173652A (en) Translation device and translation method
JP2009178783A (en) Communication robot and its control method
KR102350787B1 (en) Translation system using sound vibration sensor
JP6007487B2 (en) Information processing apparatus, information processing system, and program
JP6120708B2 (en) Terminal device and program
JP6476938B2 (en) Speech analysis apparatus, speech analysis system and program
JP6031767B2 (en) Speech analysis apparatus, speech analysis system and program
KR102209484B1 (en) Communication method using wireless earbud device including voice vibration sensor
KR102279955B1 (en) Sound vibration sensor having piezoelectric member with cantilever structure
EP2911378B1 (en) Effecting voice communication in a sound-restricted environment
CN113170261B (en) System, method and computer readable medium for automatically switching active microphones
KR102285877B1 (en) Translation system using ear set
KR20210122568A (en) Electronic device and method for controlling audio output thereof
JP5929810B2 (en) Voice analysis system, voice terminal apparatus and program
KR101592114B1 (en) Real-time interpretation by bone conduction speaker and microphone
KR20200003529A (en) Digital device for recognizing voice and method for controlling the same
JP2013140534A (en) Voice analysis device, voice analysis system, and program
JP2013164468A (en) Voice analysis device, voice analysis system, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant