KR101906549B1 - A wearable device for hearing impairment person - Google Patents

A wearable device for hearing impairment person Download PDF

Info

Publication number
KR101906549B1
KR101906549B1 KR1020170084356A KR20170084356A KR101906549B1 KR 101906549 B1 KR101906549 B1 KR 101906549B1 KR 1020170084356 A KR1020170084356 A KR 1020170084356A KR 20170084356 A KR20170084356 A KR 20170084356A KR 101906549 B1 KR101906549 B1 KR 101906549B1
Authority
KR
South Korea
Prior art keywords
unit
voice
voice data
microphone
text
Prior art date
Application number
KR1020170084356A
Other languages
Korean (ko)
Other versions
KR20170093760A (en
Inventor
이현상
Original Assignee
유퍼스트(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유퍼스트(주) filed Critical 유퍼스트(주)
Priority to KR1020170084356A priority Critical patent/KR101906549B1/en
Publication of KR20170093760A publication Critical patent/KR20170093760A/en
Application granted granted Critical
Publication of KR101906549B1 publication Critical patent/KR101906549B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 청각 장애인을 위한 착용형 장치에 관한 것으로, 해결하고자 하는 기술적 과제는 청각 장애인 누구나 일상생활에서 쉽고 편하게 사용하며, 청각 장애인에게 청각 정보를 보다 명확하게 전달하는 데 있다..
일례로, 안경의 구조를 이루는 안경 구조부; 및 상기 안경 구조부에 탑재되고, 외부로부터 음성 신호를 입력받고, 입력된 음성 신호를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 상기 안경 구조부의 렌즈를 통해 표시하여 문자 안내 서비스를 제공하기 위한 청각 정보 안내부를 포함하는 청각 장애인을 위한 착용형 장치를 개시한다.
TECHNICAL FIELD The present invention relates to a wearable device for a hearing impaired person, and a technical problem to be solved is to make it easy for anyone with a hearing impairment to easily and comfortably use in everyday life, and to transmit auditory information more clearly to a hearing impaired person.
For example, an eyeglass structure constituting a structure of glasses; And a display unit mounted on the eyeglass structure unit for receiving a voice signal from outside, converting the inputted voice signal into text data, displaying the converted text data through a lens of the eyeglass structural unit, A wearable device for a hearing impaired person comprising a guide part.

Figure R1020170084356
Figure R1020170084356

Description

청각 장애인을 위한 착용형 장치{A WEARABLE DEVICE FOR HEARING IMPAIRMENT PERSON}TECHNICAL FIELD [0001] The present invention relates to a wearable device for a hearing impaired person,

본 발명의 실시예는 청각 장애인을 위한 착용형 장치에 관한 것이다.An embodiment of the invention relates to a wearable device for the hearing impaired.

청각 장애란 소리를 들을 수 있는 능력이 상당히 떨어져 있거나 전혀 들리지 않는 상태의 장애를 말한다. 이러한 장애를 겪고 있는 사람을 청각 장애인이라고 한다.Hearing impairment refers to a disorder in which the ability to hear sounds is significantly poor or inaudible. People who are suffering from these disorders are called hearing impaired people.

첨단 정보통신 장비의 발달과 함께 청각 장애인을 위한 보조 장비 또한 지속적으로 연구되고 있다. 청각 장애를 가진 장애인들을 위한 기기 또한 많이 연구되고 있는데, 최근에는 청각 장애인용 자동 수화 전송 시스템, 실시간 문자 통역 프로그램, 보청기 등이 개발되고 있다.Along with the development of advanced information and communication equipment, ancillary equipment for the hearing impaired is also being studied continuously. Many devices for people with hearing impairments are also being studied. Recently, automatic hydration transmission systems for the hearing impaired, real time text interpretation programs, and hearing aids have been developed.

상기 자동 수화 전송 시스템은 수화 동영상을 낮은 대역폭을 이용하여 일반 전송 알고리즘으로 주고받을 경우 손, 손가락, 얼굴 동작 묘사가 정확하게 이루이지 않아 수화 대화가 어려우며, 이러한 비디오 압축 기술에 대한 문제를 해결하더라도 다량의 비디오 압축 계산을 위한 상당한 전력이 필요한 문제가 있다. In the automatic hydration transmission system, when the handwriting, the finger, and the facial motion description are not precisely handled when a handover moving picture is transmitted and received by a general transmission algorithm using a low bandwidth, conversation conversation is difficult. Even if a problem of such a video compression technique is solved, There is a problem that requires considerable power for calculating video compression.

또한, 실시간 문자 통역 프로그램은 회의, 공연, 강연 등 각종 행사장에서 발표되는 내용을 플랫폼에 접속한 상태에서 문자 통역사가 받아치면서 청각 장애인의 모바일 폰에 전달하는 방식을 취한다. 이러한 방식은 인력이 필요하기 때문에 일상 생활에서 청각 장애인 개개인에 대해 서비스를 제공하는 것이 불가능하다는 단점이 있다.In addition, the real-time text interpreting program takes the form of transmitting the contents announced at various venues such as conferences, performances and lectures to the mobile phone of the hearing-impaired person while receiving the text interpreter while accessing the platform. This approach has the disadvantage that it is impossible to provide services for individuals with deafness in daily life because of the need for manpower.

또한, 보청기의 경우 그 착용 구조에 의해 불쾌감을 줄 수 있으며, 다양한 환경의 소리 조절에 대한 한계가 있으며, 소리 자체는 들리지만 음성에 대한 분별 능력이 낮다는 단점이 있다.In addition, the hearing aid has disadvantages in that it can cause discomfort due to the wearing structure of the hearing aid, limits on the sound control of various environments, and low sound discrimination ability although it sounds.

공개특허공보 제10-2014-0066258호(2014.05.30) '투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정'Open Patent Publication No. 10-2014-0066258 (May 2015.05) "Modification of video display based on sensor input for perspective near sight display" 등록특허공보 제10-0782103호(2007.11.28) '안경형 모니터'Registered Patent Publication No. 10-0782103 (November 28, 2007) 공개특허공보 제10-2015-0055262호(2015.05.21) '모바일기기를 이용한 소리의 시각화 표시방법'[Patent Document 1] Published Japanese Patent Application No. 10-2015-0055262 (May 2015.05.1) 'Visualization of sound using a mobile device' 공개특허공보 제10-2014-0116517호(2014.10.02) '입력 및 출력 구조들을 구비한 웨어러블 디바이스'Patent Document No. 10-2014-0116517 (Apr. 20, 2014) 'Wearable device with input and output structures'

본 발명의 실시예는, 청각 장애인 누구나 일상생활에서 쉽고 편하게 사용하며, 청각 장애인에게 청각 정보를 보다 명확하게 전달할 수 있는 청각 장애인을 위한 착용형 장치를 제공한다.An embodiment of the present invention provides a wearable device for a hearing-impaired person who can easily and comfortably use hearing-impaired persons in daily life, and can more clearly convey auditory information to a hearing-impaired person.

본 발명의 실시예에 따른 청각 장애인을 위한 착용형 장치는, 안경의 구조를 이루는 안경 구조부; 및 상기 안경 구조부에 탑재되고, 외부로부터 음성 신호를 입력받고, 입력된 음성 신호를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 상기 안경 구조부의 렌즈를 통해 표시하여 문자 안내 서비스를 제공하기 위한 청각 정보 안내부를 포함한다.A wearable device for a hearing impaired person according to an exemplary embodiment of the present invention includes: And a display unit mounted on the eyeglass structure unit for receiving a voice signal from outside, converting the inputted voice signal into text data, displaying the converted text data through a lens of the eyeglass structural unit, And a guide portion.

또한, 상기 청각 정보 안내부는, 외부로부터 음성 신호를 입력받기 위한 제1 마이크부; 상기 제1 마이크부를 통해 입력된 음성 데이터를 텍스트 데이터로 변환하기 위한 음성-텍스트 변환부; 및 상기 음성-텍스트 변환부를 통해 변환된 텍스트 데이터가 상기 안경 구조부의 렌즈를 통해 표시되도록 빔을 투사하는 프로젝터부를 포함할 수 있다.The auditory information guide unit may include: a first microphone unit for receiving a voice signal from outside; A voice-to-text conversion unit for converting the voice data input through the first microphone unit into text data; And a projector unit for projecting the beam so that the text data converted by the voice-to-text conversion unit is displayed through the lens of the eyeglass structure unit.

또한, 상기 음성-텍스트 변환부는, 음성에 대한 언어와 텍스트에 대한 언어를 각각 설정하기 위한 번역 설정부; 및 상기 번역 설정부의 언어 설정에 따른 번역을 실행하기 위한 번역 실행부를 더 포함할 수 있다.The voice-to-text conversion unit may include a translation setting unit for setting a language for the voice and a language for the text, respectively; And a translation execution unit for executing translation according to the language setting of the translation setting unit.

또한, 상기 제1 마이크부는 지향성 마이크를 포함할 수 있다.In addition, the first microphone unit may include a directional microphone.

또한, 신체에 착용 가능하도록 이루어지고, 외부로부터 음성 신호를 입력받아 상기 청각 정보 안내부로 전송하기 위한 착용형 단말기를 더 포함할 수 있다.The apparatus may further include a wearable terminal that is wearable to the body, receives a voice signal from the outside, and transmits the voice signal to the auditory information guide unit.

또한, 상기 착용형 단말기는, 외부로부터 음성 신호를 입력받기 위한 제2 마이크부; 및 상기 제2 마이크부를 통해 입력된 음성 데이터를 상기 청각 정보 안내부로 실시간 전송하기 위한 음성 데이터 전송부를 포함하고, 상기 청각 정보 안내부는 상기 착용형 단말기로부터 음성 데이터를 실시간 수신하기 위한 음성 데이터 수신부를 더 포함할 수 있다.The wearable terminal may further include: a second microphone for receiving a voice signal from outside; And a voice data transmitting unit for transmitting the voice data input through the second microphone unit to the auditory information guide unit in real time, wherein the audible information guide unit comprises a voice data receiving unit for receiving voice data from the wearable terminal in real time .

또한, 상기 음성 데이터 전송부는 근거리 무선 통신을 이용하여 음성 데이터를 전송하는 무선 통신부를 포함할 수 있다.The voice data transmitting unit may include a wireless communication unit for transmitting voice data using short-range wireless communication.

또한, 상기 음성 데이터 전송부는 데이터 케이블을 통해 음성 데이터를 전송하기 위한 데이터 포트를 포함할 수 있다.The voice data transmission unit may include a data port for transmitting voice data through a data cable.

또한, 상기 착용형 단말기는 반지, 팔찌 및 시계 중 적어도 하나의 형태로 이루어질 수 있다. Also, the wearable terminal may be in the form of at least one of a ring, a bracelet, and a watch.

본 발명의 실시예에 따르면, 청각 장애인 누구나 일상생활에서 쉽고 편하게 사용하며, 청각 장애인에게 청각 정보를 보다 명확하게 전달할 수 있는 청각 장애인을 위한 착용형 장치를 제공할 수 있다.According to the embodiment of the present invention, it is possible to provide a wearable apparatus for a hearing-impaired person who can easily and comfortably use hearing-impaired persons in daily life, and can more clearly transmit auditory information to hearing-impaired persons.

도 1은 본 발명의 실시예에 따른 청각 장애인을 위한 착용형 장치의 전체 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 착용형 장치에 음성 수집을 위한 착용형 단말기가 추가된 구성을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 착용형 장치의 전체 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 제1 착용형 단말기의 사시도이다.
도 5는 본 발명의 실시예에 따른 제1 착용형 단말기의 분해 사시도이다.
도 6 및 도 7은 본 발명의 실싱예에 따른 제2 착용형 단말기의 사시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing the overall configuration of a wearable device for a hearing impaired person according to an embodiment of the present invention; FIG.
2 is a diagram illustrating a configuration in which a wearable terminal for voice collection is added to a wearable device according to an embodiment of the present invention.
3 is a block diagram showing the overall configuration of a wearable apparatus according to an embodiment of the present invention.
4 is a perspective view of a first wearable terminal according to an embodiment of the present invention.
5 is an exploded perspective view of a first wearable terminal according to an embodiment of the present invention.
6 and 7 are perspective views of a second wearable terminal according to the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

도 1은 본 발명의 실시예에 따른 청각 장애인용 착용형 장치의 전체 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 착용형 장치에 음성 수집을 위한 착용형 단말기가 추가된 구성을 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 착용형 장치의 전체 구성을 나타낸 블록도이고, 도 4는 본 발명의 실시예에 따른 제1 착용형 단말기의 사시도이고, 도 5는 본 발명의 실시예에 따른 제1 착용형 단말기의 분해 사시도이며, 도 6 및 도 7은 본 발명의 실싱예에 따른 제2 착용형 단말기의 사시도이다.FIG. 1 is a diagram illustrating the overall configuration of a wearable device for a hearing impaired person according to an embodiment of the present invention. FIG. 2 is a diagram illustrating a configuration in which a wearable terminal for voice acquisition is added to a wearable device according to an embodiment of the present invention. FIG. 4 is a perspective view of a first wearable terminal according to an embodiment of the present invention, and FIG. 5 is a perspective view of a wearable device according to an embodiment of the present invention FIGS. 6 and 7 are perspective views of a second wearable terminal according to a first embodiment of the present invention. FIG.

도 1 내지 도 7을 참조하면, 본 발명의 실시예에 따른 청각 장애인용 착용형 장치(1000)는, 제1 착용형 단말기(1100)와 제2 착용형 단말기(1200)를 포함할 수 있으며, 상기 제2 착용형 단말기(1200)는 상황에 따라 생략 가능하다. 다만, 본 실시예에서는, 청각 장애인용 착용형 장치(1000)에 대한 구성을 상기 제2 착용형 단말기(1200)를 포함한 형태로 설명하도록 한다. 1 to 7, a wearable device 1000 for a hearing impaired person according to an embodiment of the present invention may include a first wearable terminal 1100 and a second wearable terminal 1200, The second wearable terminal 1200 may be omitted according to circumstances. However, in the present embodiment, the configuration for the wearable device 1000 for the hearing impaired will be described in the form including the second wearable terminal 1200. [

상기 제1 착용형 단말기(1100)는 안경 구조부(1110)와 청각 정보 안내부(1120)를 포함한다.The first wearable terminal 1100 includes an eyeglass structural part 1110 and an auditory information guidance part 1120.

상기 안경 구조부(1110)는 림(1110a), 렌즈(1110b), 브릿지(1110c), 코패드(1110d), 템플(1110e) 및 팁(1110f)을 포함하는 일반적인 안경의 구조로 이루어질 수 있으며, 상기 림(1110a)의 앤드피스(end piece)에는 제1 마이크부(1121)가 노출되어 있다. The eyeglass structure 1110 may have a general eyeglass structure including a rim 1110a, a lens 1110b, a bridge 1110c, a nose pad 1110d, a temple 1110e, and a tip 1110f, The first microphone portion 1121 is exposed to the end piece of the rim 1110a.

상기 청각 정보 안내부(1120)는 상기 안경 구조부(1110)에 탑재되고, 외부로부터 음성 신호를 입력 받고, 입력된 음성 신호를 텍스트 데이터로 변환하며, 변환된 텍스트 데이터를 상기 안경 구조부의 렌즈를 통해 표시하여 문자 안내 서비스를 제공할 수 있다.The audiovisual information guide unit 1120 is mounted on the eyeglass structure unit 1110 and receives a voice signal from the outside, converts the inputted voice signal into text data, and transmits the converted text data through the lens of the eyeglass structural unit And can provide a text guide service.

이를 위해 상기 청각 정보 안내부(1120)는 상기 안경 구조부(1110) 내에 설치되며, 상기 제1 마이크부(1121), 음성-텍스트 변환부(1122), 프로젝터부(1123) 및 음성 데이터 수신부(1124)를 포함할 수 있다. 상기 음성 데이터 수신부(1124)는 상기 제2 착용형 단말기(1200)의 종속적인 구성으로 상기 제2 착용형 단말기(1200)의 생략 시 생략 가능하다. 다만, 본 실시예에서는 상기 제2 착용형 단말기(1200)를 포함하는 형태로 설명하기로 하였으므로, 상기 음성 데이터 수신부(1124)도 상기 제1 착용형 단말기(1100)에 포함된 구성으로 하여 설명하도록 한다.To this end, the auditory information guide unit 1120 is installed in the eyeglass structure unit 1110 and includes the first microphone unit 1121, the voice-to-text conversion unit 1122, the projector unit 1123, and the voice data receiving unit 1124 ). The voice data receiving unit 1124 may be omitted when the second wearable terminal 1200 is omitted in the second configuration of the second wearable terminal 1200. However, since the present embodiment is described as including the second wearable terminal 1200, the voice data receiver 1124 is also described as being included in the first wearable terminal 1100 do.

상기 제1 마이크부(1121)는 상기 안경 구조부(1110)의 프로트 부분에 형성될 수 있으며, 예를 들어 상기 림(1110a)의 앤드피스 부분에 설치될 수 있다. The first microphone portion 1121 may be formed on the protrusion portion of the eyeglass structure portion 1110 and may be installed on the end piece portion of the rim 1110a, for example.

상기 제1 마이크부(1121)는 외부로부터 음성 신호를 직접 입력 받아 전기적 신호 즉 음성 데이터로 변환시켜 주기 위한 수단으로, 지향성 마이크로폰을 포함할 수 있다. 이에 따라, 상기 제1 마이크부(1121)는 특정 방향에서 들려오는 좁은 각도의 소리만 선택적으로 녹취할 수 있으므로, 착용자가 외부의 원하는 음성만 입력 받고 여러 음성과 같은 잡음이 입력되는 것을 최소화시킬 수 있다. The first microphone unit 1121 may include a directional microphone as a means for directly receiving a voice signal from the outside and converting it into an electrical signal, that is, voice data. Accordingly, the first microphone unit 1121 can selectively record sound of a narrow angle heard in a specific direction, thereby minimizing the input of only a desired voice from the wearer and inputting noises such as various voices have.

상기 음성-텍스트 변환부(1122)는 상기 제1 마이크부(1121)를 통해 생성된 음성 데이터를 그에 상응하는 텍스트 데이터로 변환하는 기능을 수행할 수 있다. 이와 같이 소정의 음성 데이터에 대응하는 텍스트를 판단하는 방법은 기공지된 다양한 방식이 이용될 수 있다.The voice-to-text conversion unit 1122 may convert the voice data generated through the first microphone unit 1121 into corresponding text data. Various known methods can be used as a method of determining the text corresponding to the predetermined voice data.

예를 들어, 변환 처리 문맥을 고려한 수천 개의 서브 단어 형태의 모델을 이용할 수 있다. 즉, 소정의 음성 데이터에서 필요한 특징 벡터를 추출한 후 기저장된 데이터베이스의 자료와 비교하여 음성 데이터에 대응하는 텍스트를 추출할 수 있다. 여기서 음성 특징 벡터는 음성학적 정보를 담고 있는 것으로 배경 잡음이나 화자간의 차이 또는 발음 태도 등에 대해서는 민감하게 변하지 않는 통계적 데이터에 해당할 수 있다.For example, a model of thousands of sub-words taking into account the transformation processing context can be used. That is, after extracting necessary feature vectors from predetermined speech data, it is possible to extract text corresponding to speech data by comparing the feature vectors with data of previously stored databases. Here, the speech feature vector contains phonetic information, which may correspond to statistical data that is not sensitive to background noise, speaker differences, or pronunciation attitude.

음성 특징 벡터를 추출하기 위해서는 다양한 방식이 적용될 수 있으며, 예를 들어 음성 데이터에 대해서 모든 주파수 대역에 동일하게 비중을 두어 분석하는 LPC(Linear Predictive Coding) 추출법, 혹은 사람의 음성 인지 양상이 선형적이지 않고 로그 스케일과 비슷한 멜 스케일을 따른다는 특성을 반영한 MFCC(Mel Frequency Cepstral Coefficients) 추출법, 음성과 잡음을 뚜렷하게 구별하기 위해 고주파 성분을 강조해 주는 고역강조 추출법, 음성을 짧은 구간으로 나누어 분석할 때 생기는 단절로 인한 왜곡현상을 최소화하는 창 함수 추출법 등 다양하다.In order to extract speech feature vectors, various methods can be applied. For example, LPC (Linear Predictive Coding) extraction method in which speech data is analyzed with weighting equally in all frequency bands, MFCC (Mel Frequency Cepstral Coefficients) extraction method which reflects the characteristic of following Mel Scale similar to log scale, high frequency emphasis extraction method which emphasizes high frequency component to distinguish voice and noise clearly, disconnection which occurs when voice is divided into short sections And a window function extraction method that minimizes the distortion caused by the window function.

상기 음성-텍스트 변환부(1122)는 이렇게 추출된 음성 특징 벡터와 기존에 구축된 음성 데이터 베이스의 음성학적 정보를 비교하여 인식 결과를 얻을 수 있는데, 단어 단위 검색 또는 문장 단위 검색에 의해 텍스트를 추출할 수 있다.The speech-to-text conversion unit 1122 compares the extracted speech feature vector with phonetic information of a previously constructed speech database to obtain recognition results. The speech-text conversion unit 1122 extracts text by word-based search or sentence-based search can do.

이와 같이 상기 음성-텍스트 변환부(1122)에서 음성 데이터에 대응하여 텍스트를 추출하는 과정은 다양한 방식이 이용될 수 있다.The voice-to-text conversion unit 1122 may extract text corresponding to the voice data in various manners.

한편, 상기 음성-텍스트 변환부(1122)는 음성-텍스트 변환뿐만 아니라, 언어 번역 서비스를 제공하기 위한 번역 설정부(1122a)와 번역 실행부(1122b)를 포함하는 기능 모듈을 더 포함할 수 있다. The voice-to-text conversion unit 1122 may further include a function module including a translation setting unit 1122a and a translation execution unit 1122b for providing a language translation service, as well as voice-to-text conversion .

상기 번역 설정부(1122a)는 음성에 대한 언어와 텍스트에 대한 언어를 각각 설정할 수 있다. 즉, 상기 번역 설정부(1122a)는 음성의 언어와 텍스트의 언어 간의 번역 모드를 설정하기 위한 수단으로, 상기 제1 마이크부(1121)를 통해 입력될 음성의 언어(예를 들어 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등)를 설정할 수 있으며, 상기 프로젝터부(1123)를 통해 최종 출력될 텍스트의 언어(예를 들어 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등)를 설정할 수 있다. 이에 따라, 상기 번역 설정부(1122a)는 상기 음성-텍스트 변환부(1122)를 통해 인식될 음성의 언어를 설정함으로써 상기 음성-텍스트 변환부(1122)가 이와 같은 언어 설정에 따른 음성-텍스트 변환 기능을 수행할 수 있도록 한다.The translation setting unit 1122a can set a language for voice and a language for text, respectively. That is, the translation setting unit 1122a is a means for setting a translation mode between the language of the speech and the language of the text. The translation setting unit 1122a sets the language of the speech to be inputted through the first microphone unit 1121 (for example, (For example, Korean, English, Japanese, Chinese, German, French, etc.) to be finally outputted through the projector unit 1123 can be set. Accordingly, the translation setting unit 1122a sets the language of the voice to be recognized through the voice-to-text conversion unit 1122 so that the voice-to-text conversion unit 1122 converts the voice- To perform the function.

상기 번역 실행부(1122b)는 상기 번역 설정부(1122b)의 언어 번역 모드 설정에 따른 기계 번역을 실행할 수 있다. 이에 따라, 상기 번역 실행부(1122b)는 상기 음성-텍스트 변환부(1122)를 통해 변환된 텍스트의 언어를 기 설정된 언어로 기계 번역하는 기능을 수행할 수 있다. 예를 들어, 상기 번역 설정부(1122a)를 통해 음성의 언어를 영어로 설정하고, 텍스트의 언어를 한국어로 설정하는 경우, 상기 음성-텍스트 변환부(1122)는 외부의 영어로 된 음성에 대한 인식, 변환 및 변역 과정을 수행한 후 상기 프로젝터부(1123)를 통해 착용자에게 한국어로 된 텍스트 정보를 제공할 수 있다. The translation executing section 1122b can perform machine translation according to the language translation mode setting of the translation setting section 1122b. Accordingly, the translation executing unit 1122b can perform the function of translating the language of the text converted through the voice-to-text converting unit 1122 into a predetermined language. For example, when the language of the voice is set to English through the translation setting unit 1122a and the language of the text is set to Korean, the voice-to-text conversion unit 1122 converts After performing the recognition, conversion, and conversion processes, text information in Korean can be provided to the wearer through the projector unit 1123. [

상기 프로젝터부(1123)는 상기 음성-텍스트 변환부(1122)를 통해 변환된 텍스트 데이터가 상기 안경 구조부(1110)의 렌즈(1110b)를 통해 표시되도록 빔을 투사할 수 있다. 이와 같이 상기 안경의 렌즈(1110b) 상에 소정의 정보가 표시되도록 광을 투사하는 프로젝트 기술은 기공지된 다양한 방식이 이용될 수 있다. 여기서 상기 렌즈(1110b)는 텍스트를 표시하기 위한 디스플레이의 기능을 수행할 수 있다.The projector unit 1123 can project the beam so that the text data converted through the voice-to-text conversion unit 1122 is displayed through the lens 1110b of the eyeglass structure unit 1110. [ As described above, various known methods can be used as the project technique for projecting the light so that predetermined information is displayed on the lens 1110b of the eyeglasses. Here, the lens 1110b may perform a display function for displaying text.

상기 음성 데이터 수신부(1124)는 상기 제2 착용형 단말기(1200)로부터 음성 데이터를 수신할 수 있다. 이때, 상기 음성 데이터 수신부(1124)는 수신된 음성 데이터는 상기 음성-텍스트 변환부(1122)를 통해 변환 과정 또는 변환 및 변역 과정을 거친 후 상기 프로젝터부(1123)를 통해 착용자에게 소정의 텍스트 정보로 제공될 수 있다. 상기 음성 데이터 수신부(1124)는 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee) 또는 비콘(Beacon) 등의 근거리 무선 통신을 이용하여 상기 제2 착용형 단말기(1200)로부터 음성 데이터를 실시간 수신하거나 통신할 수 있다.The voice data receiving unit 1124 can receive voice data from the second wearable terminal 1200. At this time, the voice data receiving unit 1124 receives the voice data through the voice-to-text conversion unit 1122, converts and converts the voice data, and transmits the voice data to the wearer through the projector unit 1123, Lt; / RTI > The voice data receiver 1124 receives voice data from the second wearable terminal 1200 using short-range wireless communication such as Wi-Fi, Bluetooth, Zigbee, or Beacon It can receive or communicate in real time.

상기 음성 데이터 수신부(1124)가 활성화되는 경우, 상기 제1 마이크부(1121)가 비활성화되어 음성 데이터가 다중으로 입력되어 변환되는 상황을 피하는 것이 바람직하다. 이에 따라, 상기 제1 마이크부(1121)와 상기 음성 데이터 수신부(1124)는 택일적으로 활성화되도록 별도의 선택 제어 수단이나, 어느 한쪽이 활성화되는 경우 다른 한쪽이 비활성되는 등의 시스템을 갖추는 것이 바람직하다. When the voice data receiving unit 1124 is activated, it is preferable to avoid the situation where the first microphone unit 1121 is inactivated so that the voice data is multiplexed and converted. Accordingly, it is preferable that the first microphone unit 1121 and the voice data receiving unit 1124 are provided with separate selection control means for selectively activating the first microphone unit 1121 and the voice data receiving unit 1124, Do.

한편, 상기 음성-텍스트 변환부(1122), 프로젝터부(1123) 및 음성 데이터 수신부(1124)는 하나의 기판에 형성된 소형 모듈로서 제작되어 상기 안경 구조부(1110) 내에 탑재될 수 있다.The voice-to-text conversion unit 1122, the projector unit 1123, and the voice data reception unit 1124 may be manufactured as a small module formed on one substrate and mounted in the eyeglass structure unit 1110.

상기 제2 착용형 단말기(1200)는 신체에 착용 가능하도록 이루어질 수 있다. 예를 들어, 상기 제2 착용형 단말기(1200)는 반지, 팔지 및 시계와 같은 형태로 형성될 수 있다. 이하 본 실시예에서는 상기 제2 착용형 단말기(1200)가 반지의 형태로 이루어진 것이 일례로 하여 설명하도록 한다.The second wearable terminal 1200 can be made wearable to the body. For example, the second wearable terminal 1200 may be formed in the form of a ring, a bracelet, and a watch. Hereinafter, the second wearable terminal 1200 will be described as an example in the form of a ring.

상기 제2 착용형 단말기(1200)는 상기 청각 정보 안내부(1120)와 접속되고 외부로부터 음성 신호를 직접 입력받아 상기 제1 착용형 단말기(1100)로 전송하는 역할을 할 수 있다.The second wearable terminal 1200 may be connected to the auditory information guide unit 1120 and may directly receive a voice signal from the outside and transmit the voice signal to the first wearable terminal 1100.

이를 위해 상기 제2 착용형 단말기(1200)는, 제2 마이크부(1210), 음성 데이터 전송부(1220) 및 전원 스위치부(1230)를 포함할 수 있다.The second wearable terminal 1200 may include a second microphone unit 1210, a voice data transmission unit 1220, and a power switch unit 1230.

상기 제2 마이크부(1210)는 외부로부터 음성 신호를 직접 입력 받아 전기적 신호 즉 음성 데이터로 변환시켜 주기 위한 수단으로, 지향성 마이크로폰을 포함할 수 있다. 이에 따라, 상기 제2 마이크부(1210)는 특정 방향에서 들려오는 좁은 각도의 소리만 선택적으로 녹취할 수 있으므로, 착용자가 외부의 원하는 음성만 입력 받고 여러 음성과 같은 잡음이 입력되는 것을 최소화시킬 수 있다. The second microphone unit 1210 may include a directional microphone as a means for directly receiving a voice signal from outside and converting it into an electrical signal, that is, voice data. Accordingly, the second microphone unit 1210 can selectively record only the sound of a narrow angle heard in a specific direction, thereby minimizing the input of a desired voice from the wearer and inputting noises such as various voices have.

상기 음성 데이터 전송부(1220)는 상기 제2 마이크부(1210)를 통해 입력된 음성 데이터를 상기 제1 착용형 단말기(1100)로 전송할 수 있다. 좀 더 구체적으로 상기 음성 데이터 전송부(1220)는 상기 제2 마이크부(1210)를 통해 입력된 음성 데이터를 상기 제1 착용형 단말기(1100)의 상기 음성 데이터 수신부(1124)를 통해 상기 청각 정보 안내부(1120)로 전송할 수 있다. 이때, 상기 청각 정보 안내부(1120)는 상기 제2 착용형 단말기(1200)로부터 수신되는 음성 데이터를 상기 음성-텍스트 변환부(1122)를 통해 그에 상응하는 텍스트 데이터로 변환하고, 상기 프로젝터부(1123)를 통해 해당 정보를 표시할 수 있다.The voice data transmission unit 1220 may transmit the voice data input through the second microphone unit 1210 to the first wearable terminal 1100. More specifically, the voice data transmitting unit 1220 transmits the voice data input through the second microphone unit 1210 to the voice data receiving unit 1124 of the first wearable terminal 1100, To the guide unit 1120. At this time, the auditory information guide unit 1120 converts the voice data received from the second wearable terminal 1200 into the corresponding text data through the voice-to-text conversion unit 1122, 1123 to display the corresponding information.

상기 음성 데이터 전송부(1220)는 유무선 방식으로 상기 제1 착용형 단말기(1100)와 접속하여 해당 음성 데이터를 전송할 수 있다. The voice data transmitting unit 1220 may connect the first wearable terminal 1100 with the voice data in a wired or wireless manner.

이를 위해 상기 음성 데이터 전송부(1220)는 무선 통신부(1220a)와 데이터 포트(1220b)를 포함할 수 있다. For this, the voice data transmission unit 1220 may include a wireless communication unit 1220a and a data port 1220b.

상기 무선 통신부(1220a)는 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee) 또는 비콘(Beacon) 등의 근거리 무선 통신을 이용하여 상기 제1 착용형 단말기(1100)로 음성 데이터나 기타 전기적 신호 등을 무선 전송할 수 있으며, 필요에 따라 상기 제1 착용형 단말기(1100)로부터 소정의 데이터나 정보를 수신할 수도 있다. The wireless communication unit 1220a may transmit voice data or other data to the first wearable terminal 1100 using short-range wireless communication such as Wi-Fi, Bluetooth, Zigbee or Beacon, And may receive predetermined data or information from the first wearable terminal 1100 as needed.

상기 데이터 포트(1220b)는 데이터 케이블(미도시)을 통해 상기 제1 착용형 단말기(1100)와 연결되어 음성 데이터나 기타 전기적 신호 등을 전송할 수 있으며, 필요에 따라 상기 제1 착용형 단말기(1100)로부터 소정의 데이터나 정보를 수신할 수도 있다. The data port 1220b may be connected to the first wearable terminal 1100 through a data cable (not shown) to transmit voice data or other electrical signals. If necessary, the first wearable terminal 1100 And may receive predetermined data or information.

상기 전원 스위치부(1230)는 상기 제2 착용형 단말기(1200)의 전원을 온/오프할 수 있다. 예를 들어, 상기 전원 스위치부(1230)를 통해 상기 제2 착용형 단말기(1200)를 턴온할 경우 상기 제1 착용형 단말기(1100)의 제1 마이크부(1121)가 비활성화되고, 상기 제2 착용형 단말기(1200)의 제2 마이크부(1210)를 통해 입력된 음성 데이터가 상기 음성 데이터 전송부(1220)를 통해 상기 제1 착용형 단말기(1100)로 전송될 수 있다. The power switch unit 1230 may turn on / off the power of the second wearable terminal 1200. For example, when the second wearable terminal 1200 is turned on via the power switch unit 1230, the first microphone unit 1121 of the first wearable terminal 1100 is inactivated, The voice data input through the second microphone unit 1210 of the wearable terminal 1200 can be transmitted to the first wearable terminal 1100 through the voice data transfer unit 1220. [

또한, 상기 전원 스위치부(1230)를 통해 상기 제2 착용형 단말기(1200)가 오프될 경우 상기와 같은 음성 인식 과정을 상기 제1 착용형 단말기(1100)를 통해 수행될 수 있다. In addition, when the second wearable terminal 1200 is turned off through the power switch unit 1230, the voice recognition process described above can be performed through the first wearable terminal 1100. [

본 발명의 실시예에 따르면, 기본적으로 안경 구조의 웨어러블 디바이스로 이루어지고, 다른 사람의 말을 텍스트로 실시간 변환하고 사용자의 눈앞에 즉각적으로 표시함으로써, 청각 장애인이 일상생활에서도 쉽고 편하게 사용할 수 있다.According to the embodiment of the present invention, the wearable device is basically constructed of a wearable device having a glasses structure. By converting the words of another person into text in real time and displaying them immediately in front of the user's eyes, the hearing-impaired person can easily and comfortably use it in daily life.

또한, 안경 구조의 웨어러블 디바이스로 음원의 입력이 용이하지 않은 상황에서는 반지, 시계나 팔찌 형태의 또 다른 웨어러블 디바이스를 이용하여 음원의 입력을 좀 더 용이하게 함으로써, 상황이나 환경적 요소에 의한 불편함을 최소화할 수 있다.In addition, when the wearable device of the eyeglass structure is not easy to input the sound source, it is possible to easily input the sound source by using another wearable device in the form of a ring, a watch or a bracelet, Can be minimized.

또한, 음성 정보를 사용자가 원하는 언어로 실시간 번역하여 표시함으로써 청각 장애인뿐만 아니라 외국어 능력이 부족한 일반인들의 동시통역을 위한 용도로 다양하게 활용될 수 있다. In addition, the voice information can be translated and displayed in real time in the language desired by the user, so that it can be utilized variously for the simultaneous interpretation of not only the hearing-impaired person but also the general person lacking the foreign language ability.

이상에서 설명한 것은 본 발명에 의한 청각 장애인을 위한 착용형 장치를 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.As described above, the present invention is not limited to the above-described embodiment, but can be applied to a case where the present invention It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

1000: 착용형 장치 1100: 제1 착용형 단말기
1110: 안경 구조부 1120: 청각 정보 안내부
1121: 제1 마이크부 1122: 음성-텍스트 변환부
1122a: 번역 설정부 1122b: 번역 실행부
1123: 프로젝터부 1124: 음성 데이터 수신부
1200: 제2 착용형 단말기 1210: 제2 마이크부
1220: 음성 데이터 전송부 1220a: 무선 통신부
1220b: 데이터 포트 1230: 전원 스위치부
1000: Wearable device 1100: First wearable terminal
1110: eyeglass structure section 1120: auditory information guide section
1121: first microphone unit 1122: voice-text conversion unit
1122a: translation setting unit 1122b: translation execution unit
1123: Projector unit 1124: Audio data receiver
1200: second wearable terminal 1210: second microphone unit
1220: voice data transmission unit 1220a: wireless communication unit
1220b: Data port 1230: Power switch unit

Claims (1)

안경의 구조를 이루는 안경 구조부; 및
상기 안경 구조부에 탑재되고, 외부로부터 음성 신호를 입력받고, 입력된 음성 신호를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 상기 안경 구조부의 렌즈를 통해 표시하여 문자 안내 서비스를 제공하기 위한 청각 정보 안내부를 포함하는 청각 장애인을 위한 착용형 장치이고,
상기 청각 정보 안내부는,
상기 안경 구조부의 림 앤드피스에 노출되도록 설치되되, 외부로부터 음성 신호를 입력 받기 위하여 지향성 마이크로폰으로 구성된 제1 마이크부;
상기 제1 마이크부를 통해 입력된 음성 데이터에 대응되는 텍스트 데이터로 변환하되, 해당 음성 데이터에서 필요한 특징 벡터를 추출(LPC(Linear Predictive Coding) 추출법, MFCC(Mel Frequency Cepstral Coefficients) 추출법, 고역강조 추출법, 창 함수 추출법 중 어느 하나의 기법 사용)한 후 기 저장된 데이터베이스의 자료와 비교하여 해당 음성 데이터에 대응되는 텍스트를 단어 단위 검색 또는 문장 단위 검색에 의해 추출하는 음성-텍스트 변환부; 및
상기 음성-텍스트 변환부를 통해 변환된 텍스트 데이터가 상기 안경 구조부의 렌즈를 통해 표시되도록 빔을 투사하는 프로젝터부를 포함하고,
상기 음성-텍스트 변환부는
음성에 대한 언어와 텍스트에 대한 언어 간의 번역 모드를 설정하기 위하여, 상기 제1 마이크부를 통해 입력될 언어에 대한 국가와 상기 프로젝터부를 통해 최종 출력될 텍스트의 언어에 대한 국가를 각각 설정하는 번역 설정부; 및
상기 번역 설정부의 국가별 언어 설정에 따른 번역을 실행하기 위한 번역 실행부를 더 포함하고,
상기 청각 장애인을 위한 착용형 장치는
손에 착용 가능하도록 이루어지고, 외부로부터 음성 신호를 입력 받아 상기 청각 정보 안내부로 전송하기 위한 착용형 단말기를 더 포함하고,
상기 착용형 단말기는,
외부로부터 음성 신호를 입력 받되, 특정 방향에서 들려오는 소리만 선택적으로 입력 받기 위하여 지향성 마이크로폰으로 구성된 제2 마이크부;
상기 제2 마이크부를 통해 입력된 음성 데이터를 상기 청각 정보 안내부로 실시간 전송하기 위한 음성 데이터 전송부; 및
상기 착용형 단말기의 전원을 온/오프하기 위한 전원 스위치부를 포함하고,
상기 청각 정보 안내부는, 상기 착용형 단말기로부터 음성 데이터를 실시간 수신하기 위한 음성 데이터 수신부를 더 포함하고,
상기 전원 스위치부를 통해 상기 착용형 단말기가 턴온할 경우, 상기 제1 마이크부가 비활성화되면서 상기 음성 데이터 수신부와 상기 제2 마이크부가 활성화되고, 상기 전원 스위치부를 통해 상기 착용형 단말기가 턴오프될 경우, 상기 제1 마이크부가 활성화되면서 상기 음성 데이터 수신부와 상기 제2 마이크부가 비활성화되어, 상기 제1 마이크부와 상기 제2 마이크부를 통해 음성 데이터가 다중으로 입력되어 변환되지 않도록 상기 제1 마이크부와 상기 제2 마이크부가 동시에 활성화되지 않고 택일적으로 활성화되고,
상기 안경 구조부는 림, 렌즈, 브릿지, 코패드, 템플 및 팁을 포함하고,
상기 프로젝터부는, 상기 브릿지와 상기 코패드 사이에 위치되어 상기 음성-텍스트 변환부를 통해 변환된 텍스트 데이터가 상기 렌즈에 표시되도록 상기 렌즈를 향해 빔을 투사하고,
상기 착용형 단말기는 반지 형태로 구현되고,
상기 음성 데이터 전송부는 근거리 무선 통신을 이용하여 음성 데이터를 전송하는 무선 통신부를 포함하고,
상기 음성 데이터 전송부는 데이터 케이블을 통해 음성 데이터를 전송하기 위한 데이터 포트를 포함하고,
상기 음성 데이터 수신부가 활성화되는 경우, 상기 제1 마이크부가 비활성화되어 음성 데이터가 다중으로 입력되어 변환되지 않도록 하고,
상기 음성-텍스트 변환부, 프로젝터부 및 음성 데이터 수신부는 하나의 기판에 형성된 소형 모듈로서 제작되어 상기 안경 구조부 내에 탑재되는 것을 특징으로 하는 청각 장애인을 위한 착용형 장치.
An eyeglass structure constituting the structure of glasses; And
An eyeglass structure unit for receiving a voice signal from outside, converting the input voice signal into text data, displaying the converted text data through a lens of the eyeglass structure unit, A wearable device for the hearing impaired,
The hearing information guide unit,
A first microphone unit installed to be exposed to the rim and piece of the eyeglass structure unit and configured to receive a voice signal from the outside, the microphone unit being a directional microphone;
(LPC) extraction method, Mel Frequency Cepstral Coefficients (MFCC) extraction method, high-frequency emphasis extraction method, and the like. And extracting a text corresponding to the voice data by a word unit search or a sentence unit search by comparing with the data of a previously stored database after using any one of the window function extraction method and the window function extraction method) And
And a projector unit for projecting the beam so that the text data converted by the voice-to-text conversion unit is displayed through the lens of the eyeglass structure unit,
The speech-to-text conversion unit
A translation setting unit for setting a country for a language to be input through the first microphone unit and a language for a text to be finally output through the projector unit in order to set a translation mode between a language for speech and a language for text, ; And
Further comprising a translation execution unit for executing translation according to the language setting of the country of the translation setting unit,
The wearable device for the hearing impaired person
Further comprising a wearable terminal which is adapted to be worn on the hand and receives a voice signal from the outside and transmits the voice signal to the auditory information guide unit,
In the wearable terminal,
A second microphone unit having a directional microphone for receiving a voice signal from outside and selectively receiving only a sound heard in a specific direction;
A voice data transmitting unit for transmitting the voice data input through the second microphone unit to the auditory information guide unit in real time; And
And a power switch unit for turning on / off the power of the wearable terminal,
The hearing information guide unit further includes a voice data receiving unit for receiving voice data from the wearable terminal in real time,
Wherein when the wearable terminal is turned on through the power switch unit, the first microphone unit is deactivated and the voice data receiving unit and the second microphone unit are activated, and when the wearable terminal is turned off through the power switch unit, The first microphone unit is activated and the voice data receiving unit and the second microphone unit are deactivated so that voice data is multiplexed and input through the first microphone unit and the second microphone unit, The microphone unit is not activated at the same time, but is selectively activated,
Wherein the eyeglass structure comprises a rim, a lens, a bridge, a nose pad, a temple and a tip,
The projector unit projects a beam toward the lens so that the text data, which is positioned between the bridge and the nose pad and converted through the voice-to-text conversion unit, is displayed on the lens,
The wearable terminal is implemented in a ring form,
Wherein the voice data transmitting unit includes a wireless communication unit for transmitting voice data using short-range wireless communication,
Wherein the voice data transmission unit includes a data port for transmitting voice data through a data cable,
When the voice data receiving unit is activated, the first microphone unit is deactivated so that voice data is input in multiple and not converted,
Wherein the voice-to-text conversion unit, the projector unit, and the audio data receiving unit are manufactured as a small module formed on one substrate and mounted in the eyeglass structure unit.
KR1020170084356A 2017-07-03 2017-07-03 A wearable device for hearing impairment person KR101906549B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170084356A KR101906549B1 (en) 2017-07-03 2017-07-03 A wearable device for hearing impairment person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170084356A KR101906549B1 (en) 2017-07-03 2017-07-03 A wearable device for hearing impairment person

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150159921A Division KR20160093529A (en) 2015-01-29 2015-11-13 A wearable device for hearing impairment person

Publications (2)

Publication Number Publication Date
KR20170093760A KR20170093760A (en) 2017-08-16
KR101906549B1 true KR101906549B1 (en) 2018-10-12

Family

ID=59752500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170084356A KR101906549B1 (en) 2017-07-03 2017-07-03 A wearable device for hearing impairment person

Country Status (1)

Country Link
KR (1) KR101906549B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022081342A (en) * 2020-11-19 2022-05-31 キヤノン株式会社 Glasses-type information appliance, method for the same, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334149A (en) * 2006-06-16 2007-12-27 Akira Hata Head mount display apparatus for hearing-impaired persons
JP2008529126A (en) * 2005-01-21 2008-07-31 ローレンス ケーツ Management system and support system for the hearing impaired
JP2008176681A (en) * 2007-01-22 2008-07-31 Fujifilm Corp Glasses-type communication support device
JP4250871B2 (en) * 2001-02-08 2009-04-08 ヤマハ株式会社 Hearing aids

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4250871B2 (en) * 2001-02-08 2009-04-08 ヤマハ株式会社 Hearing aids
JP2008529126A (en) * 2005-01-21 2008-07-31 ローレンス ケーツ Management system and support system for the hearing impaired
JP2007334149A (en) * 2006-06-16 2007-12-27 Akira Hata Head mount display apparatus for hearing-impaired persons
JP2008176681A (en) * 2007-01-22 2008-07-31 Fujifilm Corp Glasses-type communication support device

Also Published As

Publication number Publication date
KR20170093760A (en) 2017-08-16

Similar Documents

Publication Publication Date Title
KR20160093529A (en) A wearable device for hearing impairment person
KR102069237B1 (en) Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof
KR101777807B1 (en) Sign language translator, system and method
US20170243582A1 (en) Hearing assistance with automated speech transcription
US7676372B1 (en) Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
US7707035B2 (en) Autonomous integrated headset and sound processing system for tactical applications
KR102158739B1 (en) System, device and method of automatic translation
KR101830908B1 (en) Smart glass system for hearing-impaired communication
CN111432303B (en) Monaural headset, intelligent electronic device, method, and computer-readable medium
US10817674B2 (en) Multifunction simultaneous interpretation device
US20200380959A1 (en) Real time speech translating communication system
WO2023104122A1 (en) Methods for clear call under noisy conditions
KR20120127773A (en) Vocal recognition information retrieval system and method the same
KR101906549B1 (en) A wearable device for hearing impairment person
CN113299309A (en) Voice translation method and device, computer readable medium and electronic equipment
KR102000282B1 (en) Conversation support device for performing auditory function assistance
KR102023356B1 (en) Wearable sign language translation device
KR101410321B1 (en) Apparatus and method for silent voice recognition and speaking
KR20200003529A (en) Digital device for recognizing voice and method for controlling the same
KR20070112911A (en) Communication system for the deaf using speech recognition
KR102692630B1 (en) Augmented reality smart glass and method for controlling the output of smart glasses
KR102633725B1 (en) Smart Glass System for the Hearing Impaired and Method for controlling the same
KR102570418B1 (en) Wearable device including user behavior analysis function and object recognition method using the same
KR101197028B1 (en) Wireless Speech Recognizing System and Method
KR102207812B1 (en) Speech improvement method of universal communication of disability and foreigner

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right