KR20190069786A - A wearable device for the hearing impaired for deep learning-based sign language and voice translation - Google Patents

A wearable device for the hearing impaired for deep learning-based sign language and voice translation Download PDF

Info

Publication number
KR20190069786A
KR20190069786A KR1020170170055A KR20170170055A KR20190069786A KR 20190069786 A KR20190069786 A KR 20190069786A KR 1020170170055 A KR1020170170055 A KR 1020170170055A KR 20170170055 A KR20170170055 A KR 20170170055A KR 20190069786 A KR20190069786 A KR 20190069786A
Authority
KR
South Korea
Prior art keywords
sign language
voice
unit
text
learning
Prior art date
Application number
KR1020170170055A
Other languages
Korean (ko)
Inventor
왕한호
김민호
Original Assignee
왕한호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 왕한호 filed Critical 왕한호
Priority to KR1020170170055A priority Critical patent/KR20190069786A/en
Publication of KR20190069786A publication Critical patent/KR20190069786A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

The present invention discloses a wearable device for the hearing impaired for deep-learning-based sign language and voice translation. According to an embodiment of the present invention, a database unit can be formed, which recognizes sign language to be sensed through a camera and outputs a voice corresponding to sign language, recognizes a voice of a general person generated from the outside through a microphone and outputs a text corresponding to the voice, and collects sign language data necessary for sign language translation and performing repetitive learning on the collected data through a deep learning technique.

Description

딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스{A WEARABLE DEVICE FOR THE HEARING IMPAIRED FOR DEEP LEARNING-BASED SIGN LANGUAGE AND VOICE TRANSLATION}TECHNICAL FIELD [0001] The present invention relates to a wearable device for a hearing impaired person for deep-learning-based sign language translation and voice translation,

본 발명은 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스에 관한 것으로, 구체적으로 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스는 마이크를 통해 외부에서 발생되는 음성을 인식하여 상기 음성에 대응하는 텍스트를 디바이스에 출력하는 과정과 카메라를 통해 감지되는 수화를 인식하여 인공지능 분야 중 하나인 딥러닝 기술을 통해 상기 수화에 대응하는 텍스트를 자동 완성하고 상기 텍스트를 웨어러블 디바이스의 스피커를 통해 음성으로 출력하는 과정을 각각 수행함으로써, 실시간으로 수화-음성, 음성-텍스트를 번역할 수 있다.The present invention relates to a wearable device for the hearing impaired for deaf-learning-based hydration and voice translation, and more particularly to a wearable device for the hearing impaired for deaf-learning-based hydration and voice translation, Recognizing the text corresponding to the speech and outputting the text corresponding to the speech to the device, and recognizing the sign language sensed through the camera, the text corresponding to the sign language is automatically completed through deep learning technology, one of artificial intelligence fields, And outputting the voice through the speaker of the speaker, respectively, so that the sign language-voice and the voice-text can be translated in real time.

WHO(World Health Organization) 세계보건기구에 따르면, 전 세계 3억 6,000만 명의 사람이 청각장애인이며, 이들 중 3,200만 명이 어린이라고 한다. 또한 보건복지부 장애인 정책 과에서 장애 인구에 대해 통계를 낸 결과, 우리나라 청각장애인의 인구는 2015년 기준 269,000명으로 우리나라 인구의 200명 중 한 명이 청각 장애를 앓고 있다. 이는 지체 장애인 다음으로 높은 수치로 강원도 춘천 시 인구에 해당하는 숫자이다.According to the World Health Organization (WHO), 360 million people worldwide are deaf, and 32 million of them are children. In addition, the Ministry of Health and Welfare Disability Policy Division has published statistics on the disabled population. As a result, the number of people with hearing impairment in Korea is 269,000 as of 2015, and one in 200 people in our country suffers from hearing impairment. This is the next highest number of people with physical disabilities, which is equivalent to the population of Chuncheon City in Gangwon Province.

일반적으로 청각 장애는 외이로부터 대뇌에서 소리를 이해하기까지의 청각 경로에 장애를 입어 소리를 듣기가 어려운 장애를 말한다. 이러한 청각장애는 선천적 유전 요인 혹은 후천적 사고로 발생하게 된다.In general, hearing impairment refers to difficulties in listening to sounds due to interference with the hearing pathway from the ear to the understanding of the sound from the cerebrum. These hearing impairments result from inherited genetic or acquired accidents.

청각 장애인은 일상에서 수화, 필담, 구화를 통해 대화를 한다. 소리를 시각화 시켜 소통을 하는 것이다. 일반인 대다수는 수화에 대해 잘 알지 못한다. 때문에 청각 장애인과 일반인 사이에 수화를 통한 소통은 기대하기 힘들다. 또한 필담은 소통의 속도에 있어 번거로운 문제가 있다. 마지막으로 구화의 경우 청각장애인이 일반인의 입모양을 통해 하는 말을 이해하는 것이나, 궁극적으로 청각장애인도 다시 일반인에게 말을 할 때 일반인이 이해할 수 있는 수단이 필요하기에 소통에 있어 불완전한 수단이 된다.Hearing impaired people communicate in daily life through sign language, spoken language, and oral language. It visualizes the sound and communicates. The majority of the general public do not know about sign language. Therefore, it is difficult to expect communication between the deaf and the public through sign language. There is also a problem in the pace of communication. Finally, in the case of speech, it is an imperfect means of communication, because the hearing-impaired person understands what he or she says through the mouth shape of the general public, and ultimately the hearing-impaired person needs to understand what the public can understand when speaking to the public again. .

본 발명의 핵심이 되는 기술은 딥러닝이다. 딥러닝은 사실 기계에 지능을 부여하기 위한 기계 학습법의 일종이다. 예를 들어 고양이와 관련된 ‘다양한 종류의 사진’이라는 특정 사례를 무수히 반복하여 기계에게 고양이의 외모를 가르친다. 나중에 기계에게 실제 학습에 사용되지 않은 사진을 보여주더라도 고양이의 외모를 구분할 수 있게 된다. 이를 통해 알 수 있는 것은 딥러닝이라는 학습을 위해 중요한 것은 빅데이터라는 것이다.A key technology of the present invention is deep running. Deep learning is actually a kind of machine learning method for imparting intelligence to a machine. For example, it teaches a cat how to look at a machine by repeatedly repeating a specific example of 'various kinds of photographs' related to cats. Later, even if the machine shows pictures that have not been used for actual learning, the cat's appearance can be distinguished. It is important to understand that deep learning is big data.

본 발명에 사용된 인공지능 기술 이외에 번역 기능의 단점은 모든 경우의 데이터를 비교분석할 수 없다는 점이다. 본 발명은 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 착용한 사람이 누구든지, 착용자가 수행하는 모든 경우의 수화를 번역할 수 있어야 한다. 이를 위해 학습을 위한 수화 데이터를 수집해야 한다.A disadvantage of the translation function in addition to the artificial intelligence technology used in the present invention is that data of all cases can not be compared and analyzed. The present invention should be able to translate the sign language of all the wearers who wear the wearable device for the hearing impaired person for the deep learning-based hydration and voice translation. For this purpose, sign language data for learning should be collected.

착용자는 사용 속도에 있어 지연 시간을 느끼지 않아야 한다. 지연 시간을 느끼는 만큼 불편함을 인식하는 정도가 높아지기 때문이다. 이를 위해 자음과 숫자만을 활용한 데이터를 처리한다. 자음 중 ‘ㄱ’을 하면 사용자가 사용한 단어 혹은 문장 중 ‘ㄱ’과 관련해 많이 사용한 순으로 사례를 추출해야 한다. 이때 사용되는 기술이 딥러닝 기술 중 RNN(Recurrent Neural Network) 방식이다. 상기 RNN 방식은 문자의 추천을 통한 자동완성에 있어 높은 효율성을 갖는다.The wearer should not feel any delay in using speed. This is because the degree of recognition of the discomfort increases as the delay time is felt. To do this, we process data using only consonants and numbers. If you do 'A' in consonants, you should extract the cases in the order you used most in relation to 'A' among the words or phrases you used. The technology used at this time is the RNN (Recurrent Neural Network) method among the deep learning techniques. The RNN scheme has high efficiency in automatic completion through recommendation of characters.

본 발명은 수화-음성 번역 기능 이외에도 음성-텍스트 번역 기능을 수행한다. 이는 일반인의 음성을 입력 받아 청각 장애인이 이해할 수 있는 시각적 텍스트로 출력하는 것을 말한다.The present invention performs a voice-to-text translation function in addition to a hydration-voice translation function. This is to output the visual text that the hearing impaired can understand by inputting the voice of the general public.

청각 장애인은 평소 일반인과 대화의 단절이라는 어려움을 겪는다. 이러한 어려움을 해결하기 위해 번역 기능의 정확성 및 속도의 효율성을 높여주는 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스가 필요하다.People with hearing impairments have difficulty in breaking conversations with ordinary people. To solve these difficulties, there is a need for a wearable device for the hearing impaired person for the above-described deep learning-based sign language and voice translation, which improves the accuracy and speed of the translation function.

한국공개특허 제10-2016-0015723호, "양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법"Korean Patent Publication No. 10-2016-0015723, "Bi-directional Sign Language Translation Method Performed by Bi-Directional Sign Language Translation Apparatus & 한국공개특허 제10-2017-0084356호, "청각 장애인을 위한 착용형 장치"Korean Patent Publication No. 10-2017-0084356, "Wearable Device for the Deaf" 한국공개특허 제10-2014-0118003호, "쌍방향 디스플레이를 구비한 립모션 기반 수화 번역 장치"Korean Patent Laid-Open Publication No. 10-2014-0118003, "Lip motion-based sign language translation device with bidirectional display"

본 발명은 청각장애인이 사용하는 모든 경우의 수화를 오류 없이 번역하여 데이터의 예측 정확도를 높일 수 있도록 도와주어야 한다. 이를 위해 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 제공한다.The present invention should help to improve the accuracy of the data prediction by translating the sign language used by the hearing impaired person without error. To this end, we provide wearable devices for the hearing impaired for deep-learning-based sign language and voice translation.

본 발명은 청각장애인의 수화를 자연어 처리 문제에 있어서 뛰어난 성능을 보이고 있는 RNN 기술을 사용하여 텍스트로 출력한 뒤 이를 음성으로 번역한다. 이는 문자의 추천을 통한 자동완성에 관한 것으로, 이 기술을 통해 보다 빠른 수화 번역 기술을 제공한다.The present invention outputs the text of a deaf person's speech using the RNN technique, which has excellent performance in natural language processing, and translates the text into speech. This is about autocompletion through recommendation of characters, which provides faster sign language translation technology.

본 발명은 하드웨어적으로 안경 형태를 갖게 되어 청각장애인의 입장에서 손사용의 제약에서 벗어나, 다양한 손동작을 도와줄 수 있도록 하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 제공한다.The present invention provides a wearable device for a hearing impaired person for deaf learning-based sign language and voice translation, which can be used to help a variety of hand movements from the restriction of the use of the hand in the viewpoint of the hearing impaired person,

본 발명은 청각장애인의 시야 확보를 위해 광학부에 프리즘이 포함된 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 제공한다.The present invention provides a wearable device for a hearing impaired person for deaf learning based hydration and voice translation in which an optical part includes a prism for securing the visibility of the hearing impaired person.

본 발명은 디스플레이에 출력되는 텍스트의 선명도를 결정짓는 터치 방식의 LED 스위치를 구성부로 포함하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 제공한다.The present invention provides a wearable device for a hearing impaired person for a deep learning-based sign language and voice translation that includes a touch-based LED switch as a component for determining sharpness of text output to a display.

실시예에 따른 양방향 수화 및 음성 번역부는 사용자의 수화 데이터를 수집하고 이를 반복 학습하여 수화와 음성의 일대일 대응 정확성을 높이는 데이터베이스부; 마이크를 통해 외부에서 발생되는 일반인의 음성을 인식하여 상기 음성에 대응하는 텍스트를 출력하는 음성-텍스트 출력부; 및 카메라를 통해 감지되는 수화를 인식하여 상기 수화에 대응하는 음성을 출력하는 수화-음성 출력부를 포함한다.The bidirectional sign language and speech translation unit according to an embodiment of the present invention includes a database unit that collects sign language data of a user and repeatedly learns the sign language data to increase accuracy of one-to-one correspondence between sign language and voice; A voice-text output unit for recognizing a voice of a general person generated from outside through a microphone and outputting a text corresponding to the voice; And a hydration-audio output unit for recognizing the hydration sensed through the camera and outputting a sound corresponding to the hydration.

상기 데이터베이스부는 딥러닝 기술의 기본이 되는 데이터 수집에서부터 데이터 트레이닝까지의 진행과정과 트레이닝의 반복에 따른 번역의 정확성 향상에 대한 내용을 포함할 수 있다.The database unit may include progress from data collection to data training, which is the basis of the deep learning technique, and improvement of accuracy of translation according to repetition of training.

상기 수화-음성 출력부는 장치에 장착된 카메라를 통해 촬영한 사용자(청각 장애인)의 수화 모양을 인식하고, 해당 수화에 대응되는 텍스트를 프리즘에 출력하여 이를 실제 음성으로 출력하는 부분을 포함할 수 있다.The sign language speech output unit may include a part for recognizing the sign language of the user (the hearing impaired person) photographed through the camera mounted on the apparatus and outputting text corresponding to the sign language to the prism and outputting the text as actual speech .

상기 음성-텍스트 출력부는 일반인의 음성을 장치의 마이크로 입력 받아, 음성과 일대일로 대응되는 텍스트로 변환한 뒤, 프리즘에 결과를 출력하는 것을 포함할 수 있다.The voice-text output unit may include receiving a voice of a general person as a micro-input of the apparatus, converting the voice into one-to-one correspondence with the voice, and outputting the result to the prism.

실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스에는 상기 웨어러블 디바이스의 동작을 컨트롤 할 수 있는 제어부; 상기 웨어러블 디바이스의 구동을 가능하게 하는 전력을 공급하는 전원부; 상기 양방향 수화 및 음성 변역부에서 수화 인식용 카메라를 통해 촬영한 이미지를 처리하는 영상처리부; 및 상기 웨어러블 디바이스를 사용자가 착용했을 때 일상생활에 어려움이 없도록 디자인 된 광학부를 포함한다.A wearable device for a hearing impaired person for a deep learning-based hydration and voice translation according to an embodiment of the present invention includes a controller capable of controlling an operation of the wearable device; A power supply unit for supplying electric power for driving the wearable device; An image processing unit for processing an image photographed through a camera for sign language recognition in the bi-directional sign language and voice translation unit; And an optical unit designed so that there is no difficulty in daily life when the user wears the wearable device.

실시예에 따른 광학부는 디스플레이의 화면 조절을 가능하게 해주는 LED 스위치 부; 상기 웨어러블 디바이스의 사용자 인터페이스 역할을 하는 GUI 화면을 보여줄 디스플레이 부; 및 사용자의 편의성 확보를 위한 볼록렌즈 및 프리즘 부를 포함한다.According to an embodiment of the present invention, there is provided an optical unit comprising: an LED switch unit for enabling adjustment of a screen of a display; A display unit for displaying a GUI screen serving as a user interface of the wearable device; And a convex lens and a prism portion for ensuring the convenience of the user.

상기 볼록렌즈 및 프리즘 부에서 상기 웨어러블 디바이스는 작은 디스플레이를 갖고 있기 때문에 실제 눈에 들어오는 화면의 크기를 확대시켜주는 볼록렌즈와 함께, 실제 디스플레이의 빛을 굴절시켜 마치 투명 디스플레이가 눈앞에 있는 것과 같은 효과를 주는 프리즘을 포함한다.In the convex lens and the prism portion, the wearable device has a small display. Therefore, in addition to a convex lens that enlarges the size of a screen that actually enters the eye, the wearable device refracts the light of the actual display, Lt; / RTI >

상기 디스플레이 부의 GUI는 사용자가 수화를 통해 하고 싶은 말을 텍스트의 형태로 음성 출력 전 확인시켜주는 부분과 함께, 상대방의 음성을 텍스트로 변환하여 출력시켜 보여주는 부분을 포함한다.The GUI of the display unit includes a part for allowing the user to confirm the speech that the user desires to do in the form of text before voice output, and a part for converting the voice of the other party into text and outputting the text.

본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 사용자가 누구든지 모든 경우의 수화를 정확히 번역하여 데이터의 예측 정확도를 높일 수 있다.According to the embodiment of the present invention, the user of the wearable device for the hearing impaired person for the hydration and voice translation based on deep learning can accurately translate signatures in all cases and improve the prediction accuracy of data.

본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스는 상기 디스플레이 부의 GUI에 텍스트로 출력된 청각장애인의 수화를 자연어 처리 문제에 있어서 뛰어난 성능을 보이고 있는 RNN 기술을 사용하여 문자의 추천을 통한 자동완성 기능을 통해 보다 빠른 수화-음성 출력 기술을 제공하고자 한다.The wearable device for the hearing impaired person for deaf-learning-based hydration and speech translation according to the embodiment of the present invention is a device for deafening the hearing-impaired person displayed in text on the GUI of the display unit by using RNN technology And to provide a more rapid hydration-sound output technology through the automatic completion function using the recommendation of the characters.

본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스는 하드웨어적으로 안경 형태를 갖게 되어 청각장애인의 입장에서 손의 사용에 제약을 막고 다양한 손동작을 도와줄 수 있도록 하는 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치를 제공하고자 한다.According to the embodiment of the present invention, the wearable device for the hearing impaired person for the deaf learning-based hydration and voice translation has a hardware form of glasses, so that the hearing impaired person can restrict the use of the hand in the position of the hearing impaired person, And to provide a wearable device for helping the hearing impaired person to hydrate and translate the speech.

본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스는 청각장애인의 시야를 확보하기 위한 프리즘을 갖는 광학부를 포함하는 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치를 제공하고자 한다.A wearable device for a hearing impaired person for deaf learning-based hydration and speech translation according to an embodiment of the present invention is a wearable device for a hearing impaired person, which includes an optical part having a prism for securing a visibility of a hearing impaired person, Device.

본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스는 텍스트의 선명도를 결정짓는 터치 방식의 LED 스위치를 포함하는 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치를 제공하고자 한다.A wearable device for a hearing impaired person for deaf learning-based hydration and voice translation according to an embodiment of the present invention includes a touch-type LED switch for determining sharpness of text, a wearable device for helping the hearing- ≪ / RTI >

도 1은 본 발명의 실시예에 따른 광학부에서 LED 스위치 부(301)와 디스플레이 부(302)의 동작 과정을 도시한 블록도이다.
도 2는 본 발명의 실시예에 따른 광학부에서 볼록렌즈&프리즘 부(400)의 동작 과정을 도시한 블록도이다.
도 3은 본 발명의 실시예에 따른 수화-음성 출력부(500)의 동작 과정을 도시한 블록도이다.
도 4는 본 발명의 실시예에 따른 음성-텍스트 출력부(600)의 동작 과정을 도시한 블록도이다.
도 5는 본 발명의 실시예에 따른 데이터베이스부(700)의 동작 과정을 도시한 블록도이다.
도 6은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 구성을 개략적으로 나타낸 블록도이다.
도 7은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 포함하는 전체 구성도이다.
도 8은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 부위 별 구성을 나타내는 블록도이다.
도 9는 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 프리즘 화면에 출력될 GUI 모습을 나타낸 블록도이다.
FIG. 1 is a block diagram illustrating an operation procedure of an LED switch unit 301 and a display unit 302 in an optical unit according to an embodiment of the present invention.
2 is a block diagram illustrating the operation of the convex lens & prism unit 400 in the optical unit according to the embodiment of the present invention.
3 is a block diagram illustrating the operation of the hydration-speech output unit 500 according to an embodiment of the present invention.
4 is a block diagram illustrating an operation of the voice-text output unit 600 according to an embodiment of the present invention.
5 is a block diagram illustrating an operation process of the database unit 700 according to an embodiment of the present invention.
FIG. 6 is a block diagram schematically illustrating the configuration of a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.
FIG. 7 is an overall configuration diagram including a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.
FIG. 8 is a block diagram showing a structure of a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.
FIG. 9 is a block diagram showing a GUI to be output on a prism screen of a wearable device for a hearing impaired person for a deep learning-based hydration and voice translation according to an embodiment of the present invention.

이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and accompanying drawings. However, the present invention is not limited to the embodiments.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions.

본 명세서에서 사용되는 “실시예”, “예”, “측면”, “예시” 등은 기술된 임의의 양상(aspect) 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되어야 하는 것은 아니다.As used herein, the terms "embodiment," "example," "side," "example," and the like should be construed as advantageous or advantageous over any other aspect or design It does not.

또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다. 즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다.' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다. Also, the term 'or' implies an inclusive or 'inclusive' rather than an exclusive or 'exclusive'. That is, unless otherwise stated or clear from the context, 'x uses a or b.' Quot; refers to any of the natural inclusive permutations.

또한, 본 명세서 및 청구항들에서 사용되는 단수 표현("a" 또는 "an")은, 달리 언급하지 않는 한 또는 단수 형태에 관한 것이라고 문맥으로부터 명확하지 않는 한, 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.Also, the phrase "a" or "an ", as used in the specification and claims, unless the context clearly dictates otherwise, or to the singular form, .

또한, 본 명세서 및 청구항들에서 사용되는 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Furthermore, the terms first, second, etc. used in the specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terminology used herein is a term used for appropriately expressing an embodiment of the present invention, which may vary depending on the user, the intent of the operator, or the practice of the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

이하, 본 발명의 일실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 광학부에서 LED 스위치(301)와 디스플레이(302)의 동작 과정을 도시한 블록도이다.1 is a block diagram illustrating the operation of the LED switch 301 and the display 302 in the optical unit according to the embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 광학부에서 LED 스위치 부(301)와 디스플레이 부(302)는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스에서 화면의 출력 및 출력된 화면에 비춰질 텍스트의 선명도를 LED 스위치를 사용하여 조절하는 기능을 제공한다.Referring to FIG. 1, the LED switch unit 301 and the display unit 302 in the optical unit according to the embodiment of the present invention may be used in a wearable device for a hearing-impaired person for deaf- It provides the function to adjust the sharpness of the text to be displayed on the screen by using the LED switch.

이를 위해, 본 발명의 실시예에 따른 광학부에는 LED 스위치(301)와 디스플레이(302)를 포함한다.To this end, the optical unit according to the embodiment of the present invention includes an LED switch 301 and a display 302.

도 2는 본 발명의 실시예에 따른 광학부에서 볼록렌즈&프리즘(400)의 동작 과정을 도시한 블록도이다.FIG. 2 is a block diagram illustrating an operation process of the convex lens & prism 400 in the optical unit according to the embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 광학부에서 상기 도 1의 디스플레이 부(302)에 출력된 내용이 볼록렌즈&프리즘 부(400)을 통해 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 화면의 확대 및 굴절을 통해 착용자의 눈에 화면이 비추는 기능을 제공한다.2, the contents output from the optical unit according to the embodiment of the present invention to the display unit 302 of FIG. 1 are transmitted through the convex lens & prism unit 400 to a depth- And provides a function of illuminating the screen of the wearer's eyes through the enlargement and refraction of the screen of the wearable device for the hearing impaired person.

이를 위해, 본 발명의 실시예에 따른 광학부에는 볼록렌즈&프리즘 부(400)를 포함한다.To this end, the optical unit according to the embodiment of the present invention includes a convex lens & prism unit 400.

도 3은 본 발명의 실시예에 따른 수화-음성 출력부(500)의 동작 과정을 도시한 블록도이다.3 is a block diagram illustrating the operation of the hydration-speech output unit 500 according to an embodiment of the present invention.

도 3을 참고하면, 본 발명의 실시예에 따른 수화-음성 출력부(500)는 청각 장애인의 수화를 입력하여 일반인이 이해할 수 있는 음성으로 출력하는 기능을 제공한다.Referring to FIG. 3, a sign language voice output unit 500 according to an embodiment of the present invention provides a function of inputting a sign language of a person with a hearing impairment and outputting it as a voice understood by the general public.

이를 위해, 본 발명의 실시예에 따른 수화 데이터를 이용한 딥러닝 기반의 수화-음성 출력부는 수화 데이터부(501), 수화 인식부(502), 텍스트 변환부(503), 텍스트 출력부(504) 그리고 음성출력부(505)를 포함한다.To this end, the deep learning-based hydration-sound output unit using the sign language data according to the embodiment of the present invention includes a sign language data unit 501, a sign language recognition unit 502, a text conversion unit 503, a text output unit 504, And an audio output unit 505.

수화 데이터부(501)는 상기 수화-음성 출력부에서 입력 값으로 인지되어야 할 수화 정보를 나타낸다.The sign language data unit 501 indicates sign language information to be recognized as an input value in the sign language speech output unit.

수화 인식부(502)는 상기 수화-음성 출력부에서 입력 값을 입력받는 인터페이스의 기능을 제공한다.The sign language recognition unit 502 provides a function of an interface for receiving an input value from the sign language speech output unit.

텍스트 변환부(503)은 상기 수화-음성 출력부에서 수화의 내용과 일대일로 대응하는 텍스트를 변환하기 위한 기능을 제공한다.The text conversion unit 503 provides a function for converting the text corresponding to the sign language in one-to-one correspondence in the sign language-speech output unit.

텍스트 출력부(504)는 상기 수화-음성 출력부에서 딥러닝에 기반 한 RNN 방식을 사용해서 음성으로 출력할 텍스트를 결정하는 기능을 제공한다.The text output unit 504 provides a function of determining a text to be output as a voice using the RNN scheme based on the deep learning in the hydration-speech output unit.

음성출력부(505)는 상기 수화-음성 출력부에서 프리즘에 출력된 결과 값을 실제 일반인이 이해할 수 있는 음성으로 출력되도록 도와주는 기능을 제공한다.The speech output unit 505 provides a function of outputting the result value output from the hydration-speech output unit to the prism as a voice that can be understood by the general public.

도 4는 본 발명의 실시예에 따른 음성-텍스트 출력부(600)의 동작 과정을 도시한 블록도이다.4 is a block diagram illustrating an operation of the voice-text output unit 600 according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 음성-텍스트 출력부(600)는 일반인의 음성(601)을 입력 값으로 받아들여, 해당 음성과 일대일 대응되는 텍스트로 값을 출력하는 기능을 제공한다.Referring to FIG. 4, the voice-text output unit 600 according to the embodiment of the present invention receives a voice 601 of a general person as an input value, and outputs a value in text corresponding to the voice do.

이를 위해, 본 발명의 실시예에 따른 음성-텍스트 출력부는 음성 데이터(601), 음성입력부(602), 텍스트 변환부(603), 그리고 텍스트 출력부(604)를 포함한다.To this end, the voice-text output unit according to the embodiment of the present invention includes voice data 601, voice input unit 602, text conversion unit 603, and text output unit 604.

음성 데이터(601)는 상기 음성-텍스트 출력부에서 입력 값으로 인지되어야 할 음성 정보를 나타낸다.The voice data 601 represents voice information to be recognized as an input value in the voice-text output unit.

음성입력부(602)는 상기 음성-텍스트 출력부에서 입력 값을 입력 받는 인터페이스의 기능을 제공한다.The voice input unit 602 provides a function of an interface for receiving input values from the voice-text output unit.

텍스트 변환부(603)는 상기 음성-텍스트 출력부에서 음성의 내용과 일대일로 대응하는 텍스트를 변환하기 위한 기능을 제공한다.The text conversion unit 603 provides a function for converting the text corresponding to the voice contents one-to-one in the voice-text output unit.

텍스트 출력부(504)는 상기 음성-텍스트 출력부에서 텍스트로 전환되어 화면에 출력되는 음성 내용을 제공하는 기능을 수행한다.The text output unit 504 performs a function of providing voice contents that are converted to text in the voice-text output unit and output to the screen.

도 5는 본 발명의 실시예에 따른 데이터베이스부(700)의 동작 과정을 도시한 블록도이다.5 is a block diagram illustrating an operation process of the database unit 700 according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 딥러닝 기술을 활용하기 위해 데이터의 수집 및 트레이닝을 수행한다.Referring to FIG. 5, data collection and training is performed to utilize the deep learning technique according to an embodiment of the present invention.

이를 위해, 본 발명의 실시예에 따른 딥러닝 기술을 사용하기 위해 필요한 수화 데이터부(701) 및 데이터 트레이닝부(702)과 함께, 반복되는 트레이닝의 횟수와 비례하는 정확성의 관계도(703)를 나타낸다.For this purpose, a relationship diagram 703 of the accuracy with respect to the number of times of repeated training, together with the hydration data part 701 and the data training part 702 necessary for using the deep learning technique according to the embodiment of the present invention, .

데이터 수집(701)은 상기 데이터베이스부(700)에서 딥러닝에 필요한 자음과 숫자에 대한 자료를 수집하는 기능을 제공한다.The data collection unit 701 provides a function of collecting consonants and numerical data necessary for deep running in the database unit 700.

데이터 트레이닝(702)은 상기 데이터베이스부(700)에서 딥러닝 기술에서 사용할 데이터 비교 기능을 수행하기 위한 트레이닝 기능을 제공한다.The data training 702 provides a training function for performing a data comparison function to be used in the deep learning technique in the database unit 700.

트레이닝 횟수와 정확성 관계도(703)는 수집된 데이터의 트레이닝의 횟수 및 진행된 시간에 따라 정확도의 수치가 증가하는 것을 나타낸다.The relationship between the number of training times and the degree of accuracy (703) indicates that the accuracy value is increased according to the number of times of training of the collected data and the progressed time.

도 6은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 구성을 개략적으로 나타낸 블록도이다.FIG. 6 is a block diagram schematically illustrating the configuration of a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 동작을 결정한다.Referring to FIG. 6, the operation of a wearable device for a hearing impaired person is determined for deep learning-based hydration and voice translation according to an embodiment of the present invention.

이를 위해, 본 발명의 실시예에 따른 딥러닝 기반의 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치는 전원부(72), 영상처리부(74), 광학부(80), 그리고 양방향 수화 및 음성 번역부(90)를 포함한다.To this end, a wearable device for facilitating hydration and speech translation for a hearing-impaired person based on a deep learning according to an embodiment of the present invention includes a power source unit 72, an image processing unit 74, an optical unit 80, And a translation unit 90.

전원부(72)는 상기 딥러닝 기반의 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치의 전력 공급 기능을 제공한다.The power supply unit 72 provides a power supply function of the wearable device for helping the deaf learning-based deaf and hard of hearing person to do hydration and voice translation.

영상처리부(74)는 상기 딥러닝 기반의 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치의 화면에 출력될 내용을 결정하는 기능을 제공한다.The image processing unit 74 provides a function of determining contents to be output on the screen of the wearable device that assists the deaf-mute-based deaf-mute person's hydration and voice translation.

광학부(80)는 상기 딥러닝 기반의 청각 장애인용 수화 및 음성 번역을 도와주는 착용 형 장치를 통해 출력될 화면이 안경 형태로 사용자의 눈에 출력 값이 보이는 기능을 제공한다.The optical unit 80 provides a function of displaying an output value on the eye of the user in the form of a glasses to be output through a wearable device for helping deaf and hard of hearing handicapped and voice translation.

양방향 수화 및 음성 번역부(90)는 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스에서 번역에 사용되는 딥러닝 기술의 활용 및 방법을 나타낸다.The bi-directional sign language and speech translation unit 90 represents an application and a method of a deep learning technique used for translation in a wearable device for the hearing impaired for the deep learning-based sign language and voice translation.

도 7은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스를 포함하는 전체 구성도이다.FIG. 7 is an overall configuration diagram including a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스가 마이크, 스피커 및 카메라라는 입출력 인터페이스를 이용하고, 양방향 수화 및 음성 번역부(30)의 경우 딥러닝 기술을 이용한다.7, a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention uses an input / output interface such as a microphone, a speaker, and a camera, a bidirectional hydration and voice translator 30, Use deep-learning technology.

이를 위해, 본 발명의 실시예에 따른 입출력 인터페이스는 음성 입출력부(22) 및 수화 인식부(24)를 포함한다.To this end, the input / output interface according to the embodiment of the present invention includes a voice input / output unit 22 and a sign language recognition unit 24.

음성 입출력부(22)는 마이크를 통해 일반인의 음성을 입력 값으로 받고, 스피커를 통해 청각 장애인의 수화를 음성을 번역한다.The voice input / output unit 22 receives the voice of a general person as an input value through a microphone, and translates the voice of a deaf person through the speaker.

수화 인식부(24)는 카메라를 통해 청각 장애인의 수화 데이터를 촬영하고 이를 새로운 데이터로 인식한다.The sign language recognition unit 24 takes the sign language data of the hearing impaired person through the camera and recognizes the sign language data as new data.

도 8은 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 부위 별 구성을 나타내는 블록도이다.FIG. 8 is a block diagram showing a structure of a wearable device for a hearing impaired person for deep-learning-based hydration and voice translation according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스가 갖는 안경 형태에 실제 배치될 각각의 구성부를 나타낸다.Referring to FIG. 8, each component to be actually placed in the form of glasses of a wearable device for the hearing impaired for deaf learning-based hydration and voice translation according to an embodiment of the present invention is shown.

이를 위해, 본 발명의 실시예에 따른 각각의 구성부는 사용자 입장에서 상기 웨어러블 디바이스의 우측에 위치할 전원부(101), 제어부(102), 영상처리부(103), 광학부(204) 그리고 카메라(109)를 포함하고, 상기 웨어러블 디바이스의 좌측에 위치할 음성 입출력부를 포함한다.Each component according to the embodiment of the present invention includes a power source unit 101, a control unit 102, an image processing unit 103, an optical unit 204, and a camera 109 And a voice input / output unit to be located on the left side of the wearable device.

도 9는 본 발명의 실시예에 따른 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 프리즘 화면에 출력될 GUI 모습을 나타낸 블록도이다.FIG. 9 is a block diagram showing a GUI to be output on a prism screen of a wearable device for a hearing impaired person for a deep learning-based hydration and voice translation according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시예에 따른 출력될 GUI 화면은 일반인이 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 사용자에게 하고 싶은 말을 출력시켜주는 화면과 반대로, 사용자가 수화를 통해 일반인에게 하고 싶은 말을 보여주는 화면, 이때 사용자가 하고 싶은 말의 일부를 통해 그동안 사용자가 주로 말했던 사례를 통해 전체 내용을 자동완성 시키는 화면을 보여주는 기능을 제공한다.9, a GUI screen to be output according to an embodiment of the present invention is displayed on a display screen of a wearable device for a hearing impaired person for the deep learning-based sign language and voice translation, The user provides a function of displaying a screen showing the words that the user wants to say through sign language, and a screen showing the entire contents to be automatically completed through the case that the user has mainly said through some of the words that the user wants to say.

이를 위해, 본 발명의 실시예에 따른 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 GUI 화면은 일반인 음성 출력부(51), 사용자 수화 입력부(52), RNN방식 선택부(53), 자동완성 사례부(60), 현재 장치 상태부(54)를 포함한다.To this end, the GUI screen of the wearable device for the hearing impaired user for the deep learning-based hydration and voice translation according to the embodiment of the present invention includes a general voice output unit 51, a user hydration input unit 52, an RNN scheme selection unit 53, an autocomplete case unit 60, and a current device state unit 54.

일반인 음성 출력부(51)는 마이크를 통해 받아들인 일반인 음성 입력 값을 출력하여 사용자가 볼 수 있도록 하는 기능을 수행한다.The general voice output unit 51 outputs a general voice input value received via a microphone and performs a function of allowing the user to view the voice input value.

사용자 수화 입력부(52)는 카메라를 통해 인식한 수화의 내용을 텍스트로 변환하고 이를 사용자가 볼 수 있도록 GUI 화면에 보여주는 기능을 수행한다.The user sign language input unit 52 converts the content of sign language recognized through the camera into text and displays the text on a GUI screen so that the user can view the sign language.

RNN방식 선택부(53)는 사용자가 수화를 통해 하려는 말을 모두 하지 않더라도 글자의 자동완성 기능을 통해 완성된 글을 보여주는 기능을 수행한다.The RNN scheme selection unit 53 performs a function of displaying a completed text through an automatic completion function of a character even if the user does not say everything he wants to say through sign language.

자동완성 사례부(60)는 딥러닝 기술 중 RNN 방식을 사용해 평소 사용자가 자주하는 단어 혹은 말을 GUI 화면에 출력해 사용자가 이를 선택할 수 있도록 하는 기능을 수행한다.The automatic completion case unit 60 performs a function of outputting words or words frequently used by the user on the GUI screen by using the RNN method among the deep learning techniques so that the user can select them.

현재 장치 상태부(54)는 GUI 화면을 통해 현재 상기 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 상태가 현재 정상적으로 잘 작동하고 있는지 보여주는 상태 표시 기능을 수행한다.The device status unit 54 performs a status display function showing whether the wearable device for a hearing impaired person is currently operating normally, for the dehydration-based hydration and voice translation through the GUI screen.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

30 : 양방향 수화 및 음성 번역부 31 : 수화-음성 출력부
32 : 음성-텍스트 출력부 33 : 데이터베이스부
20 : 청각 장애인용 웨어러블 디바이스
22 : 음성 입출력부 24 : 수화 인식부
11 : 일반인의 음성 마이크를 통한 입력 과정 및 청각 장애인의 수화가 음성으로 출력되는 과정
12 : 일반인의 음성 텍스트를 통한 출력 과정 및 청각 장애인의 수화 입력 과정
30: bi-directional sign language and speech translation unit 31: sign language-voice output unit
32: voice-text output unit 33: database unit
20: Wearable device for the hearing impaired
22: voice input / output unit 24: sign language recognition unit
11: The process of inputting through the voice microphone of the general public and outputting the sign language of the hearing impaired person as voice
12: Process of outputting through speech text of general public and sign language input process of deaf person

Claims (10)

사용자가 GUI(Graphic User Interface)를 사용하기 위해 필요한 기본적 하드웨어 역할을 수행하는 광학부
를 포함하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스.
An optical unit which plays a role of a basic hardware necessary for a user to use a GUI (Graphic User Interface)
A wearable device for the hearing impaired for deep-learning-based hydration and speech translation.
제 1항에 있어서,
상기 광학부는,
디스플레이 화면의 밝기를 사용자에 맞게 조절해주는 LED 스위치 부;
LED 빛을 통해 GUI 화면이 출력될 디스플레이 부; 및
출력된 디스플레이의 내용을 확대 및 굴절 시킬 볼록렌즈 및 프리즘 부
를 포함하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스.
The method according to claim 1,
The optical unit includes:
An LED switch unit for adjusting a brightness of a display screen according to a user;
A display unit for displaying a GUI screen through LED light; And
A convex lens and a prism portion for enlarging and refracting the contents of the outputted display
A wearable device for the hearing impaired for deep-learning-based hydration and speech translation.
카메라를 통해 감지되는 수화를 인식하여 상기 수화에 대응하는 음성을 출력하는 수화-음성 출력부;
마이크를 통해 외부에서 발생되는 일반인의 음성을 인식하여 상기 음성에 대응하는 텍스트를 출력하는 음성-텍스트 출력부; 및
수화번역에 필요한 수화 데이터의 수집과 수집한 데이터를 딥러닝 기술을 통해 반복 학습을 진행하는 데이터베이스부
를 포함하는 양방향 수화 및 음성부.
A hydration-audio output unit for recognizing the hydration sensed by the camera and outputting a sound corresponding to the hydration;
A voice-text output unit for recognizing a voice of a general person generated from outside through a microphone and outputting a text corresponding to the voice; And
A database portion for collecting sign language data necessary for sign language translation and for repeating the collected data through a deep learning technique
Lt; RTI ID = 0.0 > a < / RTI >
제 3항에 있어서,
수화-음성 출력부는,
상기 카메라를 통해 감지되는 수화를 인식하는 수화 인식부;
상기 인식된 수화에 대응하는 텍스트로 변환하기 위한 텍스트 변환부; 및
상기 생성된 텍스트에 기초하여 수화에 대응하는 음성을 출력하는 음성 출력부
를 포함하는 양방향 수화 및 음성 번역부.
The method of claim 3,
The sign language-
A sign language recognition unit for recognizing sign language sensed through the camera;
A text conversion unit for converting the text into text corresponding to the recognized sign language; And
A voice output unit for outputting voice corresponding to sign language based on the generated text,
And a bi-directional sign language and speech translation unit.
제 4항에 있어서,
상기 텍스트 변환부는,
사용자의 수화를 텍스트로 변환한 뒤 텍스트의 내용을 딥러닝 기술 중 RNN 방식을 사용해서 청각장애인의 하고 싶은 말을 자동 완성시켜주는 기능
을 포함하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스.
5. The method of claim 4,
Wherein the text conversion unit comprises:
It converts the sign language of the user into text and then uses the RNN method of deep learning technology to automatically complete the words of the hearing impaired.
A wearable device for the hearing impaired for deep-learning-based hydration and speech translation.
제 3항에 있어서,
상기 음성-텍스트 출력부는,
상기 마이크를 통해 음성을 인식하는 음성입력부;
인식된 음성과 일치하는 텍스트를 생성 및 변환하는 텍스트 변환부; 및
텍스트를 디스플레이에 출력하는 텍스트 출력부
를 포함하는 양방향 수화 및 음성 번역부.
The method of claim 3,
The voice-text output unit includes:
A voice input unit for recognizing voice through the microphone;
A text conversion unit for generating and converting a text corresponding to the recognized voice; And
A text output unit for outputting text to a display
And a bi-directional sign language and speech translation unit.
제 3항에 있어서,
상기 데이터베이스부는,
상기 사용자 및 기타 사용자의 수화 데이터를 수집하는 수화 데이터부;
상기 수집된 데이터를 딥러닝 기술로 반복 학습하여 새롭게 들어올 데이터와 출력될 텍스트의 정확도를 높여주는 데이터 트레이닝부
를 포함하는 양방향 수화 및 음성 번역부.
The method of claim 3,
The database unit,
A sign language data part for collecting sign language data of the user and other users;
A data training unit for repeatedly learning the collected data by a deep learning technique to increase the accuracy of new incoming data and text to be output,
And a bi-directional sign language and speech translation unit.
제 7항에 있어서,
상기 데이터베이스부는,
상기 데이터 트레이닝부에서 진행되는 데이터의 반복 학습의 횟수와 비례해서 수화 및 텍스트의 일대일 대응 정확성이 증가하는 관계도
를 포함하는 양방향 수화 및 음성 번역부.
8. The method of claim 7,
The database unit,
A relationship in which the accuracy of sign language and one-to-one correspondence of text increases in proportion to the number of times of repeated learning of the data in the data training section
And a bi-directional sign language and speech translation unit.
딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스의 전력을 공급하는 전원부; 및
카메라를 통해 인식되는 수화 및 디스플레이의 GUI 인터페이스 속 영상 내용을 처리하는 영상처리부
를 포함하는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스.
A power supply unit for supplying power to a wearable device for the hearing impaired for deep-learning-based hydration and voice translation; And
An image processing unit for processing sign language images recognized through a camera and image contents in a GUI interface of a display
A wearable device for the hearing impaired for deep-learning-based hydration and speech translation.
제 9항에 있어서,
상기 디스플레이의 GUI에는,
상대방이 하려는 말을 띄워주는 음성-텍스트 출력부;
사용자가 하려는 말을 띄워주는 수화-음성 출력부; 및
사용자가 하려던 말 중 사용자가 선택한 일부의 자음을 통해 사용자가 많이 사용한 단어를 토대로 텍스트를 추천해주는 자동완성 사례
를 포함하고 있는 딥러닝 기반의 수화 및 음성 번역을 위한 청각 장애인용 웨어러블 디바이스.
10. The method of claim 9,
In the GUI of the display,
A voice-text output unit for outputting words to be spoken by the other party;
A sign language voice output unit for allowing the user to say a word; And
Autocomplete case that suggests text based on user's most used words through some consonants that user selected
A wearable device for the hearing impaired for deaf learning-based sign language and voice translation.
KR1020170170055A 2017-12-12 2017-12-12 A wearable device for the hearing impaired for deep learning-based sign language and voice translation KR20190069786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170170055A KR20190069786A (en) 2017-12-12 2017-12-12 A wearable device for the hearing impaired for deep learning-based sign language and voice translation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170170055A KR20190069786A (en) 2017-12-12 2017-12-12 A wearable device for the hearing impaired for deep learning-based sign language and voice translation

Publications (1)

Publication Number Publication Date
KR20190069786A true KR20190069786A (en) 2019-06-20

Family

ID=67103827

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170170055A KR20190069786A (en) 2017-12-12 2017-12-12 A wearable device for the hearing impaired for deep learning-based sign language and voice translation

Country Status (1)

Country Link
KR (1) KR20190069786A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115551B1 (en) * 2019-08-06 2020-05-26 전자부품연구원 Sign language translation apparatus using gloss and translation model learning apparatus
KR102174922B1 (en) * 2019-08-06 2020-11-05 한국전자기술연구원 Interactive sign language-voice translation apparatus and voice-sign language translation apparatus reflecting user emotion and intention
KR20210079162A (en) 2019-12-19 2021-06-29 이우준 System sign for providing language translation service for the hearing impaired person
CN114267224A (en) * 2022-01-04 2022-04-01 中国科学技术大学 Glasses for deaf
KR20220110884A (en) 2021-02-01 2022-08-09 경상국립대학교산학협력단 Sound Visualization Device using Deep Learning and Its Control Method
KR20230109000A (en) 2022-01-12 2023-07-19 동의대학교 산학협력단 Smart Glass System for the Hearing Impaired and Method for controlling the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140118003A (en) 2013-03-27 2014-10-08 삼성디스플레이 주식회사 Flexible substrate and flexible display device including this
KR20160015723A (en) 2014-07-31 2016-02-15 성균관대학교산학협력단 Electron carrier for solar cell and method of fabricating thereof
KR20170084356A (en) 2014-03-18 2017-07-19 호야 가부시키가이샤 Mask blank, phase shift mask and method for manufacturing semiconductor device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140118003A (en) 2013-03-27 2014-10-08 삼성디스플레이 주식회사 Flexible substrate and flexible display device including this
KR20170084356A (en) 2014-03-18 2017-07-19 호야 가부시키가이샤 Mask blank, phase shift mask and method for manufacturing semiconductor device
KR20160015723A (en) 2014-07-31 2016-02-15 성균관대학교산학협력단 Electron carrier for solar cell and method of fabricating thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115551B1 (en) * 2019-08-06 2020-05-26 전자부품연구원 Sign language translation apparatus using gloss and translation model learning apparatus
KR102174922B1 (en) * 2019-08-06 2020-11-05 한국전자기술연구원 Interactive sign language-voice translation apparatus and voice-sign language translation apparatus reflecting user emotion and intention
KR20210079162A (en) 2019-12-19 2021-06-29 이우준 System sign for providing language translation service for the hearing impaired person
KR20220110884A (en) 2021-02-01 2022-08-09 경상국립대학교산학협력단 Sound Visualization Device using Deep Learning and Its Control Method
CN114267224A (en) * 2022-01-04 2022-04-01 中国科学技术大学 Glasses for deaf
KR20230109000A (en) 2022-01-12 2023-07-19 동의대학교 산학협력단 Smart Glass System for the Hearing Impaired and Method for controlling the same

Similar Documents

Publication Publication Date Title
KR20190069786A (en) A wearable device for the hearing impaired for deep learning-based sign language and voice translation
US10747315B2 (en) Communication and control system and method
JP7200195B2 (en) sensory eyewear
EP1083769B1 (en) Speech converting device and method
KR102450803B1 (en) Duplex sign language translation apparatus and the apparatus for performing the duplex sign language translation method
KR20160109708A (en) Sign language translator, system and method
Bernstein et al. For speech perception by humans or machines, three senses are better than one
US20120088211A1 (en) Method And System For Acquisition Of Literacy
Berger et al. Smart google glass solution used as education support tool
JP2016194612A (en) Visual recognition support device and visual recognition support program
Berger et al. Prototype of a smart google glass solution for deaf (and hearing impaired) people
Bourbakis et al. A multimodal interaction scheme between a blind user and the tyflos assistive prototype
Patel et al. Teachable interfaces for individuals with dysarthric speech and severe physical disabilities
KR20210100831A (en) System and method for providing sign language translation service based on artificial intelligence
Hennig Natural user interfaces and accessibility
Martinez et al. Improving tactile codes for increased speech communication rates in a phonemic-based tactile display
Srivastava et al. A smart learning assistance tool for inclusive education
KR102479035B1 (en) System and method for language learning for the deaf
KR20210100832A (en) System and method for providing sign language translation service based on artificial intelligence that judges emotional stats of the user
KR20210032872A (en) Continuous conversation-based developmental disability testing system and method
KR20230079846A (en) Augmented reality smart glass and method for controlling the output of smart glasses
Eksvärd et al. Evaluating Speech-to-Text Systems and AR-glasses: A study to develop a potential assistive device for people with hearing impairments
Massaro et al. Optimizing visual feature perception for an automatic wearable speech supplement in face-to-face communication and classroom situations
KR20230046511A (en) Wearable device for recognition object using hand or finger tracking
Susitra et al. Various Technologies on Object Detecton and Natural Language Processing for Visually Impaired People