KR102309505B1 - User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof - Google Patents
User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof Download PDFInfo
- Publication number
- KR102309505B1 KR102309505B1 KR1020210019074A KR20210019074A KR102309505B1 KR 102309505 B1 KR102309505 B1 KR 102309505B1 KR 1020210019074 A KR1020210019074 A KR 1020210019074A KR 20210019074 A KR20210019074 A KR 20210019074A KR 102309505 B1 KR102309505 B1 KR 102309505B1
- Authority
- KR
- South Korea
- Prior art keywords
- information data
- voice
- user
- module
- voice information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/04—Devices for conversing with the deaf-blind
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Abstract
Description
본 발명은 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 관한 것이다.The present invention relates to a supplementary and alternative communication device and method customized for each individual using speech recognition and learning of artificial intelligence.
일반적으로, 보완대체 의사소통(Augmentative and alternative communication, AAC)은 선천적 또는 후천적 언어장애를 갖고 있는 장애인들이 원활한 의사소통을 할 수 있도록 도움을 주는 방법으로서, 예컨대, 말, 발성, 제스처, 의사소통 행동, 특정 의사소통 방법이나 도구를 포함하는 개인이 사용할 수 있는 모든 의사소통 방법을 의미한다.In general, augmentative and alternative communication (AAC) is a method that helps disabled people with congenital or acquired language disorders to communicate smoothly, for example, speech, vocalization, gestures, and communication behaviors. , means any communication method available to an individual, including a particular communication method or tool.
예컨대, 심볼(Symbol)이나 그림판 등과 같은 단순기술(No tech) 보완대체 의사소통(AAC)으로부터 스마트폰이나 전용단말기와 같은 고도기술(High tech) 보완대체 의사소통(AAC)에 이르기까지 다양하다.For example, they range from simple technology (no tech) complementary and alternative communication (AAC) such as symbols or paints to high tech supplementary and alternative communication (AAC) such as smartphones or dedicated terminals.
이때, 단순기술 보완대체 의사소통(AAC)의 경우 가격이 매우 저렴하나 다양하고 복잡한 의사소통에 큰 한계가 있는 반면, 고도기술 보완대체 의사소통(AAC)은 비교적 구체적이고 신속한 의사소통이 가능하게 해주지만 비용적인 측면에서 부담이 되는 것이 현실이다.At this time, in the case of simple technology complementary and alternative communication (AAC), although the price is very low, there is a big limit to various and complex communication, whereas high technology supplemental and alternative communication (AAC) makes relatively specific and rapid communication possible. However, the reality is that it is a burden in terms of cost.
또한, 장애의 정도에 따라서 사용할 수 있는 보완대체 의사소통(AAC)에 제한이 있을 수 있는데, 아주 심한 뇌성마비 환자나 자폐아의 경우 단순 심볼이나 그림판 정도밖에 사용할 수 없는 반면, 손을 자유롭게 사용할 수 있는 언어장애인은 TTS(Text to speech) 기능이 탑재되어 있는 단말기나 스마트폰을 사용하여 상대방과 의사소통을 할 수 있다.In addition, depending on the degree of disability, there may be restrictions on the complementary and alternative communication (AAC) that can be used. The speech-impaired person can communicate with the other party using a terminal or smartphone equipped with a text to speech (TTS) function.
한편, 언어장애와 사지마비를 동시에 가지고 있는 장애인(예컨대, 뇌성마비 등)은 부정확한 발음으로 인해 본인의 음성으로 상대방과 의사소통 하는데 상당한 어려움이 있으며 동시에 손을 자유롭게 쓰지 못하여 TTS 기능을 사용하더라도 문자 입력하는 시간이 너무 오래 걸려서 신속한 의사소통이 매우 어렵거나 사지마비가 심한 경우는 아예 도구를 사용할 수 없다.On the other hand, people with disabilities (eg, cerebral palsy) who have both speech and quadriplegia have considerable difficulties in communicating with others with their own voice due to inaccurate pronunciation, and at the same time cannot use their hands freely, so even if they use the TTS function, text messages If it takes too long to type, it is very difficult to communicate quickly, or if you have severe quadriplegia, you cannot use the tool at all.
따라서, 이러한 장애인의 의사소통에는 반드시 보호자나 교사 등 의사소통을 도와주는 도우미가 있어야 가능하여 독립적인 생활에 매우 큰 제한이 되는 현실이다.Therefore, the communication of the disabled must be possible only with a helper, such as a guardian or a teacher, to help them communicate, which is a reality that greatly limits their independent life.
이러한 뇌성마비 장애인들의 발음은 일반인들이 알아듣기가 매우 힘들지만 가족이나 교사처럼 오랜 기간 같이 생활하면서 발음을 들어온 사람들은 잘 이해한다. 이는 뇌성마비 장애인들이 발성하는 발음이 어떤 뜻인지를 오랜 시간을 걸쳐 매치하는 반복적인 패턴 학습을 통해서 알게 되는 것이다.The pronunciation of these people with cerebral palsy is very difficult for the general public to understand, but those who have lived with them for a long time, such as family members or teachers, understand well. This is to learn the meaning of the pronunciation of the people with cerebral palsy through repeated pattern learning that matches over a long period of time.
따라서, 발성장애 장애인의 발음과 해당 의미를 매치하여 저장해 두고, 차후에 장애인이 발성할 때 해당 단어를 저장소에서 불러내어 문자 디스플레이나 TTS 기능을 활용하여 스피커로 표현을 할 수 있다면 의사소통 도우미 없이도 신속하고 정확한 의사소통이 가능할 것이다.Therefore, if the pronunciation and meaning of the person with dysphonia are matched and stored, and the word is retrieved from the storage when the person with a dysphonia speaks later, it can be expressed through the speaker using the text display or TTS function, Accurate communication will be possible.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 발성장애와 사지마비가 있는 장애인의 음성을 저장하고 이에 대응하는 뜻을 입력하여 매칭시킨 후, 장애인이 일상에서 그 단어나 문장을 발성하면 음성인식 기능이 인지하여 해당 단어나 문장을 디스플레이 화면에 표시하거나 문자음성 자동변환(Text to Speech, TTS) 기능을 이용해 스피커 등을 통해 정상 언어로 표현하여 빠른 의사소통이 이루어질 수 있도록 한 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법을 제공하는데 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to store the voice of a disabled person with dysphonia and quadriplegia, input the corresponding meaning to match it, and then enable the disabled person to use the word or When a sentence is spoken, the voice recognition function recognizes it and displays the word or sentence on the display screen or uses the Text to Speech (TTS) function to express it in normal language through a speaker, etc. An object of the present invention is to provide a supplementary and alternative communication device and method customized for each individual using the learning of voice recognition and artificial intelligence.
전술한 목적을 달성하기 위하여 본 발명의 제1 측면은, 사용자의 음성정보 데이터를 획득하는 음성획득모듈; 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 표시모듈; 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 저장모듈; 및 기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하고, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하며, 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 제어모듈을 포함하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 제공하는 것이다.In order to achieve the above object, a first aspect of the present invention includes: a voice acquisition module for acquiring voice information data of a user; a display module for displaying at least one text information data on a display screen; a storage module for storing the user's voice information data obtained from the voice acquisition module and text information data corresponding to the database (DB); and controlling the operation of the display module so that at least one text information data is displayed on the display screen through a preset artificial intelligence learning mode, and the user's voice information data corresponding to the text information data displayed on the display screen is displayed a plurality of times. controls the operation of the voice acquisition module so that it is repeatedly acquired with It is to provide a personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, including a control module that controls the consistent user's voice information data to be matched with each other and stored in the storage module.
여기서, 상기 제어모듈은, 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함이 바람직하다.Here, the control module receives the user's voice information data obtained from the voice acquisition module and performs voice recognition on the acquired user's voice information data using a preset voice recognition technique, and the voice recognition is completed After comparing and analyzing the user's voice information data and the consistent user's voice information data stored in the storage module to search for the same consistent voice information data as the voice information data of the user whose voice recognition has been completed, the searched identical consistent voice information It is preferable to control the operation of the display module so that the character information data matched with the data is called and displayed on the display screen.
바람직하게, 음성정보 데이터를 출력하는 음성출력모듈이 더 포함될 수 있다.Preferably, a voice output module for outputting voice information data may be further included.
바람직하게, 상기 제어모듈은, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 상기 음성출력모듈의 동작을 제어할 수 있다.Preferably, the control module calls the text information data matched with the searched identical consistent voice information data, and converts the called text information data through a preset text-to-speech (TTS) technique. The operation of the voice output module may be controlled so that it is converted into voice and output to the outside.
바람직하게, 상기 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용할 수 있다.Preferably, the preset artificial intelligence learning mode is based on at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning. Machine learning methods can be applied.
바람직하게, 사용자의 조작에 의한 특정 입력신호를 출력하는 사용자 입력모듈이 더 포함될 수 있다.Preferably, a user input module for outputting a specific input signal by a user's manipulation may be further included.
바람직하게, 상기 제어모듈은, 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하고, 상기 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 사용자 입력모듈로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 상기 사용자 입력모듈로부터 제공받은 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어할 수 있다.Preferably, the control module controls the operation of the voice acquisition module so that the voice information data of the corresponding user is repeatedly acquired a plurality of times through a preset user voice input mode, and uses the preset voice recognition technique. After confirming whether the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module is consistent, the character information data corresponding to the user's voice information data consistent by a specific input signal output from the user input module is provided, and based on this, the consistent user's voice information data and the text information data provided from the user input module are matched with each other, and it can be controlled to be stored in the storage module.
바람직하게, 상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어할 수 있다.Preferably, the control module compares and analyzes the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module, and fails to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed. In this case, it is possible to control the operation of the display module so that the voice information data of the voice recognition completed and the text information data matched in the order of the highest voice similarity are displayed on the display screen in the form of a list.
바람직하게, 상기 제어모듈은, 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 별도의 음성출력모듈의 동작을 제어할 수 있다.Preferably, the control module selects any one of the text information data from among the text information data matched in the order of the high voice similarity to the voice information data that has been recognized by the user by using a separate user input module, , while controlling the operation of the display module so that the selected text information data is displayed on the display screen, the selected text information data is converted into voice through a preset text-to-speech (TTS) technique It is possible to control the operation of a separate voice output module so that it is output as .
바람직하게, 상기 제어모듈은, 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.Preferably, the control module may control all functions related to supplementary and alternative communication customized for each individual to be performed through the execution of a pre-installed individual customized supplementary and alternative communication related application.
바람직하게, 상기 제어모듈은, 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.Preferably, the control module receives the user's unique identification information for authentication of the corresponding user when the individual customized complementary and alternative communication related application is executed, and compares it with preset user identification information based on this to authenticate the user After completion, it is possible to control all functions related to complementary and alternative communication tailored to each individual to be performed.
바람직하게, 사용자별로 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 외부로 송신하는 통신모듈이 더 포함될 수 있다.Preferably, a communication module for transmitting text information data corresponding to and matching with the user's voice information data obtained from the voice acquisition module for each user to the outside may be further included.
바람직하게, 상기 제어모듈은, 기 설정된 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 또는 서버로 전송되도록 상기 통신모듈의 동작을 제어할 수 있다.Preferably, the control module is configured to match text information data displayed on the display screen together with preset user's unique identification information and consistent user's voice information data corresponding to each other through wired/wireless communication to an external terminal or server It is possible to control the operation of the communication module to be transmitted to.
바람직하게, 상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 해당 각 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리할 수 있다.Preferably, the external terminal or server receives, through the communication module, consistent user's voice information data corresponding to and matched with the text information data displayed on the display screen together with the user's unique identification information, based on this As a result, consistent user voice information data corresponding to and matched with text information data for each user can be stored and managed as a database (DB).
바람직하게, 상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송할 수 있다.Preferably, the control module compares the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module. , the voice information data on which the voice recognition has been completed may be transmitted to an external terminal or server through a separate communication module.
바람직하게, 상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송할 수 있다.Preferably, the external terminal or server receives the voice information data of the voice recognition completed through the communication module, and based on the received voice information data, the same consistent voice information data as the voice information data of the voice recognition completion through a separate voice information DB may be searched for and transmitted to the communication module by calling the text information data matched with the searched identical consistent voice information data.
바람직하게, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어질 수 있다.Preferably, the at least one text information data may be formed of at least one of a word or a sentence.
본 발명의 제2 측면은, 음성획득모듈, 표시모듈, 저장모듈, 및 제어모듈을 포함하는 장치를 이용하여 개인별 맞춤형 보완대체 의사소통하는 방법으로서, (a) 상기 표시모듈을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 단계; (b) 상기 음성획득모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 단계; (c) 상기 제어모듈을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계(b)에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 단계; (d) 상기 제어모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 상기 저장모듈에 저장하는 단계; (e) 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하는 단계; (f) 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하는 단계; 및 (g) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 제공하는 것이다.A second aspect of the present invention is a method for personalized complementary and alternative communication using a device including a voice acquisition module, a display module, a storage module, and a control module, (a) at least one character through the display module displaying information data on a display screen; (b) repeatedly acquiring the user's voice information data corresponding to the text information data displayed in step (a) a plurality of times through the voice acquisition module; (c) checking whether the user's voice information data repeatedly acquired a plurality of times in step (b) is consistent using an artificial intelligence learning mode preset through the control module; (d) matching the text information data displayed in step (a) with the voice information data of the user consistent in step (c) through the control module to correspond to each other and storing in the storage module; (e) performing voice recognition on the user's voice information data obtained from the voice acquisition module using a preset voice recognition technique through the control module; (f) through the control module, the voice information data of the user whose voice recognition is completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed, and the voice recognition is completed in step (e) retrieving the same consistent voice information data as the user's voice information data; and (g) calling text information data matched with the same consistent voice information data retrieved in step (f) through the control module and displaying it on the display screen of the display module. It is to provide a complementary and alternative communication method customized for each individual using the learning of recognition and artificial intelligence.
여기서, 상기 단계(g) 이후에, (h) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함함이 바람직하다.Here, after the step (g), (h) calling the text information data matching the same consistent voice information data searched for in the step (f) through the control module, and automatically converting a preset text-to-speech (Text) to Speech, TTS), after converting the called text information data into voice, outputting the converted voice through a separate voice output module.
바람직하게, 상기 단계(c)에서 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용할 수 있다.Preferably, the artificial intelligence learning mode preset in step (c) is at least one artificial intelligence among a neural network, a support vector machine (SVM), a multi-layer perception (MLP), or deep learning. (AI)-based machine learning methods can be applied.
바람직하게, 상기 단계(a) 이전 또는 상기 단계(d) 이후에, 상기 음성획득모듈을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계; 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계; 상기 제어모듈을 통해 별도의 사용자 입력모듈로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계; 및 상기 제어모듈을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장하는 제4 단계를 더 포함할 수 있다.Preferably, before or after the step (a) or after the step (d), a first step of repeatedly acquiring the user's voice information data through the voice acquisition module a plurality of times; a second step of confirming whether the user's voice information data repeatedly acquired a plurality of times in the first step using a preset voice recognition technique through the control module is consistent; a third step of receiving, through the control module, text information data corresponding to the consistent user's voice information data confirmed in the second step according to a specific input signal output from a separate user input module; and the consistent user's voice information data confirmed in the second step based on the text information data corresponding to the consistent user's voice information data provided in the third step through the control module and the text provided in the third step The method may further include a fourth step of matching information data with each other and storing the information data in the storage module.
바람직하게, 상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 더 포함할 수 있다.Preferably, after the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step ( When it is not possible to search for the same consistent voice information data as the voice information data of the voice recognition completed in e), the text information data that is matched in the order of the highest voice similarity with the voice information data of the voice recognition completed in step (e) is called The method may further include displaying on the display screen of the display module in the form of a list.
바람직하게, 상기 제어모듈을 통해 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 상기 표시모듈의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함할 수 있다.Preferably, through the control module, using a separate user input module, the voice information data that has been recognized by the user in the step (e) and any one character of the character information data matched in the order of the highest voice similarity After selecting information data, the selected text information data is displayed on the display screen of the display module, and at the same time, the selected text information data is converted into voice using a preset text-to-speech (TTS) technique. Then, the method may further include outputting the converted voice through a separate voice output module.
바람직하게, 상기 단계(a) 내지 단계(g)는, 상기 제어모듈의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행할 수 있다.Preferably, the steps (a) to (g) may be performed through the execution of a pre-installed personalized complementary and alternative communication related application under the control of the control module.
바람직하게, 상기 제어모듈을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 별도의 사용자 입력모듈을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계(a) 내지 단계(g)를 수행할 수 있다.Preferably, when the individual customized complementary and alternative communication-related application is executed through the control module, the user-specific identification information preset based on the user-specific identification information for authentication of the corresponding user input through a separate user input module and By comparison, after the authentication of the corresponding user is completed, the steps (a) to (g) may be performed.
바람직하게, 상기 단계(d) 이전 또는 이후에, 상기 제어모듈을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 별도의 통신모듈을 이용하여 외부의 단말 또는 서버로 전송하는 단계를 더 포함할 수 있다.Preferably, before or after the step (d), the text information data displayed in step (a) together with the user's unique identification information preset through the control module and the user's voice information consistent in the step (c) The method may further include matching the data so that they correspond to each other and transmitting the data to an external terminal or server using a separate communication module.
바람직하게, 상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함할 수 있다.Preferably, the user consistent in step (c) corresponding to and matching the character information data displayed in step (a) together with the user's unique identification information transmitted from the communication module through the external terminal or server It may further include the step of storing and managing the consistent user's voice information data corresponding to and matched with text information data for each user based on the voice information data of the database (DB), and storing and managing the same.
바람직하게, 상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 단계를 더 포함할 수 있다.Preferably, after the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step ( When it is not possible to search for the same consistent voice information data as the voice information data for which voice recognition has been completed in e), transmitting the voice information data for which voice recognition has been completed in step (e) to an external terminal or server through a separate communication module may further include.
바람직하게, 상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB를 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 단계를 더 포함할 수 있다.Preferably, based on the voice information data of the voice recognition completed in step (e) transmitted from the communication module through the external terminal or server, the voice information of the voice recognition completed in step (e) through a separate voice information DB The method may further include, after searching for the same consistent voice information data as the data, calling text information data matched with the searched identical consistent voice information data and transmitting the same to the communication module.
바람직하게, 상기 단계(a)에서, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어질 수 있다.Preferably, in the step (a), the at least one text information data may be formed of at least one of a word or a sentence.
본 발명의 제3 측면은, 상술한 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.A third aspect of the present invention provides a computer-readable recording medium in which a program capable of executing a supplementary and alternative communication method customized for each individual using the above-described speech recognition and learning of artificial intelligence is recorded.
본 발명에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은 컴퓨터로 판독할 수 있는 기록매체에 컴퓨터로 판독할 수 있는 코드로 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체에는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The personalized complementary and alternative communication method using voice recognition and artificial intelligence learning according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.
예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피 디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, removable storage device, and non-volatile memory (Flash Memory). , and optical data storage devices.
이상에서 설명한 바와 같은 본 발명의 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 따르면, 발성장애와 사지마비가 있는 장애인의 음성을 저장하고 이에 대응하는 뜻을 입력하여 매칭시킨 후, 장애인이 일상에서 그 단어나 문장을 발성하면 음성인식 기능이 인지하여 해당 단어나 문장을 디스플레이 화면에 표시하거나 문자음성 자동변환(Text to Speech, TTS) 기능을 이용해 스피커 등을 통해 정상 언어로 표현하여 빠른 의사소통이 이루어질 수 있는 이점이 있다.According to the personalized complementary and alternative communication device and method using speech recognition and artificial intelligence learning of the present invention as described above, the voice of the disabled person with dysphonia and quadriplegia is stored and the corresponding meaning is inputted. After matching, when a person with a disability utters the word or sentence in daily life, the speech recognition function recognizes the word or sentence and displays the word or sentence on the display screen, or through a speaker using the Text to Speech (TTS) function. It has the advantage of being able to communicate quickly by expressing it in language.
도 1은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 설명하기 위한 전체적인 블록 구성도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 설명하기 위한 전체적인 흐름도이다.1 is an overall block diagram for explaining a supplementary and alternative communication device customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.
2 and 3 are overall flowcharts for explaining a supplementary and alternative communication method customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .
이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되어지는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.Each block in the accompanying block diagram and combinations of steps in the flowchart may be executed by computer program instructions (execution engine), which computer program instructions may be executed by a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment. It may be mounted so that the instructions, which are executed by the processor of a computer or other programmable data processing equipment, create means for performing the functions described in each block of the block diagram or in each step of the flowchart. These computer program instructions may also be stored in a computer usable or computer readable memory which may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And, since the computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other program It is also possible that instructions for performing the possible data processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical functions, and in some alternative embodiments the blocks or steps referred to in the block or steps. It should be noted that it is also possible for functions to occur out of sequence. For example, it is possible that two blocks or steps shown one after another may be performed substantially simultaneously, and also the blocks or steps may be performed in the reverse order of the corresponding functions, if necessary.
도 1은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 설명하기 위한 전체적인 블록 구성도이다.1 is an overall block diagram for explaining a supplementary and alternative communication device customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 크게 음성획득모듈(100), 표시모듈(200), 저장모듈(300), 제어모듈(400), 및 전원공급모듈(500) 등을 포함하여 이루어진다. 또한, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 음성출력모듈(600), 사용자 입력모듈(700), 및/또는 통신모듈(800) 등을 추가적으로 더 포함할 수도 있다. 한편, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가질 수도 있다.Referring to FIG. 1 , a supplementary and alternative communication device customized for each individual using voice recognition and learning of artificial intelligence according to an embodiment of the present invention is largely a
이하, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치의 구성요소들에 대해 구체적으로 살펴보면 다음과 같다.Hereinafter, the components of the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention will be described in detail as follows.
음성획득모듈(100)은 사용자의 음성정보 데이터를 획득하는 기능을 수행한다. 이러한 음성획득모듈(100)은 통상의 마이크(Microphone)로 구현됨이 바람직하다.The
표시모듈(200)은 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 기능을 수행한다. 여기서, 상기 적어도 하나의 문자 정보데이터는 예컨대, 단어 및/또는 문장 중 적어도 하나로 이루어짐이 바람직하다.The
이러한 표시모듈(200)은 예컨대, 액정 디스플레이(Liquid Crystal Display, LCD), 발광다이오드 디스플레이(Light Emitting Diode, LED), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 플라즈마 디스플레이 패널 (Plasma Display Panel, PDP), 표면 얼터네이트 라이팅(ALiS), 디지털 광원 처리(DLP), 실리콘 액정(LCoS), 표면 전도형 전자방출소자 디스플레이(SED), 전계방출 디스플레이(FED), 레이저 TV(양자 점 레이저, 액정 레이저), 광유전성 액체 디스플레이(FLD), 간섭계 변조기 디스플레이(iMoD), 두꺼운 필름 유전체 전기(TDEL), 양자점 디스플레이(QD-LED), 텔레스코픽 픽셀 디스플레이(TPD), 유기발광 트랜지스터(OLET), 레이저 형광 디스플레이(LPD), 터치스크린(Touch Screen), 및/또는 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있지만, 이에 한정되는 것은 아니고 영상, 문자 또는 문서 데이터 중 적어도 하나의 데이터를 디스플레이(Display)할 수 있는 것이라면, 어떠한 것이라도 포함할 수 있다.The
저장모듈(300)은 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 기능을 수행한다.The
또한, 저장모듈(300)은 예컨대, 기 설정된 사용자 고유식별정보 등을 저장하는 기능을 수행할 수 있다. 여기서, 상기 사용자 고유식별정보는 예컨대, 사용자의 아이디(ID), 패스워드(Password), 사용자의 이름, 주민번호, 전화번호, 주소, 생체특징정보, PKI(Public Key Infrastructure), OTP(One Time Password), 및/또는 공인 인증서 정보 중 적어도 하나의 정보를 포함함이 바람직하다.In addition, the
또한, 저장모듈(300)은 제어모듈(400)을 통해 실행되는 적어도 하나의 프로그램 코드와, 상기 프로그램 코드가 이용하는 적어도 하나의 데이터 셋트를 저장하여 유지하는 기능을 수행할 수도 있다.In addition, the
이러한 저장모듈(300)은 예컨대, 플래시 메모리 타입(Flash Memory type), 하드디스크 타입(Hard Disk type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
제어모듈(400)은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치의 전체적인 제어를 담당하는 모듈로서, 특히 기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행한다.The
또한, 제어모듈(400)은 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 음성획득모듈(100)의 동작을 제어하는 기능을 수행한다.In addition, the
또한, 제어모듈(400)은 음성획득모듈(100)로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장되도록 제어하는 기능을 수행한다.In addition, the
여기서, 상기 기 설정된 인공지능 학습모드는 예컨대, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 및/또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용함이 바람직하다.Here, the preset artificial intelligence learning mode is, for example, at least one of a neural network, a support vector machine (SVM), a multi-layer perception (MLP), and/or deep learning (AI). It is desirable to apply a machine learning-based method.
또한, 제어모듈(400)은 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법(예컨대, 인공지능 기반의 음성인식 기술 등)을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 음성 출력되도록 음성출력모듈(600)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 음성획득모듈(100)의 동작을 제어하고, 기 설정된 음성인식 기법을 이용하여 음성획득모듈(100)로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 사용자 입력모듈(700)로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 사용자 입력모듈(700)로부터 제공받은 문자정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장되도록 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 상기 음성인식 완료된 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 리스트(list) 형태로 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 사용자 입력모듈(700)을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 음성 출력되도록 음성출력모듈(600)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.In addition, the
또한, 제어모듈(400)은 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보(예컨대, 아이디(ID) 및 패스워드(Password) 등)를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.In addition, the
또한, 제어모듈(400)은 기 설정된 사용자의 고유식별정보와 함께 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 및/또는 서버(20)로 전송되도록 통신모듈(800)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the
또한, 제어모듈(400)은 상기 음성인식 완료된 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 통신모듈(800)을 통해 외부의 단말 및/또는 서버(20)로 전송하는 기능을 수행할 수 있다.In addition, the
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어모듈(400)에 의해 구현될 수 있다.According to the hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). , processors, controllers, micro-controllers, microprocessors, and may be implemented using at least one of an electrical unit for performing a function. In some cases, such embodiments may be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 저장모듈(300)에 저장되고, 제어모듈(400)에 의해 실행될 수 있다.According to the software implementation, embodiments such as a procedure or function may be implemented together with a separate software module for performing at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the
그리고, 전원공급모듈(500)은 전술한 각 모듈들 즉, 음성획득모듈(100), 표시모듈(200), 저장모듈(300), 제어모듈(400), 음성출력모듈(600), 사용자 입력모듈(700), 및/또는 통신모듈(800) 등의 동작에 필요한 전원을 공급하는 기능을 수행하는 바, 통상의 휴대용 배터리(Battery)로 구현함이 바람직하지만, 이에 국한하지 않고, 계속적인 전원 공급을 위해 상용 교류(AC) 전원(예컨대, AC 220V 또는 380V 등)을 직류(DC) 및/또는 교류(AC) 전원으로 변환되도록 구현할 수도 있다.In addition, the
또한, 전원공급모듈(500)에는 외부의 전원 충격으로부터 부품을 보호하고 일정한 전압을 출력하는 기능을 수행하는 전원 관리부(미도시)를 포함할 수 있다. 상기 전원 관리부는 ESD(Electro Static Damage) 보호기, 전원 감지기, 정류기 및 전원 차단기 등을 포함하여 이루어질 수 있다.In addition, the
여기서, 상기 ESD 보호기는 정전기 또는 급격한 전원 충격으로부터 전장 부품을 보호하도록 구성한다. 상기 전원 감지기는 허용 전압 범위 외의 전압이 유입될 경우 상기 전원 차단기에 차단신호를 보내고, 허용 전압 범위 내에서 전압 변화에 따라 승압 또는 강압 신호를 상기 정류기에 전달하도록 구성한다. 상기 정류기는 입력 전압의 변동을 최소하여 일정한 전압이 공급되도록 상기 전원 감지기의 신호에 따라 승압 또는 강압의 정류 동작을 수행하도록 구성한다. 상기 전원 차단기는 상기 전원 감지기로부터 전달되는 차단 신호에 따라 배터리로부터 공급되는 전원을 차단하도록 구성한다.Here, the ESD protector is configured to protect electronic components from static electricity or sudden power shock. The power detector is configured to send a cut-off signal to the power breaker when a voltage outside the allowable voltage range is introduced, and to transmit a step-up or step-down signal to the rectifier according to a voltage change within the allowable voltage range. The rectifier is configured to perform a step-up or step-down rectification operation according to the signal of the power sensor so that a constant voltage is supplied by minimizing the fluctuation of the input voltage. The power breaker is configured to cut off the power supplied from the battery according to the cut-off signal transmitted from the power detector.
추가적으로, 음성출력모듈(600)은 음성정보 데이터를 출력하는 모듈로서, 음성정보 데이터를 사람이 청각적으로 인식할 수 있도록 음성신호를 출력하는 기능을 수행한다.Additionally, the
이러한 음성출력모듈(600)은 통상의 스피커(Speaker)로 구현됨이 바람직하지만, 이에 국한하지 않으며, 예컨대, 이어폰 또는 헤드폰을 통해 사람이 청취할 수 있도록 음성 증폭회로를 비롯한 연결 잭 등으로 구현될 수도 있다.Such a
사용자 입력모듈(700)은 사용자의 조작에 의한 특정 입력신호를 출력하는 기능을 수행한다.The
즉, 사용자 입력모듈(700)은 적어도 하나의 키 버튼(Key Button)을 구비하여 특정의 키 입력신호를 출력하는 모듈로서, 다수개의 문자 키, 숫자 키 및 각종 기능 키를 구비하여 사용자가 입력하는 키에 대응하는 키 입력신호를 제어모듈(400)로 출력하는 기능을 수행한다.That is, the
이러한 사용자 입력모듈(700)은 키 버튼으로 구현됨이 바람직하지만, 이에 국한하지 않으며, 예컨대, 키보드(Keyboard), 마우스(Mouse) 등으로 구성될 수도 있으며, 경우에 따라서는 리모콘으로 이루어질 수도 있다.The
통신모듈(800)은 사용자별로 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 통신망(10)을 통해 외부의 단말 및/또는 서버(20)로 송신하는 기능을 수행한다.The
이때, 통신망(10)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 와이파이(WiFi), 와이기그(WiGig), 와이브로(Wireless Broadband Internet, Wibro), 와이맥스(World Interoperability for Microwave Access, Wimax) 등을 포함하는 차세대 무선 통신망일 수 있다.At this time, the
상기 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service) 등을 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미하며, 통신모듈(800)이 외부의 단말 및/또는 서버(20)에 접속될 수 있게 하는 환경을 제공한다. 한편, 상기 인터넷은 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망 일 수도 있다.The Internet includes the TCP/IP protocol and various services existing in its upper layers, namely HTTP (Hyper Text Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), It means a worldwide open computer network structure that provides SNMP (Simple Network Management Protocol), NFS (Network File Service), NIS (Network Information Service), etc., and the
만약, 통신망(10)이 이동 통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 상기 비동기식 이동 통신망의 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 상기 이동 통신망은 예컨대, RNC(Radio Network Controller) 등을 포함할 수 있다. 한편, 상기 WCDMA망을 일 예로 들었지만, 셀룰러(cellular) 기반의 3G망, LTE망, 4G망, 5G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP 망일 수 있다. 이러한 통신망(10)은 통신모듈(800)과 외부의 단말 및/또는 서버(20) 간의 신호 및 데이터를 상호 전달하는 역할을 수행한다.If the
더욱이, 외부의 단말 및/또는 서버(20)는 통신모듈(800)을 통해 해당 각 사용자의 고유식별정보와 함께 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행할 수 있다.Moreover, the external terminal and/or
또한, 외부의 단말 및/또는 서버(200)는 통신모듈(800)을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB(미도시)를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 통신모듈(800)로 전송하는 기능을 수행할 수 있다.In addition, the external terminal and/or the
한편, 외부의 단말 및/또는 서버(20)는 무선 인터넷 또는 휴대 인터넷을 통하여 통신하는 다양한 이동 단말을 포함하고, 이외에도 팜(Palm) PC, 스마트폰(Smart phone), 스마트 패드(Smart Pad), 및 스마트 노트(Smart Note), 모바일 게임기(Mobile play-station), 통신 기능이 있는 DMB(Digital Multimedia Broadcasting)폰, 태블릿 PC, 아이패드(iPad) 등 통신모듈(800)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있다.On the other hand, the external terminal and/or the
특히, 외부의 단말 및/서버(20)가 통상의 스마트폰으로 구현될 경우, 상기 스마트폰은 일반 핸드폰(일명 피처폰(feature phone))과는 달리 사용자가 원하는 다양한 어플리케이션(Application) 프로그램을 다운로드받아 자유롭게 사용하고 삭제가 가능한 오픈 운영체제를 기반으로 한 폰(Phone)으로서, 일반적으로 사용되는 음성/영상통화, 인터넷 데이터통신 등의 기능뿐만 아니라, 모바일 오피스 기능을 갖춘 모든 모바일 폰 또는 음성통화 기능이 없으나 인터넷 접속 가능한 모든 인터넷폰 또는 테블릿(Tablet) PC를 포함하는 통신기기로 이해함이 바람직하다.In particular, when the external terminal and/or
이와 같이 상기 스마트폰은 개방형 운영체계를 사용하므로 폐쇄적인 운영체계를 가진 휴대폰과 달리 사용자가 임의로 다양한 어플리케이션 프로그램을 설치하고 관리할 수 있다.As such, since the smart phone uses an open operating system, a user can install and manage various application programs arbitrarily, unlike a mobile phone having a closed operating system.
한편, 전술한 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 예컨대, 스마트폰(Smart phone), 스마트 패드(Smart Pad), 및/또는 스마트 노트(Smart Note) 중 적어도 하나의 이동 통신 단말로 구현될 수 있으며, 이에 국한하지 않으며, 모바일 게임기(Mobile play-station), 태블릿 PC, 아이패드(iPad) 등 유/무선 통신 기능을 갖는 모든 유/무선 가전/통신 장치로 구현될 수도 있다.On the other hand, the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention described above, for example, a smart phone (Smart phone), a smart pad (Smart Pad), and / or smart It may be implemented as at least one mobile communication terminal among smart notes, but is not limited thereto, and all wired/wireless communication functions such as mobile play-stations, tablet PCs, and iPads It may be implemented as /wireless home appliance/communication device.
이하에는 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 구체적으로 설명하기로 한다.Hereinafter, a personalized complementary and alternative communication method using speech recognition and artificial intelligence learning according to an embodiment of the present invention will be described in detail.
도 2 및 도 3은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 설명하기 위한 전체적인 흐름도이다.2 and 3 are overall flowcharts for explaining a supplementary and alternative communication method customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은, 별다른 설명이 없는 한 제어모듈(400)이 주체가 되어 수행된다.1 to 3, the
먼저, 표시모듈(200)을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시한다(S100). 이때, 상기 적어도 하나의 문자 정보데이터는 예컨대, 단어 및/또는 문장 중 적어도 하나로 이루어짐이 바람직하다.First, at least one text information data is displayed on the display screen through the display module 200 (S100). In this case, it is preferable that the at least one text information data includes, for example, at least one of a word and/or a sentence.
이후에, 음성획득모듈(100)을 통해 상기 단계S100에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득한다(S200).Thereafter, the user's voice information data corresponding to the text information data displayed in step S100 is repeatedly acquired a plurality of times through the voice acquisition module 100 (S200).
그런 다음, 제어모듈(400)을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계S200에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한다(S300).Then, it is checked whether the user's voice information data repeatedly acquired a plurality of times in step S200 is consistent by using a preset artificial intelligence learning mode through the control module 400 (S300).
이때, 상기 단계S300에서 기 설정된 인공지능 학습모드는 예컨대, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 및/또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용함이 바람직하다.In this case, the artificial intelligence learning mode preset in step S300 is, for example, at least one artificial intelligence of a neural network, a support vector machine (SVM), a multi layer perception (MLP), and/or deep learning. It is desirable to apply an (AI)-based machine learning method.
다음으로, 제어모듈(400)을 통해 상기 단계S100에서 표시된 문자정보 데이터와 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 저장모듈(300)에 저장한다(S400).Next, through the
이후에, 제어모듈(400)을 통해 기 설정된 음성인식 기법을 이용하여 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행한다(S500).Thereafter, voice recognition is performed on the user's voice information data obtained from the
그럼 다음, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한다(S600).Then, through the
다음으로, 제어모듈(400)을 통해 상기 단계S600에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여, 표시모듈(200)의 디스플레이 화면에 표시한다(S700).Next, the
추가적으로, 상기 단계S700 이후에, 제어모듈(400)을 통해 상기 단계S600에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 음성출력모듈(600)을 통해 출력한다(S800).Additionally, after the step S700, the
더욱이, 도면에 도시되진 않았지만, 상기 단계S100 이전 및/또는 상기 단계S400 이후에, 음성획득모듈(100)을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계와, 제어모듈(400)을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계와, 제어모듈(400)을 통해 사용자 입력모듈(700)로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계와, 제어모듈(400)을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장하는 제4 단계를 더 포함할 수 있다.Furthermore, although not shown in the drawings, a first step of repeatedly acquiring the user's voice information data a plurality of times through the
또한, 도면에 도시되진 않았지만, 상기 단계S600 이후에, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 리스트(list) 형태로 표시모듈(200)의 디스플레이 화면에 표시하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, after the step S600, the voice information data of the voice recognition completed in the step S500 and the consistent user's voice information data stored in the step S400 are compared and analyzed through the
또한, 도면에 도시되진 않았지만, 제어모듈(400)을 통해 사용자 입력모듈(700)을 이용하여 해당 사용자에 의해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 표시모듈(200)의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 음성출력모듈(600)을 통해 출력하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the text information that is matched in the order of the highest voice similarity with the voice information data whose voice recognition is completed in step S500 by the corresponding user using the
한편, 상기 단계S100 내지 단계S800을 비롯하여 추가적으로 수행되는 단계들은 제어모듈(400)의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행함이 바람직하다.On the other hand, the additionally performed steps including the steps S100 to S800 are preferably performed through the execution of a pre-installed personalized supplementary and alternative communication-related application according to the control of the
또한, 제어모듈(400)을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 사용자 입력모듈(700)을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계S100 내지 단계S800을 비롯하여 추가적으로 수행되는 단계들을 수행할 수 있다.In addition, when the individual customized complementary and alternative communication related application is executed through the
또한, 도면에 도시되진 않았지만, 상기 단계S400 이전 및/또는 이후에, 제어모듈(400)을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계S100에서 표시된 문자정보 데이터와 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 통신모듈(800)을 이용하여 외부의 단말 및/또는 서버(20)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the character information data displayed in step S100 together with the user's unique identification information preset through the
또한, 도면에 도시되진 않았지만, 외부의 단말 및/또는 서버(20)를 통해 통신모듈(800)로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계S100에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the text information data displayed in step S100 is matched and matched with the user's unique identification information transmitted from the
또한, 도면에 도시되진 않았지만, 상기 단계S600 이후에, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계S500에서 음성인식 완료된 음성정보 데이터를 통신모듈(800)을 통해 외부의 단말 및/또는 서버(20)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, after the step S600, the voice information data of the voice recognition completed in the step S500 and the consistent user's voice information data stored in the step S400 are compared and analyzed through the
또한, 도면에 도시되진 않았지만, 외부의 단말 및/또는 서버(20)를 통해 통신모듈(800)로부터 전송된 상기 단계S500에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB(미도시)를 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 상기 음성정보 DB에서 호출하여 통신모듈(800)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, a separate voice information DB (not shown) based on the voice information data of which voice recognition is completed in step S500 transmitted from the
한편, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.On the other hand, the personalized complementary and alternative communication method using speech recognition and artificial intelligence learning according to an embodiment of the present invention can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.
예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, removable storage device, and non-volatile memory (Flash Memory). , and optical data storage devices.
또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed in a computer system connected through a computer communication network, and stored and executed as readable code in a distributed manner.
전술한 본 발명에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the above-described preferred embodiment of the personalized complementary and alternative communication device and method using voice recognition and artificial intelligence learning according to the present invention has been described, the present invention is not limited thereto, and the claims and detailed description of the invention It is possible to carry out various modifications within the scope of the description and the accompanying drawings, and this also belongs to the present invention.
100 : 음성획득모듈,
200 : 표시모듈,
300 : 저장모듈,
400 : 제어모듈,
500 : 전원공급모듈,
600 : 음성출력모듈,
700 : 사용자 입력모듈,
800 : 통신모듈100: voice acquisition module,
200: display module,
300: storage module,
400: control module,
500: power supply module,
600: voice output module,
700: user input module,
800: communication module
Claims (27)
적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 표시모듈;
상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 저장모듈; 및
기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하고, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하며, 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 제어모듈이 포함되되,
상기 제어모듈은, 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하며, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
a voice acquisition module for acquiring the user's voice information data;
a display module for displaying at least one text information data on a display screen;
a storage module for storing the user's voice information data obtained from the voice acquisition module and text information data corresponding to the database (DB); and
The operation of the display module is controlled so that at least one text information data is displayed on the display screen through a preset artificial intelligence learning mode, and the user's voice information data corresponding to the text information data displayed on the display screen is displayed a plurality of times. Controls the operation of the voice acquisition module to be repeatedly acquired, and after confirming whether the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module is consistent with the text information data displayed on the display screen A control module for controlling consistent user voice information data to be matched with each other and stored in the storage module is included,
The control module receives the user's voice information data obtained from the voice acquisition module and performs voice recognition on the acquired user's voice information data using a preset voice recognition technique, After comparing and analyzing the voice information data and the consistent user's voice information data stored in the storage module to search for the same consistent voice information data as the voice information data of the user who has completed the voice recognition, the same consistent voice information data and Controls the operation of the display module so that the matching text information data is called and displayed on the display screen, and the voice recognition is performed by comparing the voice information data of the voice recognition completed with the consistent voice information data of the user stored in the storage module. Learning of voice recognition and artificial intelligence, characterized in that when the same consistent voice information data as the completed voice information data is not retrieved, the voice recognition completed voice information data is transmitted to an external terminal or server through a separate communication module Personalized complementary and alternative communication device using
음성정보 데이터를 출력하는 음성출력모듈이 더 포함되되,
상기 제어모듈은, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 상기 음성출력모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A voice output module for outputting voice information data is further included,
The control module calls the text information data matched with the searched identical and consistent voice information data, and converts the called text information data into voice through a preset text-to-speech (TTS) technique. to control the operation of the voice output module so that it is output to the outside.
상기 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The preset artificial intelligence learning mode is an artificial intelligence (AI)-based machine learning method of at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning. Personalized complementary and alternative communication device using speech recognition and artificial intelligence learning, characterized in that it applies.
사용자의 조작에 의한 특정 입력신호를 출력하는 사용자 입력모듈이 더 포함되되,
상기 제어모듈은, 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하고, 상기 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 사용자 입력모듈로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 상기 사용자 입력모듈로부터 제공받은 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A user input module for outputting a specific input signal by a user's operation is further included,
The control module controls the operation of the voice acquisition module so that the voice information data of the corresponding user is repeatedly acquired a plurality of times through a preset user voice input mode, and the voice is acquired using the preset voice recognition technique After confirming whether the user's voice information data repeatedly acquired a plurality of times from the module is consistent, the user's voice information data and text information data corresponding to the consistent user's voice information data are provided by a specific input signal output from the user input module. Based on this, the consistent user's voice information data and the text information data provided from the user input module are matched with each other and are controlled to be stored in the storage module. Personalized supplementation using voice recognition and artificial intelligence learning Alternative communication devices.
상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The control module compares and analyzes the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module, and when it fails to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed, the Speech recognition and artificial intelligence, characterized in that the operation of the display module is controlled to be displayed on the display screen in the form of a list by calling the text information data matched in the order of high voice similarity with the voice information data of which voice recognition has been completed. Personalized complementary and alternative communication device using intelligence learning.
상기 제어모듈은, 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 별도의 음성출력모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
6. The method of claim 5,
The control module, by using a separate user input module, selects any one of the text information data from among the text information data matched in the order of the highest voice similarity to the voice information data that has been recognized by the user by the corresponding user, The operation of the display module is controlled so that the text information data is displayed on the display screen, and at the same time, the selected text information data is converted into voice through a preset text-to-speech (TTS) technique and output to the outside. An individual-customized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls the operation of a separate voice output module.
상기 제어모듈은, 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The control module, through the execution of a pre-installed individual customized supplementary and alternative communication-related application, to control so that all functions related to individual customized supplementary and alternative communication are performed. communication device.
상기 제어모듈은, 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
8. The method of claim 7,
The control module receives the user's unique identification information for authentication of the corresponding user when executing the personalized complementary and alternative communication-related application, and compares it with preset user identification information based on the user's unique identification information after the user's authentication is completed. A personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls all functions related to customized complementary and alternative communication to be performed.
사용자별로 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 외부로 송신하는 통신모듈이 더 포함되되,
상기 제어모듈은, 기 설정된 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 또는 서버로 전송되도록 상기 통신모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A communication module for transmitting text information data corresponding to and matching with the user's voice information data obtained from the voice acquisition module for each user to the outside is further included,
The control module is configured to match the user's voice information data corresponding to the text information data displayed on the display screen together with the preset user's unique identification information with each other and transmit it to an external terminal or server through wired/wireless communication. An individual-customized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls the operation of the communication module.
상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 해당 각 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
10. The method of claim 9,
The external terminal or server receives, through the communication module, consistent user's voice information data corresponding to and matched with the text information data displayed on the display screen together with the unique identification information of each user, and based on this, each user Personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it stores and manages the consistent user's voice information data corresponding to and matched with text information data into a database (DB).
상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The external terminal or server receives the voice information data through the communication module and searches for the same consistent voice information data as the voice information data through a separate voice information DB based on the received voice information data. , A personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that the searched text information data matched with the same consistent voice information data is called and transmitted to the communication module.
상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어진 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The at least one text information data is a personalized complementary and alternative communication device using speech recognition and artificial intelligence learning, characterized in that it consists of at least one of a word or a sentence.
(a) 상기 표시모듈을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 단계;
(b) 상기 음성획득모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 단계;
(c) 상기 제어모듈을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계(b)에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 단계;
(d) 상기 제어모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 상기 저장모듈에 저장하는 단계;
(e) 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하는 단계;
(f) 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하는 단계; 및
(g) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 포함하되,
상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
A method for personalized complementary and alternative communication using a device including a voice acquisition module, a display module, a storage module, and a control module, the method comprising:
(a) displaying at least one text information data on a display screen through the display module;
(b) repeatedly acquiring the user's voice information data corresponding to the text information data displayed in step (a) a plurality of times through the voice acquisition module;
(c) checking whether the user's voice information data repeatedly acquired a plurality of times in step (b) is consistent by using a preset artificial intelligence learning mode through the control module;
(d) matching the text information data displayed in step (a) with the voice information data of the user consistent in step (c) through the control module to correspond to each other and storing the same in the storage module;
(e) performing voice recognition on the user's voice information data obtained from the voice acquisition module using a preset voice recognition technique through the control module;
(f) through the control module, the voice information data of the user whose voice recognition has been completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed, and the voice recognition is completed in step (e) retrieving the same consistent voice information data as the user's voice information data; and
(g) calling the text information data matched with the same consistent voice information data retrieved in step (f) through the control module and displaying it on the display screen of the display module,
After the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step (e). When it is not possible to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed, the method further includes the step of transmitting the voice information data of the voice recognition completed in step (e) to an external terminal or server through a separate communication module. Personalized complementary and alternative communication method using speech recognition and artificial intelligence learning, characterized in that
상기 단계(g) 이후에,
(h) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
After step (g),
(h) calling the text information data matched with the same consistent voice information data retrieved in step (f) through the control module, and using a preset text-to-speech (TTS) technique After converting the called text information data into a voice, the converted voice is output through a separate voice output module. Personalized complementary and alternative communication using voice recognition and artificial intelligence learning, characterized in that it further comprises Way.
상기 단계(c)에서 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
The artificial intelligence learning mode preset in step (c) is at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning (AI) A personalized complementary and alternative communication method using speech recognition and artificial intelligence learning, characterized by applying a machine learning method based on it.
상기 단계(a) 이전 또는 상기 단계(d) 이후에,
상기 음성획득모듈을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계;
상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계;
상기 제어모듈을 통해 별도의 사용자 입력모듈로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계; 및
상기 제어모듈을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장하는 제4 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
Before step (a) or after step (d),
a first step of repeatedly acquiring the user's voice information data a plurality of times through the voice acquisition module;
a second step of checking whether the user's voice information data repeatedly acquired a plurality of times in the first step using a preset voice recognition technique through the control module is consistent;
a third step of receiving, through the control module, text information data corresponding to the consistent user's voice information data confirmed in the second step according to a specific input signal output from a separate user input module; and
On the basis of the text information data corresponding to the consistent user's voice information data provided in the third step through the control module, the consistent user's voice information data confirmed in the second step and the text information provided in the third step Personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence, characterized in that it further comprises a fourth step of matching data with each other and storing the data in the storage module.
상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
After the step (f), the voice information data of the voice recognition completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step (e). When it is not possible to search for the same consistent voice information data as the voice information data of the voice recognition completed, in the step (e), the text information data matched with the voice information data of the voice recognition completed and the voice information data in the order of high voice similarity are called and listed. ) in the form of displaying on the display screen of the display module, personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence.
상기 제어모듈을 통해 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 상기 표시모듈의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
19. The method of claim 18,
Using a separate user input module through the control module, any one of the text information data matched with the voice information data that has been voice recognized in step (e) in the order of high voice similarity by the corresponding user After selection, the selected text information data is displayed on the display screen of the display module and, at the same time, the selected text information data is converted into voice using a preset text-to-speech (TTS) technique, and the Personalized complementary and alternative communication method using speech recognition and learning of artificial intelligence, characterized in that it further comprises the step of outputting the converted voice through a separate voice output module.
상기 단계(a) 내지 단계(g)는, 상기 제어모듈의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
The steps (a) to (g) are individually customized using voice recognition and artificial intelligence learning, characterized in that it is performed through the execution of a pre-installed personalized supplementary and alternative communication related application according to the control of the control module. Complementary and Alternative Communication Methods.
상기 제어모듈을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 별도의 사용자 입력모듈을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계(a) 내지 단계(g)를 수행하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
21. The method of claim 20,
When the individual customized complementary and alternative communication-related application is executed through the control module, the corresponding user-specific identification information is compared with preset user-specific identification information for authentication of the user input through a separate user input module. A personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence, characterized in that the steps (a) to (g) are performed after the user's authentication is completed.
상기 단계(d) 이전 또는 이후에, 상기 제어모듈을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 별도의 통신모듈을 이용하여 외부의 단말 또는 서버로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
Before or after step (d), the text information data displayed in step (a) together with the user's unique identification information preset through the control module and the consistent user's voice information data in step (c) correspond to each other Matching each other as much as possible and transmitting it to an external terminal or server using a separate communication module.
상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
23. The method of claim 22,
Consistent user's voice information in step (c) corresponding to and matching with the text information data displayed in step (a) together with the user's unique identification information transmitted from the communication module through the external terminal or server Using the learning of voice recognition and artificial intelligence, characterized in that it further comprises the step of storing and managing the consistent user's voice information data corresponding to and matched with the text information data for each user based on the data into a database (DB) Complementary and alternative communication methods tailored to each individual.
상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB를 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
On the basis of the voice information data of the voice recognition completed in step (e) transmitted from the communication module through the external terminal or server, the same as the voice information data of the voice recognition completed in step (e) through a separate voice information DB Speech recognition and artificial intelligence learning, characterized in that after searching for consistent voice information data, calling the text information data matched with the searched identical consistent voice information data and transmitting it to the communication module Personalized complementary and alternative communication method using
상기 단계(a)에서, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어진 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
In the step (a), the at least one text information data, a personalized complementary and alternative communication method using speech recognition and learning of artificial intelligence, characterized in that at least one of a word or a sentence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019074A KR102309505B1 (en) | 2021-02-10 | 2021-02-10 | User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019074A KR102309505B1 (en) | 2021-02-10 | 2021-02-10 | User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102309505B1 true KR102309505B1 (en) | 2021-10-06 |
Family
ID=78077133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210019074A KR102309505B1 (en) | 2021-02-10 | 2021-02-10 | User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102309505B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064143A (en) * | 2021-11-03 | 2023-05-10 | 송상민 | Apparatus and method providing augmentative and alternative communication using prediction based on machine learning |
KR20230065736A (en) * | 2021-11-05 | 2023-05-12 | 주식회사 엘지유플러스 | Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213016A (en) * | 2002-12-31 | 2004-07-29 | Samsung Electronics Co Ltd | Method and device for speech recognition |
KR101169249B1 (en) | 2011-03-10 | 2012-08-06 | 나사렛대학교 산학협력단 | Apparatus for augmentative and alternative communication for the disabled |
KR101591883B1 (en) * | 2014-09-02 | 2016-02-19 | 포항공과대학교 산학협력단 | User adaptive speech auxiliary device using neural network based hardware |
KR102112822B1 (en) * | 2019-08-19 | 2020-05-19 | 주식회사 샤크로 | Augmentative and alterative communication system |
-
2021
- 2021-02-10 KR KR1020210019074A patent/KR102309505B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213016A (en) * | 2002-12-31 | 2004-07-29 | Samsung Electronics Co Ltd | Method and device for speech recognition |
KR101169249B1 (en) | 2011-03-10 | 2012-08-06 | 나사렛대학교 산학협력단 | Apparatus for augmentative and alternative communication for the disabled |
KR101591883B1 (en) * | 2014-09-02 | 2016-02-19 | 포항공과대학교 산학협력단 | User adaptive speech auxiliary device using neural network based hardware |
KR102112822B1 (en) * | 2019-08-19 | 2020-05-19 | 주식회사 샤크로 | Augmentative and alterative communication system |
Non-Patent Citations (4)
Title |
---|
등록특허공보 제10-1591883호(2016.2.19. 공고) 1부.* |
등록특허공보 제10-2112822호(2020.5.19. 공고) 1부.* |
박순찬, ‘[Tech & BIZ] 보고 듣고 말하지 못하는 이들에게...AI가 찾아갑니다’, 조선일보[Online], 2019.5.23.공지, 인터넷 URL<https://biz.chosun.com/site/data/html_dir/2019/05/23/2019052300124.html>* * |
일본 공개특허공보 특개2004-213016호(2004.7.29. 공개) 1부.* |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064143A (en) * | 2021-11-03 | 2023-05-10 | 송상민 | Apparatus and method providing augmentative and alternative communication using prediction based on machine learning |
KR102573967B1 (en) | 2021-11-03 | 2023-09-01 | 송상민 | Apparatus and method providing augmentative and alternative communication using prediction based on machine learning |
KR20230065736A (en) * | 2021-11-05 | 2023-05-12 | 주식회사 엘지유플러스 | Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor |
KR102613249B1 (en) * | 2021-11-05 | 2023-12-13 | 주식회사 엘지유플러스 | Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102309505B1 (en) | User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof | |
KR101972955B1 (en) | Method and apparatus for connecting service between user devices using voice | |
US10057125B1 (en) | Voice-enabled home setup | |
US9886952B2 (en) | Interactive system, display apparatus, and controlling method thereof | |
CN111261144B (en) | Voice recognition method, device, terminal and storage medium | |
US20180301148A1 (en) | Connecting assistant device to devices | |
CN111095892B (en) | Electronic device and control method thereof | |
US10212040B2 (en) | Troubleshooting voice-enabled home setup | |
US10176807B2 (en) | Voice setup instructions | |
CN111919249A (en) | Continuous detection of words and related user experience | |
KR20150090966A (en) | Method For Providing Search Result And Electronic Device Using The Same | |
US20200321002A1 (en) | System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection | |
KR101542130B1 (en) | Finger-language translation providing system for deaf person | |
KR20190058066A (en) | Method and Apparatus for Managing of Consulting Data | |
US8595016B2 (en) | Accessing content using a source-specific content-adaptable dialogue | |
JP2023506186A (en) | USER TERMINAL, VIDEO CALL DEVICE, VIDEO CALL SYSTEM AND CONTROL METHOD THEREOF | |
KR102304993B1 (en) | Method for providing Text-To-Speech service and relay server for the same | |
JP2013205523A (en) | Response generation apparatus, response generation method and response generation program | |
WO2015143114A1 (en) | Sign language translation apparatus with smart glasses as display featuring a camera and optionally a microphone | |
KR20200116688A (en) | Dialogue processing apparatus, vehicle having the same and dialogue processing method | |
KR20200062004A (en) | Apparatus for aiding foreign language learning and method thereof | |
KR102357620B1 (en) | Chatbot integration agent platform system and service method thereof | |
KR102371038B1 (en) | A chat system and translation service that can support multilingual translation | |
JP2023506469A (en) | User terminal and its control method | |
US20230274101A1 (en) | User terminal, broadcasting apparatus, broadcasting system comprising same, and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |