KR102309505B1 - User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof - Google Patents

User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof Download PDF

Info

Publication number
KR102309505B1
KR102309505B1 KR1020210019074A KR20210019074A KR102309505B1 KR 102309505 B1 KR102309505 B1 KR 102309505B1 KR 1020210019074 A KR1020210019074 A KR 1020210019074A KR 20210019074 A KR20210019074 A KR 20210019074A KR 102309505 B1 KR102309505 B1 KR 102309505B1
Authority
KR
South Korea
Prior art keywords
information data
voice
user
module
voice information
Prior art date
Application number
KR1020210019074A
Other languages
Korean (ko)
Inventor
김재성
Original Assignee
김재성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김재성 filed Critical 김재성
Priority to KR1020210019074A priority Critical patent/KR102309505B1/en
Application granted granted Critical
Publication of KR102309505B1 publication Critical patent/KR102309505B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/04Devices for conversing with the deaf-blind
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

The present invention relates to a personalized complementary and alternative communication device using voice recognition and artificial intelligence learning and a method thereof. The device comprises: a voice acquisition module for acquiring user's voice information data; a display module for displaying at least one text information data on a display screen; a storage module for storing the user's voice information data and corresponding text information data into a database (DB); and a control module for controlling the voice acquisition module, the display module, and the storage module. The control module performs voice recognition on user's voice information data, compares and analyzes the user's voice information data whose voice recognition has been completed and consistent user's voice information data stored in the storage module to search consistent voice information data identical to the user's voice information data whose voice recognition has been completed, and calls text information data matched with the searched data to be displayed on a display screen, thereby having an effect of enabling rapid communication.

Description

음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법{USER-CUSTOMIZED AUGMENTATIVE AND ALTERNATIVE COMMUNICATION APPARATUS USING SPEECH RECOGNITION AND INTELLIGENCE AND METHOD THEREOF}USER-CUSTOMIZED AUGMENTATIVE AND ALTERNATIVE COMMUNICATION APPARATUS USING SPEECH RECOGNITION AND INTELLIGENCE AND METHOD THEREOF

본 발명은 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 관한 것이다.The present invention relates to a supplementary and alternative communication device and method customized for each individual using speech recognition and learning of artificial intelligence.

일반적으로, 보완대체 의사소통(Augmentative and alternative communication, AAC)은 선천적 또는 후천적 언어장애를 갖고 있는 장애인들이 원활한 의사소통을 할 수 있도록 도움을 주는 방법으로서, 예컨대, 말, 발성, 제스처, 의사소통 행동, 특정 의사소통 방법이나 도구를 포함하는 개인이 사용할 수 있는 모든 의사소통 방법을 의미한다.In general, augmentative and alternative communication (AAC) is a method that helps disabled people with congenital or acquired language disorders to communicate smoothly, for example, speech, vocalization, gestures, and communication behaviors. , means any communication method available to an individual, including a particular communication method or tool.

예컨대, 심볼(Symbol)이나 그림판 등과 같은 단순기술(No tech) 보완대체 의사소통(AAC)으로부터 스마트폰이나 전용단말기와 같은 고도기술(High tech) 보완대체 의사소통(AAC)에 이르기까지 다양하다.For example, they range from simple technology (no tech) complementary and alternative communication (AAC) such as symbols or paints to high tech supplementary and alternative communication (AAC) such as smartphones or dedicated terminals.

이때, 단순기술 보완대체 의사소통(AAC)의 경우 가격이 매우 저렴하나 다양하고 복잡한 의사소통에 큰 한계가 있는 반면, 고도기술 보완대체 의사소통(AAC)은 비교적 구체적이고 신속한 의사소통이 가능하게 해주지만 비용적인 측면에서 부담이 되는 것이 현실이다.At this time, in the case of simple technology complementary and alternative communication (AAC), although the price is very low, there is a big limit to various and complex communication, whereas high technology supplemental and alternative communication (AAC) makes relatively specific and rapid communication possible. However, the reality is that it is a burden in terms of cost.

또한, 장애의 정도에 따라서 사용할 수 있는 보완대체 의사소통(AAC)에 제한이 있을 수 있는데, 아주 심한 뇌성마비 환자나 자폐아의 경우 단순 심볼이나 그림판 정도밖에 사용할 수 없는 반면, 손을 자유롭게 사용할 수 있는 언어장애인은 TTS(Text to speech) 기능이 탑재되어 있는 단말기나 스마트폰을 사용하여 상대방과 의사소통을 할 수 있다.In addition, depending on the degree of disability, there may be restrictions on the complementary and alternative communication (AAC) that can be used. The speech-impaired person can communicate with the other party using a terminal or smartphone equipped with a text to speech (TTS) function.

한편, 언어장애와 사지마비를 동시에 가지고 있는 장애인(예컨대, 뇌성마비 등)은 부정확한 발음으로 인해 본인의 음성으로 상대방과 의사소통 하는데 상당한 어려움이 있으며 동시에 손을 자유롭게 쓰지 못하여 TTS 기능을 사용하더라도 문자 입력하는 시간이 너무 오래 걸려서 신속한 의사소통이 매우 어렵거나 사지마비가 심한 경우는 아예 도구를 사용할 수 없다.On the other hand, people with disabilities (eg, cerebral palsy) who have both speech and quadriplegia have considerable difficulties in communicating with others with their own voice due to inaccurate pronunciation, and at the same time cannot use their hands freely, so even if they use the TTS function, text messages If it takes too long to type, it is very difficult to communicate quickly, or if you have severe quadriplegia, you cannot use the tool at all.

따라서, 이러한 장애인의 의사소통에는 반드시 보호자나 교사 등 의사소통을 도와주는 도우미가 있어야 가능하여 독립적인 생활에 매우 큰 제한이 되는 현실이다.Therefore, the communication of the disabled must be possible only with a helper, such as a guardian or a teacher, to help them communicate, which is a reality that greatly limits their independent life.

이러한 뇌성마비 장애인들의 발음은 일반인들이 알아듣기가 매우 힘들지만 가족이나 교사처럼 오랜 기간 같이 생활하면서 발음을 들어온 사람들은 잘 이해한다. 이는 뇌성마비 장애인들이 발성하는 발음이 어떤 뜻인지를 오랜 시간을 걸쳐 매치하는 반복적인 패턴 학습을 통해서 알게 되는 것이다.The pronunciation of these people with cerebral palsy is very difficult for the general public to understand, but those who have lived with them for a long time, such as family members or teachers, understand well. This is to learn the meaning of the pronunciation of the people with cerebral palsy through repeated pattern learning that matches over a long period of time.

따라서, 발성장애 장애인의 발음과 해당 의미를 매치하여 저장해 두고, 차후에 장애인이 발성할 때 해당 단어를 저장소에서 불러내어 문자 디스플레이나 TTS 기능을 활용하여 스피커로 표현을 할 수 있다면 의사소통 도우미 없이도 신속하고 정확한 의사소통이 가능할 것이다.Therefore, if the pronunciation and meaning of the person with dysphonia are matched and stored, and the word is retrieved from the storage when the person with a dysphonia speaks later, it can be expressed through the speaker using the text display or TTS function, Accurate communication will be possible.

국내 등록특허 제10-1169249호(2012.08.06. 공고)Domestic Registered Patent No. 10-1169249 (Announced on Aug. 6, 2012)

본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 발성장애와 사지마비가 있는 장애인의 음성을 저장하고 이에 대응하는 뜻을 입력하여 매칭시킨 후, 장애인이 일상에서 그 단어나 문장을 발성하면 음성인식 기능이 인지하여 해당 단어나 문장을 디스플레이 화면에 표시하거나 문자음성 자동변환(Text to Speech, TTS) 기능을 이용해 스피커 등을 통해 정상 언어로 표현하여 빠른 의사소통이 이루어질 수 있도록 한 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법을 제공하는데 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to store the voice of a disabled person with dysphonia and quadriplegia, input the corresponding meaning to match it, and then enable the disabled person to use the word or When a sentence is spoken, the voice recognition function recognizes it and displays the word or sentence on the display screen or uses the Text to Speech (TTS) function to express it in normal language through a speaker, etc. An object of the present invention is to provide a supplementary and alternative communication device and method customized for each individual using the learning of voice recognition and artificial intelligence.

전술한 목적을 달성하기 위하여 본 발명의 제1 측면은, 사용자의 음성정보 데이터를 획득하는 음성획득모듈; 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 표시모듈; 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 저장모듈; 및 기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하고, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하며, 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 제어모듈을 포함하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 제공하는 것이다.In order to achieve the above object, a first aspect of the present invention includes: a voice acquisition module for acquiring voice information data of a user; a display module for displaying at least one text information data on a display screen; a storage module for storing the user's voice information data obtained from the voice acquisition module and text information data corresponding to the database (DB); and controlling the operation of the display module so that at least one text information data is displayed on the display screen through a preset artificial intelligence learning mode, and the user's voice information data corresponding to the text information data displayed on the display screen is displayed a plurality of times. controls the operation of the voice acquisition module so that it is repeatedly acquired with It is to provide a personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, including a control module that controls the consistent user's voice information data to be matched with each other and stored in the storage module.

여기서, 상기 제어모듈은, 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함이 바람직하다.Here, the control module receives the user's voice information data obtained from the voice acquisition module and performs voice recognition on the acquired user's voice information data using a preset voice recognition technique, and the voice recognition is completed After comparing and analyzing the user's voice information data and the consistent user's voice information data stored in the storage module to search for the same consistent voice information data as the voice information data of the user whose voice recognition has been completed, the searched identical consistent voice information It is preferable to control the operation of the display module so that the character information data matched with the data is called and displayed on the display screen.

바람직하게, 음성정보 데이터를 출력하는 음성출력모듈이 더 포함될 수 있다.Preferably, a voice output module for outputting voice information data may be further included.

바람직하게, 상기 제어모듈은, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 상기 음성출력모듈의 동작을 제어할 수 있다.Preferably, the control module calls the text information data matched with the searched identical consistent voice information data, and converts the called text information data through a preset text-to-speech (TTS) technique. The operation of the voice output module may be controlled so that it is converted into voice and output to the outside.

바람직하게, 상기 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용할 수 있다.Preferably, the preset artificial intelligence learning mode is based on at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning. Machine learning methods can be applied.

바람직하게, 사용자의 조작에 의한 특정 입력신호를 출력하는 사용자 입력모듈이 더 포함될 수 있다.Preferably, a user input module for outputting a specific input signal by a user's manipulation may be further included.

바람직하게, 상기 제어모듈은, 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하고, 상기 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 사용자 입력모듈로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 상기 사용자 입력모듈로부터 제공받은 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어할 수 있다.Preferably, the control module controls the operation of the voice acquisition module so that the voice information data of the corresponding user is repeatedly acquired a plurality of times through a preset user voice input mode, and uses the preset voice recognition technique. After confirming whether the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module is consistent, the character information data corresponding to the user's voice information data consistent by a specific input signal output from the user input module is provided, and based on this, the consistent user's voice information data and the text information data provided from the user input module are matched with each other, and it can be controlled to be stored in the storage module.

바람직하게, 상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어할 수 있다.Preferably, the control module compares and analyzes the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module, and fails to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed. In this case, it is possible to control the operation of the display module so that the voice information data of the voice recognition completed and the text information data matched in the order of the highest voice similarity are displayed on the display screen in the form of a list.

바람직하게, 상기 제어모듈은, 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 별도의 음성출력모듈의 동작을 제어할 수 있다.Preferably, the control module selects any one of the text information data from among the text information data matched in the order of the high voice similarity to the voice information data that has been recognized by the user by using a separate user input module, , while controlling the operation of the display module so that the selected text information data is displayed on the display screen, the selected text information data is converted into voice through a preset text-to-speech (TTS) technique It is possible to control the operation of a separate voice output module so that it is output as .

바람직하게, 상기 제어모듈은, 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.Preferably, the control module may control all functions related to supplementary and alternative communication customized for each individual to be performed through the execution of a pre-installed individual customized supplementary and alternative communication related application.

바람직하게, 상기 제어모듈은, 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.Preferably, the control module receives the user's unique identification information for authentication of the corresponding user when the individual customized complementary and alternative communication related application is executed, and compares it with preset user identification information based on this to authenticate the user After completion, it is possible to control all functions related to complementary and alternative communication tailored to each individual to be performed.

바람직하게, 사용자별로 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 외부로 송신하는 통신모듈이 더 포함될 수 있다.Preferably, a communication module for transmitting text information data corresponding to and matching with the user's voice information data obtained from the voice acquisition module for each user to the outside may be further included.

바람직하게, 상기 제어모듈은, 기 설정된 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 또는 서버로 전송되도록 상기 통신모듈의 동작을 제어할 수 있다.Preferably, the control module is configured to match text information data displayed on the display screen together with preset user's unique identification information and consistent user's voice information data corresponding to each other through wired/wireless communication to an external terminal or server It is possible to control the operation of the communication module to be transmitted to.

바람직하게, 상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 해당 각 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리할 수 있다.Preferably, the external terminal or server receives, through the communication module, consistent user's voice information data corresponding to and matched with the text information data displayed on the display screen together with the user's unique identification information, based on this As a result, consistent user voice information data corresponding to and matched with text information data for each user can be stored and managed as a database (DB).

바람직하게, 상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송할 수 있다.Preferably, the control module compares the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module. , the voice information data on which the voice recognition has been completed may be transmitted to an external terminal or server through a separate communication module.

바람직하게, 상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송할 수 있다.Preferably, the external terminal or server receives the voice information data of the voice recognition completed through the communication module, and based on the received voice information data, the same consistent voice information data as the voice information data of the voice recognition completion through a separate voice information DB may be searched for and transmitted to the communication module by calling the text information data matched with the searched identical consistent voice information data.

바람직하게, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어질 수 있다.Preferably, the at least one text information data may be formed of at least one of a word or a sentence.

본 발명의 제2 측면은, 음성획득모듈, 표시모듈, 저장모듈, 및 제어모듈을 포함하는 장치를 이용하여 개인별 맞춤형 보완대체 의사소통하는 방법으로서, (a) 상기 표시모듈을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 단계; (b) 상기 음성획득모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 단계; (c) 상기 제어모듈을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계(b)에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 단계; (d) 상기 제어모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 상기 저장모듈에 저장하는 단계; (e) 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하는 단계; (f) 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하는 단계; 및 (g) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 제공하는 것이다.A second aspect of the present invention is a method for personalized complementary and alternative communication using a device including a voice acquisition module, a display module, a storage module, and a control module, (a) at least one character through the display module displaying information data on a display screen; (b) repeatedly acquiring the user's voice information data corresponding to the text information data displayed in step (a) a plurality of times through the voice acquisition module; (c) checking whether the user's voice information data repeatedly acquired a plurality of times in step (b) is consistent using an artificial intelligence learning mode preset through the control module; (d) matching the text information data displayed in step (a) with the voice information data of the user consistent in step (c) through the control module to correspond to each other and storing in the storage module; (e) performing voice recognition on the user's voice information data obtained from the voice acquisition module using a preset voice recognition technique through the control module; (f) through the control module, the voice information data of the user whose voice recognition is completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed, and the voice recognition is completed in step (e) retrieving the same consistent voice information data as the user's voice information data; and (g) calling text information data matched with the same consistent voice information data retrieved in step (f) through the control module and displaying it on the display screen of the display module. It is to provide a complementary and alternative communication method customized for each individual using the learning of recognition and artificial intelligence.

여기서, 상기 단계(g) 이후에, (h) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함함이 바람직하다.Here, after the step (g), (h) calling the text information data matching the same consistent voice information data searched for in the step (f) through the control module, and automatically converting a preset text-to-speech (Text) to Speech, TTS), after converting the called text information data into voice, outputting the converted voice through a separate voice output module.

바람직하게, 상기 단계(c)에서 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용할 수 있다.Preferably, the artificial intelligence learning mode preset in step (c) is at least one artificial intelligence among a neural network, a support vector machine (SVM), a multi-layer perception (MLP), or deep learning. (AI)-based machine learning methods can be applied.

바람직하게, 상기 단계(a) 이전 또는 상기 단계(d) 이후에, 상기 음성획득모듈을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계; 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계; 상기 제어모듈을 통해 별도의 사용자 입력모듈로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계; 및 상기 제어모듈을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장하는 제4 단계를 더 포함할 수 있다.Preferably, before or after the step (a) or after the step (d), a first step of repeatedly acquiring the user's voice information data through the voice acquisition module a plurality of times; a second step of confirming whether the user's voice information data repeatedly acquired a plurality of times in the first step using a preset voice recognition technique through the control module is consistent; a third step of receiving, through the control module, text information data corresponding to the consistent user's voice information data confirmed in the second step according to a specific input signal output from a separate user input module; and the consistent user's voice information data confirmed in the second step based on the text information data corresponding to the consistent user's voice information data provided in the third step through the control module and the text provided in the third step The method may further include a fourth step of matching information data with each other and storing the information data in the storage module.

바람직하게, 상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 더 포함할 수 있다.Preferably, after the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step ( When it is not possible to search for the same consistent voice information data as the voice information data of the voice recognition completed in e), the text information data that is matched in the order of the highest voice similarity with the voice information data of the voice recognition completed in step (e) is called The method may further include displaying on the display screen of the display module in the form of a list.

바람직하게, 상기 제어모듈을 통해 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 상기 표시모듈의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함할 수 있다.Preferably, through the control module, using a separate user input module, the voice information data that has been recognized by the user in the step (e) and any one character of the character information data matched in the order of the highest voice similarity After selecting information data, the selected text information data is displayed on the display screen of the display module, and at the same time, the selected text information data is converted into voice using a preset text-to-speech (TTS) technique. Then, the method may further include outputting the converted voice through a separate voice output module.

바람직하게, 상기 단계(a) 내지 단계(g)는, 상기 제어모듈의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행할 수 있다.Preferably, the steps (a) to (g) may be performed through the execution of a pre-installed personalized complementary and alternative communication related application under the control of the control module.

바람직하게, 상기 제어모듈을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 별도의 사용자 입력모듈을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계(a) 내지 단계(g)를 수행할 수 있다.Preferably, when the individual customized complementary and alternative communication-related application is executed through the control module, the user-specific identification information preset based on the user-specific identification information for authentication of the corresponding user input through a separate user input module and By comparison, after the authentication of the corresponding user is completed, the steps (a) to (g) may be performed.

바람직하게, 상기 단계(d) 이전 또는 이후에, 상기 제어모듈을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 별도의 통신모듈을 이용하여 외부의 단말 또는 서버로 전송하는 단계를 더 포함할 수 있다.Preferably, before or after the step (d), the text information data displayed in step (a) together with the user's unique identification information preset through the control module and the user's voice information consistent in the step (c) The method may further include matching the data so that they correspond to each other and transmitting the data to an external terminal or server using a separate communication module.

바람직하게, 상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함할 수 있다.Preferably, the user consistent in step (c) corresponding to and matching the character information data displayed in step (a) together with the user's unique identification information transmitted from the communication module through the external terminal or server It may further include the step of storing and managing the consistent user's voice information data corresponding to and matched with text information data for each user based on the voice information data of the database (DB), and storing and managing the same.

바람직하게, 상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 단계를 더 포함할 수 있다.Preferably, after the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step ( When it is not possible to search for the same consistent voice information data as the voice information data for which voice recognition has been completed in e), transmitting the voice information data for which voice recognition has been completed in step (e) to an external terminal or server through a separate communication module may further include.

바람직하게, 상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB를 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 단계를 더 포함할 수 있다.Preferably, based on the voice information data of the voice recognition completed in step (e) transmitted from the communication module through the external terminal or server, the voice information of the voice recognition completed in step (e) through a separate voice information DB The method may further include, after searching for the same consistent voice information data as the data, calling text information data matched with the searched identical consistent voice information data and transmitting the same to the communication module.

바람직하게, 상기 단계(a)에서, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어질 수 있다.Preferably, in the step (a), the at least one text information data may be formed of at least one of a word or a sentence.

본 발명의 제3 측면은, 상술한 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.A third aspect of the present invention provides a computer-readable recording medium in which a program capable of executing a supplementary and alternative communication method customized for each individual using the above-described speech recognition and learning of artificial intelligence is recorded.

본 발명에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은 컴퓨터로 판독할 수 있는 기록매체에 컴퓨터로 판독할 수 있는 코드로 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체에는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The personalized complementary and alternative communication method using voice recognition and artificial intelligence learning according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피 디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, removable storage device, and non-volatile memory (Flash Memory). , and optical data storage devices.

이상에서 설명한 바와 같은 본 발명의 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 따르면, 발성장애와 사지마비가 있는 장애인의 음성을 저장하고 이에 대응하는 뜻을 입력하여 매칭시킨 후, 장애인이 일상에서 그 단어나 문장을 발성하면 음성인식 기능이 인지하여 해당 단어나 문장을 디스플레이 화면에 표시하거나 문자음성 자동변환(Text to Speech, TTS) 기능을 이용해 스피커 등을 통해 정상 언어로 표현하여 빠른 의사소통이 이루어질 수 있는 이점이 있다.According to the personalized complementary and alternative communication device and method using speech recognition and artificial intelligence learning of the present invention as described above, the voice of the disabled person with dysphonia and quadriplegia is stored and the corresponding meaning is inputted. After matching, when a person with a disability utters the word or sentence in daily life, the speech recognition function recognizes the word or sentence and displays the word or sentence on the display screen, or through a speaker using the Text to Speech (TTS) function. It has the advantage of being able to communicate quickly by expressing it in language.

도 1은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 설명하기 위한 전체적인 블록 구성도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 설명하기 위한 전체적인 흐름도이다.
1 is an overall block diagram for explaining a supplementary and alternative communication device customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.
2 and 3 are overall flowcharts for explaining a supplementary and alternative communication method customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되어지는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.Each block in the accompanying block diagram and combinations of steps in the flowchart may be executed by computer program instructions (execution engine), which computer program instructions may be executed by a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment. It may be mounted so that the instructions, which are executed by the processor of a computer or other programmable data processing equipment, create means for performing the functions described in each block of the block diagram or in each step of the flowchart. These computer program instructions may also be stored in a computer usable or computer readable memory which may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart.

그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And, since the computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other program It is also possible that instructions for performing the possible data processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical functions, and in some alternative embodiments the blocks or steps referred to in the block or steps. It should be noted that it is also possible for functions to occur out of sequence. For example, it is possible that two blocks or steps shown one after another may be performed substantially simultaneously, and also the blocks or steps may be performed in the reverse order of the corresponding functions, if necessary.

도 1은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치를 설명하기 위한 전체적인 블록 구성도이다.1 is an overall block diagram for explaining a supplementary and alternative communication device customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 크게 음성획득모듈(100), 표시모듈(200), 저장모듈(300), 제어모듈(400), 및 전원공급모듈(500) 등을 포함하여 이루어진다. 또한, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 음성출력모듈(600), 사용자 입력모듈(700), 및/또는 통신모듈(800) 등을 추가적으로 더 포함할 수도 있다. 한편, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가질 수도 있다.Referring to FIG. 1 , a supplementary and alternative communication device customized for each individual using voice recognition and learning of artificial intelligence according to an embodiment of the present invention is largely a voice acquisition module 100 , a display module 200 , and a storage module 300 . ), a control module 400, and a power supply module 500, and the like. In addition, the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention is a voice output module 600 , a user input module 700 , and/or a communication module 800 . and the like may be further included. On the other hand, since the components shown in Fig. 1 are not essential, the personalized complementary and alternative communication device using speech recognition and artificial intelligence learning according to an embodiment of the present invention has more or fewer components than that. It may have elements.

이하, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치의 구성요소들에 대해 구체적으로 살펴보면 다음과 같다.Hereinafter, the components of the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention will be described in detail as follows.

음성획득모듈(100)은 사용자의 음성정보 데이터를 획득하는 기능을 수행한다. 이러한 음성획득모듈(100)은 통상의 마이크(Microphone)로 구현됨이 바람직하다.The voice acquisition module 100 performs a function of acquiring the user's voice information data. The voice acquisition module 100 is preferably implemented as a conventional microphone (Microphone).

표시모듈(200)은 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 기능을 수행한다. 여기서, 상기 적어도 하나의 문자 정보데이터는 예컨대, 단어 및/또는 문장 중 적어도 하나로 이루어짐이 바람직하다.The display module 200 performs a function of displaying at least one piece of text information data on the display screen. Here, it is preferable that the at least one text information data includes, for example, at least one of a word and/or a sentence.

이러한 표시모듈(200)은 예컨대, 액정 디스플레이(Liquid Crystal Display, LCD), 발광다이오드 디스플레이(Light Emitting Diode, LED), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 플라즈마 디스플레이 패널 (Plasma Display Panel, PDP), 표면 얼터네이트 라이팅(ALiS), 디지털 광원 처리(DLP), 실리콘 액정(LCoS), 표면 전도형 전자방출소자 디스플레이(SED), 전계방출 디스플레이(FED), 레이저 TV(양자 점 레이저, 액정 레이저), 광유전성 액체 디스플레이(FLD), 간섭계 변조기 디스플레이(iMoD), 두꺼운 필름 유전체 전기(TDEL), 양자점 디스플레이(QD-LED), 텔레스코픽 픽셀 디스플레이(TPD), 유기발광 트랜지스터(OLET), 레이저 형광 디스플레이(LPD), 터치스크린(Touch Screen), 및/또는 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있지만, 이에 한정되는 것은 아니고 영상, 문자 또는 문서 데이터 중 적어도 하나의 데이터를 디스플레이(Display)할 수 있는 것이라면, 어떠한 것이라도 포함할 수 있다.The display module 200 includes, for example, a liquid crystal display (LCD), a light emitting diode display (LED), a thin film transistor liquid crystal display (TFT LCD), and an organic light emitting diode. (Organic Light Emitting Diode, OLED), Flexible Display, Plasma Display Panel (PDP), Surface Alternate Lighting (ALiS), Digital Light Emitting Diode (DLP), Silicon Liquid Crystal (LCoS), Surface Conduction Electron Emitting Device Display (SED), Field Emission Display (FED), Laser TV (Quantum Dot Laser, Liquid Crystal Laser), Optoelectric Liquid Display (FLD), Interferometric Modulator Display (iMoD), Thick Film Dielectric Electric (TDEL), At least one of a quantum dot display (QD-LED), a telescopic pixel display (TPD), an organic light emitting transistor (OLET), a laser fluorescence display (LPD), a touch screen, and/or a three-dimensional display (3D display) It may include, but is not limited thereto, and any data that can display at least one of image, text, and document data may be included.

저장모듈(300)은 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 기능을 수행한다.The storage module 300 performs a function of storing the user's voice information data obtained from the voice acquisition module 100 and text information data corresponding to the database (DB).

또한, 저장모듈(300)은 예컨대, 기 설정된 사용자 고유식별정보 등을 저장하는 기능을 수행할 수 있다. 여기서, 상기 사용자 고유식별정보는 예컨대, 사용자의 아이디(ID), 패스워드(Password), 사용자의 이름, 주민번호, 전화번호, 주소, 생체특징정보, PKI(Public Key Infrastructure), OTP(One Time Password), 및/또는 공인 인증서 정보 중 적어도 하나의 정보를 포함함이 바람직하다.In addition, the storage module 300 may perform a function of storing, for example, preset user unique identification information. Here, the user's unique identification information is, for example, the user's ID, password, user's name, resident number, phone number, address, biometric information, PKI (Public Key Infrastructure), OTP (One Time Password) ), and/or it is preferable to include at least one of the public certificate information.

또한, 저장모듈(300)은 제어모듈(400)을 통해 실행되는 적어도 하나의 프로그램 코드와, 상기 프로그램 코드가 이용하는 적어도 하나의 데이터 셋트를 저장하여 유지하는 기능을 수행할 수도 있다.In addition, the storage module 300 may perform a function of storing and maintaining at least one program code executed through the control module 400 and at least one data set used by the program code.

이러한 저장모듈(300)은 예컨대, 플래시 메모리 타입(Flash Memory type), 하드디스크 타입(Hard Disk type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage module 300 may include, for example, a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory). etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), It may include at least one type of storage medium among a magnetic memory, a magnetic disk, and an optical disk.

제어모듈(400)은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치의 전체적인 제어를 담당하는 모듈로서, 특히 기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행한다.The control module 400 is a module responsible for overall control of the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention, and in particular, at least one through a preset artificial intelligence learning mode. It performs a function of controlling the operation of the display module 200 so that the character information data of the display module 200 is displayed on the display screen.

또한, 제어모듈(400)은 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 음성획득모듈(100)의 동작을 제어하는 기능을 수행한다.In addition, the control module 400 functions to control the operation of the voice acquisition module 100 so that the user's voice information data corresponding to the text information data displayed on the display screen of the display module 200 is repeatedly acquired a plurality of times. carry out

또한, 제어모듈(400)은 음성획득모듈(100)로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장되도록 제어하는 기능을 수행한다.In addition, the control module 400 checks whether the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module 100 is consistent with the text information data displayed on the display screen of the display module 200 . It performs a function of controlling the consistent user's voice information data to be matched with each other and stored in the storage module 300 .

여기서, 상기 기 설정된 인공지능 학습모드는 예컨대, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 및/또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용함이 바람직하다.Here, the preset artificial intelligence learning mode is, for example, at least one of a neural network, a support vector machine (SVM), a multi-layer perception (MLP), and/or deep learning (AI). It is desirable to apply a machine learning-based method.

또한, 제어모듈(400)은 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법(예컨대, 인공지능 기반의 음성인식 기술 등)을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the control module 400 receives the user's voice information data acquired from the voice acquisition module 100, and uses a preset voice recognition technique (eg, artificial intelligence-based voice recognition technology, etc.) of the acquired user. Voice recognition is performed on the voice information data, and the voice information data of the user who has completed the voice recognition and the consistent user's voice information data stored in the storage module 300 are compared and analyzed to be the same as the voice information data of the user who has completed the voice recognition. After searching for consistent voice information data, the storage module 300 calls the text information data matched with the searched identical consistent voice information data to be displayed on the display screen of the display module 200 . function to control the operation of

또한, 제어모듈(400)은 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 음성 출력되도록 음성출력모듈(600)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the control module 400 calls the text information data matched with the searched identical consistent voice information data from the storage module 300, and through a preset text-to-speech (TTS) technique, the It is possible to perform a function of controlling the operation of the voice output module 600 so that the called text information data is converted into voice and outputted to the outside.

또한, 제어모듈(400)은 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 음성획득모듈(100)의 동작을 제어하고, 기 설정된 음성인식 기법을 이용하여 음성획득모듈(100)로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 사용자 입력모듈(700)로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 사용자 입력모듈(700)로부터 제공받은 문자정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장되도록 제어하는 기능을 수행할 수 있다.In addition, the control module 400 controls the operation of the voice acquisition module 100 so that the user's voice information data is repeatedly acquired a plurality of times through a preset user voice input mode, and uses a preset voice recognition technique. After confirming the consistency of the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module 100, the consistent user's voice information data and A function of controlling to be stored in the storage module 300 by matching the text information data provided from the user input module 700 with the consistent user's voice information data based on the received text information data. can

또한, 제어모듈(400)은 상기 음성인식 완료된 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 리스트(list) 형태로 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the control module 400 compares and analyzes the voice recognition completed voice information data and the consistent user's voice information data stored in the storage module 300 to search for the same consistent voice information data as the voice recognition completed voice information data. If not, the storage module 300 calls the text information data matched in the order of the voice recognition completed voice information data and the voice similarity to be displayed on the display screen of the display module 200 in the form of a list. A function of controlling the operation of the display module 200 may be performed.

또한, 제어모듈(400)은 사용자 입력모듈(700)을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 표시모듈(200)의 디스플레이 화면에 표시되도록 표시모듈(200)의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 음성 출력되도록 음성출력모듈(600)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the control module 400 selects any one of the text information data from the text information data matched in the order of the highest voice similarity to the voice information data that has been recognized by the user by using the user input module 700 . and control the operation of the display module 200 so that the selected text information data is displayed on the display screen of the display module 200, and at the same time, the selected text through a preset text-to-speech (TTS) technique It is possible to perform a function of controlling the operation of the voice output module 600 so that the information data is converted into voice and outputted to the outside.

또한, 제어모듈(400)은 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.In addition, the control module 400 may control all functions related to supplementary and alternative communication customized for each individual to be performed through the execution of a previously installed application related to supplementary and alternative communication for each individual.

또한, 제어모듈(400)은 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보(예컨대, 아이디(ID) 및 패스워드(Password) 등)를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어할 수 있다.In addition, the control module 400 receives the user's unique identification information (eg, ID and password, etc.) for authentication of the corresponding user when the individual customized complementary and alternative communication related application is executed and based on this It is possible to control so that all functions related to supplementary and alternative communication tailored to each individual are performed after the user's authentication is completed by comparing it with the user's unique identification information set in advance.

또한, 제어모듈(400)은 기 설정된 사용자의 고유식별정보와 함께 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 및/또는 서버(20)로 전송되도록 통신모듈(800)의 동작을 제어하는 기능을 수행할 수 있다.In addition, the control module 400 matches the character information data displayed on the display screen of the display module 200 together with the preset user's unique identification information and the consistent user's voice information data corresponding to each other through wired/wireless communication. A function of controlling the operation of the communication module 800 to be transmitted to an external terminal and/or server 20 may be performed.

또한, 제어모듈(400)은 상기 음성인식 완료된 음성정보 데이터와 저장모듈(300)에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 통신모듈(800)을 통해 외부의 단말 및/또는 서버(20)로 전송하는 기능을 수행할 수 있다.In addition, the control module 400 compares the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module 300 to search for the same consistent voice information data as the voice information data of the voice recognition completed. If not, a function of transmitting the voice information data on which the voice recognition has been completed to the external terminal and/or the server 20 through the communication module 800 may be performed.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어모듈(400)에 의해 구현될 수 있다.According to the hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). , processors, controllers, micro-controllers, microprocessors, and may be implemented using at least one of an electrical unit for performing a function. In some cases, such embodiments may be implemented by the control module 400 .

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 저장모듈(300)에 저장되고, 제어모듈(400)에 의해 실행될 수 있다.According to the software implementation, embodiments such as a procedure or function may be implemented together with a separate software module for performing at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the storage module 300 and executed by the control module 400 .

그리고, 전원공급모듈(500)은 전술한 각 모듈들 즉, 음성획득모듈(100), 표시모듈(200), 저장모듈(300), 제어모듈(400), 음성출력모듈(600), 사용자 입력모듈(700), 및/또는 통신모듈(800) 등의 동작에 필요한 전원을 공급하는 기능을 수행하는 바, 통상의 휴대용 배터리(Battery)로 구현함이 바람직하지만, 이에 국한하지 않고, 계속적인 전원 공급을 위해 상용 교류(AC) 전원(예컨대, AC 220V 또는 380V 등)을 직류(DC) 및/또는 교류(AC) 전원으로 변환되도록 구현할 수도 있다.In addition, the power supply module 500 includes each of the above-described modules, that is, the voice acquisition module 100 , the display module 200 , the storage module 300 , the control module 400 , the voice output module 600 , and the user input. It performs a function of supplying power required for the operation of the module 700 and/or the communication module 800, etc., and preferably implemented with a conventional portable battery, but is not limited thereto, and continuous power supply For supply, commercial alternating current (AC) power (eg, AC 220V or 380V, etc.) may be implemented to be converted into direct current (DC) and/or alternating current (AC) power.

또한, 전원공급모듈(500)에는 외부의 전원 충격으로부터 부품을 보호하고 일정한 전압을 출력하는 기능을 수행하는 전원 관리부(미도시)를 포함할 수 있다. 상기 전원 관리부는 ESD(Electro Static Damage) 보호기, 전원 감지기, 정류기 및 전원 차단기 등을 포함하여 이루어질 수 있다.In addition, the power supply module 500 may include a power management unit (not shown) that protects components from external power shock and outputs a constant voltage. The power management unit may include an ESD (Electro Static Damage) protector, a power detector, a rectifier, and a power breaker.

여기서, 상기 ESD 보호기는 정전기 또는 급격한 전원 충격으로부터 전장 부품을 보호하도록 구성한다. 상기 전원 감지기는 허용 전압 범위 외의 전압이 유입될 경우 상기 전원 차단기에 차단신호를 보내고, 허용 전압 범위 내에서 전압 변화에 따라 승압 또는 강압 신호를 상기 정류기에 전달하도록 구성한다. 상기 정류기는 입력 전압의 변동을 최소하여 일정한 전압이 공급되도록 상기 전원 감지기의 신호에 따라 승압 또는 강압의 정류 동작을 수행하도록 구성한다. 상기 전원 차단기는 상기 전원 감지기로부터 전달되는 차단 신호에 따라 배터리로부터 공급되는 전원을 차단하도록 구성한다.Here, the ESD protector is configured to protect electronic components from static electricity or sudden power shock. The power detector is configured to send a cut-off signal to the power breaker when a voltage outside the allowable voltage range is introduced, and to transmit a step-up or step-down signal to the rectifier according to a voltage change within the allowable voltage range. The rectifier is configured to perform a step-up or step-down rectification operation according to the signal of the power sensor so that a constant voltage is supplied by minimizing the fluctuation of the input voltage. The power breaker is configured to cut off the power supplied from the battery according to the cut-off signal transmitted from the power detector.

추가적으로, 음성출력모듈(600)은 음성정보 데이터를 출력하는 모듈로서, 음성정보 데이터를 사람이 청각적으로 인식할 수 있도록 음성신호를 출력하는 기능을 수행한다.Additionally, the voice output module 600 is a module for outputting voice information data, and performs a function of outputting a voice signal so that a person can aurally recognize the voice information data.

이러한 음성출력모듈(600)은 통상의 스피커(Speaker)로 구현됨이 바람직하지만, 이에 국한하지 않으며, 예컨대, 이어폰 또는 헤드폰을 통해 사람이 청취할 수 있도록 음성 증폭회로를 비롯한 연결 잭 등으로 구현될 수도 있다.Such a voice output module 600 is preferably implemented as a conventional speaker (Speaker), but is not limited thereto, and for example, it may be implemented as a connection jack including a voice amplification circuit so that a person can listen through earphones or headphones. may be

사용자 입력모듈(700)은 사용자의 조작에 의한 특정 입력신호를 출력하는 기능을 수행한다.The user input module 700 performs a function of outputting a specific input signal by a user's manipulation.

즉, 사용자 입력모듈(700)은 적어도 하나의 키 버튼(Key Button)을 구비하여 특정의 키 입력신호를 출력하는 모듈로서, 다수개의 문자 키, 숫자 키 및 각종 기능 키를 구비하여 사용자가 입력하는 키에 대응하는 키 입력신호를 제어모듈(400)로 출력하는 기능을 수행한다.That is, the user input module 700 includes at least one key button to output a specific key input signal. It performs a function of outputting a key input signal corresponding to the key to the control module 400 .

이러한 사용자 입력모듈(700)은 키 버튼으로 구현됨이 바람직하지만, 이에 국한하지 않으며, 예컨대, 키보드(Keyboard), 마우스(Mouse) 등으로 구성될 수도 있으며, 경우에 따라서는 리모콘으로 이루어질 수도 있다.The user input module 700 is preferably implemented as a key button, but is not limited thereto, and may include, for example, a keyboard, a mouse, and the like, and in some cases, a remote control.

통신모듈(800)은 사용자별로 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 통신망(10)을 통해 외부의 단말 및/또는 서버(20)로 송신하는 기능을 수행한다.The communication module 800 transmits text information data corresponding to and matching with the user's voice information data obtained from the voice acquisition module 100 for each user to an external terminal and/or server 20 through the communication network 10. perform the function

이때, 통신망(10)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 와이파이(WiFi), 와이기그(WiGig), 와이브로(Wireless Broadband Internet, Wibro), 와이맥스(World Interoperability for Microwave Access, Wimax) 등을 포함하는 차세대 무선 통신망일 수 있다.At this time, the communication network 10 is a communication network that is a high-speed backbone network of a large-scale communication network capable of large-capacity, long-distance voice and data services. It may be a next-generation wireless communication network including WiBro (Wireless Broadband Internet, Wibro) and Wimax (World Interoperability for Microwave Access, Wimax).

상기 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service) 등을 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미하며, 통신모듈(800)이 외부의 단말 및/또는 서버(20)에 접속될 수 있게 하는 환경을 제공한다. 한편, 상기 인터넷은 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망 일 수도 있다.The Internet includes the TCP/IP protocol and various services existing in its upper layers, namely HTTP (Hyper Text Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), It means a worldwide open computer network structure that provides SNMP (Simple Network Management Protocol), NFS (Network File Service), NIS (Network Information Service), etc., and the communication module 800 is an external terminal and/or server 20 ) to provide an environment that allows access to Meanwhile, the Internet may be a wired or wireless Internet, or may be a core network integrated with a wired public network, a wireless mobile communication network, or the portable Internet.

만약, 통신망(10)이 이동 통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 상기 비동기식 이동 통신망의 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 상기 이동 통신망은 예컨대, RNC(Radio Network Controller) 등을 포함할 수 있다. 한편, 상기 WCDMA망을 일 예로 들었지만, 셀룰러(cellular) 기반의 3G망, LTE망, 4G망, 5G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP 망일 수 있다. 이러한 통신망(10)은 통신모듈(800)과 외부의 단말 및/또는 서버(20) 간의 신호 및 데이터를 상호 전달하는 역할을 수행한다.If the communication network 10 is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. As an embodiment of the asynchronous mobile communication network, a wideband code division multiple access (WCDMA) type communication network may be used. In this case, although not shown in the drawings, the mobile communication network may include, for example, a Radio Network Controller (RNC). Meanwhile, although the WCDMA network is taken as an example, it may be a next-generation communication network such as a cellular-based 3G network, an LTE network, a 4G network, a 5G network, or other IP-based IP networks. The communication network 10 serves to mutually transmit signals and data between the communication module 800 and an external terminal and/or server 20 .

더욱이, 외부의 단말 및/또는 서버(20)는 통신모듈(800)을 통해 해당 각 사용자의 고유식별정보와 함께 표시모듈(200)의 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행할 수 있다.Moreover, the external terminal and/or server 20 corresponds to and matches the character information data displayed on the display screen of the display module 200 together with the unique identification information of each user through the communication module 800, consistent users It is possible to perform a function of storing and managing the user's voice information data that is consistent with corresponding and matched text information data for each user based on the received voice information data of the database (DB), stored and managed.

또한, 외부의 단말 및/또는 서버(200)는 통신모듈(800)을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB(미도시)를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 통신모듈(800)로 전송하는 기능을 수행할 수 있다.In addition, the external terminal and/or the server 200 receives the voice information data through the communication module 800, and based on the received voice information data, the voice recognition is completed through a separate voice information DB (not shown). It is possible to perform a function of searching for the same consistent voice information data as the data, calling the text information data matched with the searched identical consistent voice information data, and transmitting the same to the communication module 800 .

한편, 외부의 단말 및/또는 서버(20)는 무선 인터넷 또는 휴대 인터넷을 통하여 통신하는 다양한 이동 단말을 포함하고, 이외에도 팜(Palm) PC, 스마트폰(Smart phone), 스마트 패드(Smart Pad), 및 스마트 노트(Smart Note), 모바일 게임기(Mobile play-station), 통신 기능이 있는 DMB(Digital Multimedia Broadcasting)폰, 태블릿 PC, 아이패드(iPad) 등 통신모듈(800)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있다.On the other hand, the external terminal and/or the server 20 includes various mobile terminals communicating through the wireless Internet or the portable Internet, and in addition, a Palm PC, a smart phone, a smart pad, and a user interface for accessing the communication module 800, such as a smart note, a mobile play-station, a DMB (Digital Multimedia Broadcasting) phone with a communication function, a tablet PC, and an iPad. It may comprehensively mean all wired and wireless home appliances/communication devices having.

특히, 외부의 단말 및/서버(20)가 통상의 스마트폰으로 구현될 경우, 상기 스마트폰은 일반 핸드폰(일명 피처폰(feature phone))과는 달리 사용자가 원하는 다양한 어플리케이션(Application) 프로그램을 다운로드받아 자유롭게 사용하고 삭제가 가능한 오픈 운영체제를 기반으로 한 폰(Phone)으로서, 일반적으로 사용되는 음성/영상통화, 인터넷 데이터통신 등의 기능뿐만 아니라, 모바일 오피스 기능을 갖춘 모든 모바일 폰 또는 음성통화 기능이 없으나 인터넷 접속 가능한 모든 인터넷폰 또는 테블릿(Tablet) PC를 포함하는 통신기기로 이해함이 바람직하다.In particular, when the external terminal and/or server 20 is implemented as a normal smart phone, the smart phone downloads various application programs desired by the user, unlike a general mobile phone (aka feature phone). It is a phone based on an open operating system that can be received, used, and deleted freely. It supports not only commonly used functions such as voice/video calls and Internet data communication, but also all mobile phones or voice calls with mobile office functions. However, it is preferable to understand it as a communication device including any Internet phone or tablet PC that can access the Internet.

이와 같이 상기 스마트폰은 개방형 운영체계를 사용하므로 폐쇄적인 운영체계를 가진 휴대폰과 달리 사용자가 임의로 다양한 어플리케이션 프로그램을 설치하고 관리할 수 있다.As such, since the smart phone uses an open operating system, a user can install and manage various application programs arbitrarily, unlike a mobile phone having a closed operating system.

한편, 전술한 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치는, 예컨대, 스마트폰(Smart phone), 스마트 패드(Smart Pad), 및/또는 스마트 노트(Smart Note) 중 적어도 하나의 이동 통신 단말로 구현될 수 있으며, 이에 국한하지 않으며, 모바일 게임기(Mobile play-station), 태블릿 PC, 아이패드(iPad) 등 유/무선 통신 기능을 갖는 모든 유/무선 가전/통신 장치로 구현될 수도 있다.On the other hand, the personalized complementary and alternative communication device using voice recognition and artificial intelligence learning according to an embodiment of the present invention described above, for example, a smart phone (Smart phone), a smart pad (Smart Pad), and / or smart It may be implemented as at least one mobile communication terminal among smart notes, but is not limited thereto, and all wired/wireless communication functions such as mobile play-stations, tablet PCs, and iPads It may be implemented as /wireless home appliance/communication device.

이하에는 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 구체적으로 설명하기로 한다.Hereinafter, a personalized complementary and alternative communication method using speech recognition and artificial intelligence learning according to an embodiment of the present invention will be described in detail.

도 2 및 도 3은 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법을 설명하기 위한 전체적인 흐름도이다.2 and 3 are overall flowcharts for explaining a supplementary and alternative communication method customized for each individual using speech recognition and learning of artificial intelligence according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은, 별다른 설명이 없는 한 제어모듈(400)이 주체가 되어 수행된다.1 to 3, the control module 400 is the subject of the personalized complementary and alternative communication method using voice recognition and artificial intelligence learning according to an embodiment of the present invention, unless otherwise specified. do.

먼저, 표시모듈(200)을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시한다(S100). 이때, 상기 적어도 하나의 문자 정보데이터는 예컨대, 단어 및/또는 문장 중 적어도 하나로 이루어짐이 바람직하다.First, at least one text information data is displayed on the display screen through the display module 200 (S100). In this case, it is preferable that the at least one text information data includes, for example, at least one of a word and/or a sentence.

이후에, 음성획득모듈(100)을 통해 상기 단계S100에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득한다(S200).Thereafter, the user's voice information data corresponding to the text information data displayed in step S100 is repeatedly acquired a plurality of times through the voice acquisition module 100 (S200).

그런 다음, 제어모듈(400)을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계S200에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한다(S300).Then, it is checked whether the user's voice information data repeatedly acquired a plurality of times in step S200 is consistent by using a preset artificial intelligence learning mode through the control module 400 (S300).

이때, 상기 단계S300에서 기 설정된 인공지능 학습모드는 예컨대, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 및/또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용함이 바람직하다.In this case, the artificial intelligence learning mode preset in step S300 is, for example, at least one artificial intelligence of a neural network, a support vector machine (SVM), a multi layer perception (MLP), and/or deep learning. It is desirable to apply an (AI)-based machine learning method.

다음으로, 제어모듈(400)을 통해 상기 단계S100에서 표시된 문자정보 데이터와 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 저장모듈(300)에 저장한다(S400).Next, through the control module 400, the text information data displayed in step S100 and the user's voice information data consistent in step S300 are matched to each other and stored in the storage module 300 (S400).

이후에, 제어모듈(400)을 통해 기 설정된 음성인식 기법을 이용하여 음성획득모듈(100)로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행한다(S500).Thereafter, voice recognition is performed on the user's voice information data obtained from the voice acquisition module 100 using a preset voice recognition technique through the control module 400 (S500).

그럼 다음, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한다(S600).Then, through the control module 400, the voice information data of the user whose voice recognition is completed in step S500 and the consistent user's voice information data stored in the step S400 are compared and analyzed, and the voice of the user whose voice recognition is completed in step S500 is compared and analyzed. The same consistent voice information data as the information data is searched (S600).

다음으로, 제어모듈(400)을 통해 상기 단계S600에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여, 표시모듈(200)의 디스플레이 화면에 표시한다(S700).Next, the storage module 300 calls the text information data matched with the same consistent voice information data searched for in step S600 through the control module 400, and displays it on the display screen of the display module 200 ( S700).

추가적으로, 상기 단계S700 이후에, 제어모듈(400)을 통해 상기 단계S600에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 음성출력모듈(600)을 통해 출력한다(S800).Additionally, after the step S700, the storage module 300 calls the text information data matched with the same consistent voice information data searched for in the step S600 through the control module 400, and automatically converts a preset text-to-speech ( After converting the called text information data into voice using a Text to Speech (TTS) technique, the converted voice is output through the voice output module 600 (S800).

더욱이, 도면에 도시되진 않았지만, 상기 단계S100 이전 및/또는 상기 단계S400 이후에, 음성획득모듈(100)을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계와, 제어모듈(400)을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계와, 제어모듈(400)을 통해 사용자 입력모듈(700)로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계와, 제어모듈(400)을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 저장모듈(300)에 저장하는 제4 단계를 더 포함할 수 있다.Furthermore, although not shown in the drawings, a first step of repeatedly acquiring the user's voice information data a plurality of times through the voice acquisition module 100 before and/or after the step S400, and the control module A second step of checking whether the user's voice information data repeatedly acquired a plurality of times in the first step using a preset speech recognition technique through 400 is consistent, and the user through the control module 400 A third step of receiving text information data corresponding to the consistent user voice information data confirmed in the second step according to a specific input signal output from the input module 700; A storage module by matching the consistent user's voice information data identified in the second step with the text information data provided in the third step based on the consistent user's voice information data provided in step 3 and corresponding text information data A fourth step of storing in 300 may be further included.

또한, 도면에 도시되진 않았지만, 상기 단계S600 이후에, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 저장모듈(300)에서 호출하여 리스트(list) 형태로 표시모듈(200)의 디스플레이 화면에 표시하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, after the step S600, the voice information data of the voice recognition completed in the step S500 and the consistent user's voice information data stored in the step S400 are compared and analyzed through the control module 400, and the When the same consistent voice information data as the voice information data of the voice recognition completed in step S500 is not retrieved, the text information data matched in the order of the highest voice similarity with the voice information data of the voice recognition completed in the step S500 is stored in the storage module 300 ) and displaying it on the display screen of the display module 200 in the form of a list.

또한, 도면에 도시되진 않았지만, 제어모듈(400)을 통해 사용자 입력모듈(700)을 이용하여 해당 사용자에 의해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 표시모듈(200)의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 음성출력모듈(600)을 통해 출력하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the text information that is matched in the order of the highest voice similarity with the voice information data whose voice recognition is completed in step S500 by the corresponding user using the user input module 700 through the control module 400 . After selecting any one of the text information data, the selected text information data is displayed on the display screen of the display module 200 and at the same time, the selected text to speech (TTS) technique is used to display the selected text information. After converting the text information data into voice, the method may further include outputting the converted voice through the voice output module 600 .

한편, 상기 단계S100 내지 단계S800을 비롯하여 추가적으로 수행되는 단계들은 제어모듈(400)의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행함이 바람직하다.On the other hand, the additionally performed steps including the steps S100 to S800 are preferably performed through the execution of a pre-installed personalized supplementary and alternative communication-related application according to the control of the control module 400 .

또한, 제어모듈(400)을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 사용자 입력모듈(700)을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계S100 내지 단계S800을 비롯하여 추가적으로 수행되는 단계들을 수행할 수 있다.In addition, when the individual customized complementary and alternative communication related application is executed through the control module 400 , the user unique identification set based on the user unique identification information for authentication of the corresponding user input through the user input module 700 is executed After completion of authentication of the corresponding user by comparison with the information, additionally performed steps including steps S100 to S800 may be performed.

또한, 도면에 도시되진 않았지만, 상기 단계S400 이전 및/또는 이후에, 제어모듈(400)을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계S100에서 표시된 문자정보 데이터와 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 통신모듈(800)을 이용하여 외부의 단말 및/또는 서버(20)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the character information data displayed in step S100 together with the user's unique identification information preset through the control module 400 before and/or after step S400 and consistent user in step S300 The method may further include the step of matching each other so that the voice information data of the voice information is transmitted to the external terminal and/or the server 20 using the communication module 800 .

또한, 도면에 도시되진 않았지만, 외부의 단말 및/또는 서버(20)를 통해 통신모듈(800)로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계S100에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계S300에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, the text information data displayed in step S100 is matched and matched with the user's unique identification information transmitted from the communication module 800 through the external terminal and/or server 20 It may further include the step of storing and managing the consistent user's voice information data corresponding to and matched with the text information data for each user based on the consistent user's voice information data in step S300 into a database (DB), and storing and managing the same.

또한, 도면에 도시되진 않았지만, 상기 단계S600 이후에, 제어모듈(400)을 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 상기 단계S400에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여, 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계S500에서 음성인식 완료된 음성정보 데이터를 통신모듈(800)을 통해 외부의 단말 및/또는 서버(20)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, after the step S600, the voice information data of the voice recognition completed in the step S500 and the consistent user's voice information data stored in the step S400 are compared and analyzed through the control module 400, and the When it is not possible to search for the same consistent voice information data as the voice information data of the voice recognition completed in step S500, the voice information data of the voice recognition completed in the step S500 is transferred to an external terminal and/or server 20 through the communication module 800 in step S500. It may further include the step of transmitting to.

또한, 도면에 도시되진 않았지만, 외부의 단말 및/또는 서버(20)를 통해 통신모듈(800)로부터 전송된 상기 단계S500에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB(미도시)를 통해 상기 단계S500에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 상기 음성정보 DB에서 호출하여 통신모듈(800)로 전송하는 단계를 더 포함할 수도 있다.In addition, although not shown in the drawing, a separate voice information DB (not shown) based on the voice information data of which voice recognition is completed in step S500 transmitted from the communication module 800 through an external terminal and/or server 20 After searching for the same consistent voice information data as the voice information data for which voice recognition has been completed in step S500 through 800) may further include the step of transmitting.

한편, 본 발명의 일 실시예에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.On the other hand, the personalized complementary and alternative communication method using speech recognition and artificial intelligence learning according to an embodiment of the present invention can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, removable storage device, and non-volatile memory (Flash Memory). , and optical data storage devices.

또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed in a computer system connected through a computer communication network, and stored and executed as readable code in a distributed manner.

전술한 본 발명에 따른 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.Although the above-described preferred embodiment of the personalized complementary and alternative communication device and method using voice recognition and artificial intelligence learning according to the present invention has been described, the present invention is not limited thereto, and the claims and detailed description of the invention It is possible to carry out various modifications within the scope of the description and the accompanying drawings, and this also belongs to the present invention.

100 : 음성획득모듈,
200 : 표시모듈,
300 : 저장모듈,
400 : 제어모듈,
500 : 전원공급모듈,
600 : 음성출력모듈,
700 : 사용자 입력모듈,
800 : 통신모듈
100: voice acquisition module,
200: display module,
300: storage module,
400: control module,
500: power supply module,
600: voice output module,
700: user input module,
800: communication module

Claims (27)

사용자의 음성정보 데이터를 획득하는 음성획득모듈;
적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 표시모듈;
상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 데이터베이스(DB)화하여 저장하는 저장모듈; 및
기 설정된 인공지능 학습모드를 통해 적어도 하나의 문자정보 데이터가 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하고, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하며, 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 제어모듈이 포함되되,
상기 제어모듈은, 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터를 제공받아 기 설정된 음성인식 기법을 이용하여 상기 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하고, 상기 음성인식 완료된 사용자의 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하며, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
a voice acquisition module for acquiring the user's voice information data;
a display module for displaying at least one text information data on a display screen;
a storage module for storing the user's voice information data obtained from the voice acquisition module and text information data corresponding to the database (DB); and
The operation of the display module is controlled so that at least one text information data is displayed on the display screen through a preset artificial intelligence learning mode, and the user's voice information data corresponding to the text information data displayed on the display screen is displayed a plurality of times. Controls the operation of the voice acquisition module to be repeatedly acquired, and after confirming whether the user's voice information data repeatedly acquired a plurality of times from the voice acquisition module is consistent with the text information data displayed on the display screen A control module for controlling consistent user voice information data to be matched with each other and stored in the storage module is included,
The control module receives the user's voice information data obtained from the voice acquisition module and performs voice recognition on the acquired user's voice information data using a preset voice recognition technique, After comparing and analyzing the voice information data and the consistent user's voice information data stored in the storage module to search for the same consistent voice information data as the voice information data of the user who has completed the voice recognition, the same consistent voice information data and Controls the operation of the display module so that the matching text information data is called and displayed on the display screen, and the voice recognition is performed by comparing the voice information data of the voice recognition completed with the consistent voice information data of the user stored in the storage module. Learning of voice recognition and artificial intelligence, characterized in that when the same consistent voice information data as the completed voice information data is not retrieved, the voice recognition completed voice information data is transmitted to an external terminal or server through a separate communication module Personalized complementary and alternative communication device using
제1 항에 있어서,
음성정보 데이터를 출력하는 음성출력모듈이 더 포함되되,
상기 제어모듈은, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 호출된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 상기 음성출력모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A voice output module for outputting voice information data is further included,
The control module calls the text information data matched with the searched identical and consistent voice information data, and converts the called text information data into voice through a preset text-to-speech (TTS) technique. to control the operation of the voice output module so that it is output to the outside.
제1 항에 있어서,
상기 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The preset artificial intelligence learning mode is an artificial intelligence (AI)-based machine learning method of at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning. Personalized complementary and alternative communication device using speech recognition and artificial intelligence learning, characterized in that it applies.
제1 항에 있어서,
사용자의 조작에 의한 특정 입력신호를 출력하는 사용자 입력모듈이 더 포함되되,
상기 제어모듈은, 기 설정된 사용자 발성입력모드를 통해 해당 사용자의 음성정보 데이터가 복수의 횟수로 반복하여 획득되도록 상기 음성획득모듈의 동작을 제어하고, 상기 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인한 후, 상기 사용자 입력모듈로부터 출력된 특정 입력신호에 의해 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받아 이를 기반으로 상기 일관성 있는 사용자의 음성정보 데이터와 상기 사용자 입력모듈로부터 제공받은 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A user input module for outputting a specific input signal by a user's operation is further included,
The control module controls the operation of the voice acquisition module so that the voice information data of the corresponding user is repeatedly acquired a plurality of times through a preset user voice input mode, and the voice is acquired using the preset voice recognition technique After confirming whether the user's voice information data repeatedly acquired a plurality of times from the module is consistent, the user's voice information data and text information data corresponding to the consistent user's voice information data are provided by a specific input signal output from the user input module. Based on this, the consistent user's voice information data and the text information data provided from the user input module are matched with each other and are controlled to be stored in the storage module. Personalized supplementation using voice recognition and artificial intelligence learning Alternative communication devices.
제1 항에 있어서,
상기 제어모듈은, 상기 음성인식 완료된 음성정보 데이터와 상기 저장모듈에 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The control module compares and analyzes the voice information data of the voice recognition completed with the consistent user's voice information data stored in the storage module, and when it fails to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed, the Speech recognition and artificial intelligence, characterized in that the operation of the display module is controlled to be displayed on the display screen in the form of a list by calling the text information data matched in the order of high voice similarity with the voice information data of which voice recognition has been completed. Personalized complementary and alternative communication device using intelligence learning.
제5 항에 있어서,
상기 제어모듈은, 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택하고, 상기 선택된 문자정보 데이터가 상기 디스플레이 화면에 표시되도록 상기 표시모듈의 동작을 제어함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 통해 상기 선택된 문자정보 데이터를 음성으로 변환하여 외부로 출력되도록 별도의 음성출력모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
6. The method of claim 5,
The control module, by using a separate user input module, selects any one of the text information data from among the text information data matched in the order of the highest voice similarity to the voice information data that has been recognized by the user by the corresponding user, The operation of the display module is controlled so that the text information data is displayed on the display screen, and at the same time, the selected text information data is converted into voice through a preset text-to-speech (TTS) technique and output to the outside. An individual-customized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls the operation of a separate voice output module.
제1 항에 있어서,
상기 제어모듈은, 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The control module, through the execution of a pre-installed individual customized supplementary and alternative communication-related application, to control so that all functions related to individual customized supplementary and alternative communication are performed. communication device.
제7 항에 있어서,
상기 제어모듈은, 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 해당 사용자의 인증을 위한 사용자 고유식별정보를 입력받아 이를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 개인별 맞춤형 보완대체 의사소통관련 모든 기능이 수행되도록 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
8. The method of claim 7,
The control module receives the user's unique identification information for authentication of the corresponding user when executing the personalized complementary and alternative communication-related application, and compares it with preset user identification information based on the user's unique identification information after the user's authentication is completed. A personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls all functions related to customized complementary and alternative communication to be performed.
제1 항에 있어서,
사용자별로 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터와 대응 및 매칭되는 문자정보 데이터를 외부로 송신하는 통신모듈이 더 포함되되,
상기 제어모듈은, 기 설정된 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응되는 일관성 있는 사용자의 음성정보 데이터를 서로 매칭시켜 유/무선 통신을 통해 외부의 단말 또는 서버로 전송되도록 상기 통신모듈의 동작을 제어하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
A communication module for transmitting text information data corresponding to and matching with the user's voice information data obtained from the voice acquisition module for each user to the outside is further included,
The control module is configured to match the user's voice information data corresponding to the text information data displayed on the display screen together with the preset user's unique identification information with each other and transmit it to an external terminal or server through wired/wireless communication. An individual-customized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it controls the operation of the communication module.
제9 항에 있어서,
상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 해당 각 사용자의 고유식별정보와 함께 상기 디스플레이 화면에 표시된 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 제공받아 이를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
10. The method of claim 9,
The external terminal or server receives, through the communication module, consistent user's voice information data corresponding to and matched with the text information data displayed on the display screen together with the unique identification information of each user, and based on this, each user Personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that it stores and manages the consistent user's voice information data corresponding to and matched with text information data into a database (DB).
삭제delete 제1 항에 있어서,
상기 외부의 단말 또는 서버는, 상기 통신모듈을 통해 상기 음성인식 완료된 음성정보 데이터를 제공받아 이를 기반으로 별도의 음성정보 DB를 통해 상기 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하고, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The external terminal or server receives the voice information data through the communication module and searches for the same consistent voice information data as the voice information data through a separate voice information DB based on the received voice information data. , A personalized complementary and alternative communication device using voice recognition and artificial intelligence learning, characterized in that the searched text information data matched with the same consistent voice information data is called and transmitted to the communication module.
제1 항에 있어서,
상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어진 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치.
According to claim 1,
The at least one text information data is a personalized complementary and alternative communication device using speech recognition and artificial intelligence learning, characterized in that it consists of at least one of a word or a sentence.
음성획득모듈, 표시모듈, 저장모듈, 및 제어모듈을 포함하는 장치를 이용하여 개인별 맞춤형 보완대체 의사소통하는 방법으로서,
(a) 상기 표시모듈을 통해 적어도 하나의 문자정보 데이터를 디스플레이 화면에 표시하는 단계;
(b) 상기 음성획득모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 대응되는 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 단계;
(c) 상기 제어모듈을 통해 기 설정된 인공지능 학습모드를 이용하여 상기 단계(b)에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 단계;
(d) 상기 제어모듈을 통해 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 상기 저장모듈에 저장하는 단계;
(e) 상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 음성획득모듈로부터 획득된 사용자의 음성정보 데이터에 대해 음성인식을 수행하는 단계;
(f) 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 사용자의 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하는 단계; 및
(g) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 포함하되,
상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 별도의 통신모듈을 통해 외부의 단말 또는 서버로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
A method for personalized complementary and alternative communication using a device including a voice acquisition module, a display module, a storage module, and a control module, the method comprising:
(a) displaying at least one text information data on a display screen through the display module;
(b) repeatedly acquiring the user's voice information data corresponding to the text information data displayed in step (a) a plurality of times through the voice acquisition module;
(c) checking whether the user's voice information data repeatedly acquired a plurality of times in step (b) is consistent by using a preset artificial intelligence learning mode through the control module;
(d) matching the text information data displayed in step (a) with the voice information data of the user consistent in step (c) through the control module to correspond to each other and storing the same in the storage module;
(e) performing voice recognition on the user's voice information data obtained from the voice acquisition module using a preset voice recognition technique through the control module;
(f) through the control module, the voice information data of the user whose voice recognition has been completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed, and the voice recognition is completed in step (e) retrieving the same consistent voice information data as the user's voice information data; and
(g) calling the text information data matched with the same consistent voice information data retrieved in step (f) through the control module and displaying it on the display screen of the display module,
After the step (f), the voice information data of the voice recognition completed in the step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step (e). When it is not possible to search for the same consistent voice information data as the voice information data on which the voice recognition has been completed, the method further includes the step of transmitting the voice information data of the voice recognition completed in step (e) to an external terminal or server through a separate communication module. Personalized complementary and alternative communication method using speech recognition and artificial intelligence learning, characterized in that
제14 항에 있어서,
상기 단계(g) 이후에,
(h) 상기 제어모듈을 통해 상기 단계(f)에서 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하고, 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 호출된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
After step (g),
(h) calling the text information data matched with the same consistent voice information data retrieved in step (f) through the control module, and using a preset text-to-speech (TTS) technique After converting the called text information data into a voice, the converted voice is output through a separate voice output module. Personalized complementary and alternative communication using voice recognition and artificial intelligence learning, characterized in that it further comprises Way.
제14 항에 있어서,
상기 단계(c)에서 기 설정된 인공지능 학습모드는, 신경망(Neural Network), SVM(Support Vector Machine), MLP(Multi Layer Perception), 또는 딥러닝(Deep Learning) 중 적어도 하나의 인공지능(AI) 기반의 기계 학습방법을 적용하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
The artificial intelligence learning mode preset in step (c) is at least one of a neural network, a support vector machine (SVM), a multi layer perception (MLP), or deep learning (AI) A personalized complementary and alternative communication method using speech recognition and artificial intelligence learning, characterized by applying a machine learning method based on it.
제14 항에 있어서,
상기 단계(a) 이전 또는 상기 단계(d) 이후에,
상기 음성획득모듈을 통해 사용자의 음성정보 데이터를 복수의 횟수로 반복하여 획득하는 제1 단계;
상기 제어모듈을 통해 기 설정된 음성인식 기법을 이용하여 상기 제1 단계에서 복수의 횟수로 반복 획득된 사용자의 음성정보 데이터에 대해 일관성여부를 확인하는 제2 단계;
상기 제어모듈을 통해 별도의 사용자 입력모듈로부터 출력된 특정 입력신호에 따라 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 제공받는 제3 단계; 및
상기 제어모듈을 통해 상기 제3 단계에서 제공된 일관성 있는 사용자의 음성정보 데이터와 대응되는 문자정보 데이터를 기반으로 상기 제2 단계에서 확인된 일관성 있는 사용자의 음성정보 데이터와 상기 제3 단계에서 제공된 문자정보 데이터를 서로 매칭시켜 상기 저장모듈에 저장하는 제4 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
Before step (a) or after step (d),
a first step of repeatedly acquiring the user's voice information data a plurality of times through the voice acquisition module;
a second step of checking whether the user's voice information data repeatedly acquired a plurality of times in the first step using a preset voice recognition technique through the control module is consistent;
a third step of receiving, through the control module, text information data corresponding to the consistent user's voice information data confirmed in the second step according to a specific input signal output from a separate user input module; and
On the basis of the text information data corresponding to the consistent user's voice information data provided in the third step through the control module, the consistent user's voice information data confirmed in the second step and the text information provided in the third step Personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence, characterized in that it further comprises a fourth step of matching data with each other and storing the data in the storage module.
제14 항에 있어서,
상기 단계(f) 이후에, 상기 제어모듈을 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 상기 단계(d)에서 저장된 일관성 있는 사용자의 음성정보 데이터를 비교 분석하여 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색하지 못한 경우, 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터를 호출하여 리스트(list) 형태로 상기 표시모듈의 디스플레이 화면에 표시하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
After the step (f), the voice information data of the voice recognition completed in step (e) and the consistent user's voice information data stored in the step (d) are compared and analyzed through the control module in the step (e). When it is not possible to search for the same consistent voice information data as the voice information data of the voice recognition completed, in the step (e), the text information data matched with the voice information data of the voice recognition completed and the voice information data in the order of high voice similarity are called and listed. ) in the form of displaying on the display screen of the display module, personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence.
제18 항에 있어서,
상기 제어모듈을 통해 별도의 사용자 입력모듈을 이용하여 해당 사용자에 의해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 음성 유사도가 높은 순으로 매칭되어 있는 문자정보 데이터 중 어느 하나의 문자정보 데이터를 선택한 후, 상기 선택된 문자정보 데이터를 상기 표시모듈의 디스플레이 화면에 표시함과 동시에 기 설정된 문자음성 자동변환(Text to Speech, TTS) 기법을 이용하여 상기 선택된 문자정보 데이터를 음성으로 변환한 후, 상기 변환된 음성을 별도의 음성출력모듈을 통해 출력하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
19. The method of claim 18,
Using a separate user input module through the control module, any one of the text information data matched with the voice information data that has been voice recognized in step (e) in the order of high voice similarity by the corresponding user After selection, the selected text information data is displayed on the display screen of the display module and, at the same time, the selected text information data is converted into voice using a preset text-to-speech (TTS) technique, and the Personalized complementary and alternative communication method using speech recognition and learning of artificial intelligence, characterized in that it further comprises the step of outputting the converted voice through a separate voice output module.
제14 항에 있어서,
상기 단계(a) 내지 단계(g)는, 상기 제어모듈의 제어에 따라 미리 설치된 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행을 통해 수행하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
The steps (a) to (g) are individually customized using voice recognition and artificial intelligence learning, characterized in that it is performed through the execution of a pre-installed personalized supplementary and alternative communication related application according to the control of the control module. Complementary and Alternative Communication Methods.
제20 항에 있어서,
상기 제어모듈을 통해 상기 개인별 맞춤형 보완대체 의사소통관련 어플리케이션의 실행 시, 별도의 사용자 입력모듈을 통해 입력된 해당 사용자의 인증을 위한 사용자 고유식별정보를 기반으로 기 설정된 사용자 고유식별정보와 비교하여 해당 사용자의 인증 완료 후 상기 단계(a) 내지 단계(g)를 수행하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
21. The method of claim 20,
When the individual customized complementary and alternative communication-related application is executed through the control module, the corresponding user-specific identification information is compared with preset user-specific identification information for authentication of the user input through a separate user input module. A personalized complementary and alternative communication method using voice recognition and learning of artificial intelligence, characterized in that the steps (a) to (g) are performed after the user's authentication is completed.
제14 항에 있어서,
상기 단계(d) 이전 또는 이후에, 상기 제어모듈을 통해 기 설정된 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터가 대응되도록 서로 매칭시켜 별도의 통신모듈을 이용하여 외부의 단말 또는 서버로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
Before or after step (d), the text information data displayed in step (a) together with the user's unique identification information preset through the control module and the consistent user's voice information data in step (c) correspond to each other Matching each other as much as possible and transmitting it to an external terminal or server using a separate communication module.
제22 항에 있어서,
상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 해당 각 사용자의 고유식별정보와 함께 상기 단계(a)에서 표시된 문자정보 데이터와 대응 및 매칭된 상기 단계(c)에서 일관성 있는 사용자의 음성정보 데이터를 기반으로 사용자별로 문자정보 데이터와 대응 및 매칭된 일관성 있는 사용자의 음성정보 데이터를 데이터베이스(DB)화하여 저장 및 관리하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
23. The method of claim 22,
Consistent user's voice information in step (c) corresponding to and matching with the text information data displayed in step (a) together with the user's unique identification information transmitted from the communication module through the external terminal or server Using the learning of voice recognition and artificial intelligence, characterized in that it further comprises the step of storing and managing the consistent user's voice information data corresponding to and matched with the text information data for each user based on the data into a database (DB) Complementary and alternative communication methods tailored to each individual.
삭제delete 제14 항에 있어서,
상기 외부의 단말 또는 서버를 통해 상기 통신모듈로부터 전송된 상기 단계(e)에서 음성인식 완료된 음성정보 데이터를 기반으로 별도의 음성정보 DB를 통해 상기 단계(e)에서 음성인식 완료된 음성정보 데이터와 동일한 일관성 있는 음성정보 데이터를 검색한 후, 상기 검색된 동일한 일관성 있는 음성정보 데이터와 매칭되어 있는 문자정보 데이터를 호출하여 상기 통신모듈로 전송하는 단계를 더 포함하는 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
On the basis of the voice information data of the voice recognition completed in step (e) transmitted from the communication module through the external terminal or server, the same as the voice information data of the voice recognition completed in step (e) through a separate voice information DB Speech recognition and artificial intelligence learning, characterized in that after searching for consistent voice information data, calling the text information data matched with the searched identical consistent voice information data and transmitting it to the communication module Personalized complementary and alternative communication method using
제14 항에 있어서,
상기 단계(a)에서, 상기 적어도 하나의 문자 정보데이터는, 단어 또는 문장 중 적어도 하나로 이루어진 것을 특징으로 하는 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 방법.
15. The method of claim 14,
In the step (a), the at least one text information data, a personalized complementary and alternative communication method using speech recognition and learning of artificial intelligence, characterized in that at least one of a word or a sentence.
제14 항 내지 제23 항, 제25 항, 및 제26 항 중 어느 한 항의 방법을 컴퓨터로 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program capable of executing the method of any one of claims 14 to 23, 25, and 26 by a computer is recorded.
KR1020210019074A 2021-02-10 2021-02-10 User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof KR102309505B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019074A KR102309505B1 (en) 2021-02-10 2021-02-10 User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019074A KR102309505B1 (en) 2021-02-10 2021-02-10 User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof

Publications (1)

Publication Number Publication Date
KR102309505B1 true KR102309505B1 (en) 2021-10-06

Family

ID=78077133

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019074A KR102309505B1 (en) 2021-02-10 2021-02-10 User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof

Country Status (1)

Country Link
KR (1) KR102309505B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064143A (en) * 2021-11-03 2023-05-10 송상민 Apparatus and method providing augmentative and alternative communication using prediction based on machine learning
KR20230065736A (en) * 2021-11-05 2023-05-12 주식회사 엘지유플러스 Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213016A (en) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd Method and device for speech recognition
KR101169249B1 (en) 2011-03-10 2012-08-06 나사렛대학교 산학협력단 Apparatus for augmentative and alternative communication for the disabled
KR101591883B1 (en) * 2014-09-02 2016-02-19 포항공과대학교 산학협력단 User adaptive speech auxiliary device using neural network based hardware
KR102112822B1 (en) * 2019-08-19 2020-05-19 주식회사 샤크로 Augmentative and alterative communication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213016A (en) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd Method and device for speech recognition
KR101169249B1 (en) 2011-03-10 2012-08-06 나사렛대학교 산학협력단 Apparatus for augmentative and alternative communication for the disabled
KR101591883B1 (en) * 2014-09-02 2016-02-19 포항공과대학교 산학협력단 User adaptive speech auxiliary device using neural network based hardware
KR102112822B1 (en) * 2019-08-19 2020-05-19 주식회사 샤크로 Augmentative and alterative communication system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
등록특허공보 제10-1591883호(2016.2.19. 공고) 1부.*
등록특허공보 제10-2112822호(2020.5.19. 공고) 1부.*
박순찬, ‘[Tech & BIZ] 보고 듣고 말하지 못하는 이들에게...AI가 찾아갑니다’, 조선일보[Online], 2019.5.23.공지, 인터넷 URL<https://biz.chosun.com/site/data/html_dir/2019/05/23/2019052300124.html>* *
일본 공개특허공보 특개2004-213016호(2004.7.29. 공개) 1부.*

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064143A (en) * 2021-11-03 2023-05-10 송상민 Apparatus and method providing augmentative and alternative communication using prediction based on machine learning
KR102573967B1 (en) 2021-11-03 2023-09-01 송상민 Apparatus and method providing augmentative and alternative communication using prediction based on machine learning
KR20230065736A (en) * 2021-11-05 2023-05-12 주식회사 엘지유플러스 Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor
KR102613249B1 (en) * 2021-11-05 2023-12-13 주식회사 엘지유플러스 Method for providing security and personalization service through personal voice identification based on artificial intelligence and apparatus therefor

Similar Documents

Publication Publication Date Title
KR102309505B1 (en) User-customized augmentative and alternative communication apparatus using speech recognition and intelligence and method thereof
KR101972955B1 (en) Method and apparatus for connecting service between user devices using voice
US10057125B1 (en) Voice-enabled home setup
US9886952B2 (en) Interactive system, display apparatus, and controlling method thereof
CN111261144B (en) Voice recognition method, device, terminal and storage medium
US20180301148A1 (en) Connecting assistant device to devices
CN111095892B (en) Electronic device and control method thereof
US10212040B2 (en) Troubleshooting voice-enabled home setup
US10176807B2 (en) Voice setup instructions
CN111919249A (en) Continuous detection of words and related user experience
KR20150090966A (en) Method For Providing Search Result And Electronic Device Using The Same
US20200321002A1 (en) System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection
KR101542130B1 (en) Finger-language translation providing system for deaf person
KR20190058066A (en) Method and Apparatus for Managing of Consulting Data
US8595016B2 (en) Accessing content using a source-specific content-adaptable dialogue
JP2023506186A (en) USER TERMINAL, VIDEO CALL DEVICE, VIDEO CALL SYSTEM AND CONTROL METHOD THEREOF
KR102304993B1 (en) Method for providing Text-To-Speech service and relay server for the same
JP2013205523A (en) Response generation apparatus, response generation method and response generation program
WO2015143114A1 (en) Sign language translation apparatus with smart glasses as display featuring a camera and optionally a microphone
KR20200116688A (en) Dialogue processing apparatus, vehicle having the same and dialogue processing method
KR20200062004A (en) Apparatus for aiding foreign language learning and method thereof
KR102357620B1 (en) Chatbot integration agent platform system and service method thereof
KR102371038B1 (en) A chat system and translation service that can support multilingual translation
JP2023506469A (en) User terminal and its control method
US20230274101A1 (en) User terminal, broadcasting apparatus, broadcasting system comprising same, and control method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant