KR102456526B1 - Method for providing communication assistance service for people with disabilities - Google Patents

Method for providing communication assistance service for people with disabilities Download PDF

Info

Publication number
KR102456526B1
KR102456526B1 KR1020220066881A KR20220066881A KR102456526B1 KR 102456526 B1 KR102456526 B1 KR 102456526B1 KR 1020220066881 A KR1020220066881 A KR 1020220066881A KR 20220066881 A KR20220066881 A KR 20220066881A KR 102456526 B1 KR102456526 B1 KR 102456526B1
Authority
KR
South Korea
Prior art keywords
sentence
input
server
category
voice
Prior art date
Application number
KR1020220066881A
Other languages
Korean (ko)
Inventor
이승안
Original Assignee
이승안
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이승안 filed Critical 이승안
Priority to KR1020220066881A priority Critical patent/KR102456526B1/en
Application granted granted Critical
Publication of KR102456526B1 publication Critical patent/KR102456526B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

An embodiment of the present invention provides a method for providing communication assistance service for people with disabilities. The method for providing communication assistance service for people with disabilities includes the steps of: obtaining a user's voice input from a user terminal, to store the same; obtaining, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input; providing a voice file corresponding to the first sentence to the user terminal; obtaining, from the user terminal, an input for selecting a second category and an input different from the voice input; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; providing a voice file corresponding to the one sentence to the user terminal; providing first custom language set information to a consumer terminal; obtaining, from the consumer terminal, a replacement voice input to replace the voice input in the first custom language set information, to store the same; and generating second custom language set information based on the replacement voice input.

Description

장애인을 위한 의사소통 보조 서비스 제공 방법{METHOD FOR PROVIDING COMMUNICATION ASSISTANCE SERVICE FOR PEOPLE WITH DISABILITIES}METHOD FOR PROVIDING COMMUNICATION ASSISTANCE SERVICE FOR PEOPLE WITH DISABILITIES

본 발명의 실시예들은 장애인을 위한 의사소통 보조 서비스 제공 방법에 대한 것이다.Embodiments of the present invention relate to a method of providing a communication assistance service for the disabled.

기존 의사소통 보조기기에는 텍스트를 음성으로 표현하는 기술이 존재한다. 기존 소프트웨어는 텍스트의 음성화, 음성의 텍스트화를 지원하나 대부분 번역을 위한 것이라 내국인과의 사용시 사용이 불편하다.Existing communication assistive devices have a technology for expressing text into voice. Existing software supports text-to-speech and voice-to-text, but most of them are for translation, so it is inconvenient to use with Koreans.

기본적인 의사소통이 힘든 장애인들이 사람들과 상호작용하는 방법은 여러가지가 있다. 다만, 비장애인이 이를 인식하는 데 어려움이 있어 대체적인 의사소통 방식이 필요한 장애인, 언어를 구사하고 습득하는 능력이 부족한 사람 등은 동행하는 도우미의 도움을 받거나, 휴대폰 메모장을 이용해 문장을 전달하는 등의 방법을 사용하고 있다. 이 경우, 장애인들은 외출 시 반드시 보호자와 동행을 해야 하므로 독립적인 생활에 지장이 있고, 의사소통 시간이 지연되는 등 어려가지 문제점이 있다. 하지만, 아직 언어 장애나 지적장애 등을 가지고 있는 사람들을 위한 독립적인 언어 체계는 없는 상태이다.There are many ways in which people with disabilities who have difficulty in basic communication interact with people. However, people with disabilities who need an alternative communication method because non-disabled people have difficulties in recognizing it, or those who lack the ability to speak and acquire a language, need help from an accompanying assistant or use a cell phone memo pad to deliver sentences, etc. is using the method of In this case, since the disabled must be accompanied by a guardian when going out, there are difficulties such as hindering independent living and delaying communication time. However, there is still no independent language system for people with language or intellectual disabilities.

이러한 한계점을 보완하기 위해 나온 것이 AAC(augmentative and alternative communication), 즉 보완/대체 의사소통이다. 따로 언어 체계가 있다거나, 형태가 있는 것은 아니지만, 말 운동장애나 뇌성마비, 지적장애 등을 가지고 있는 사람들이 자신의 의사를 상대방에게 전달하기 위해 말 대신 사용할 수 있는 다양한 방식의 의사소통을 의미한다.AAC (augmentative and alternative communication), that is, complementary/alternative communication, has emerged to overcome these limitations. Although there is no separate language system or form, it refers to various methods of communication that people with speech movement disorders, cerebral palsy, or intellectual disabilities can use instead of words to communicate their intentions to others.

AAC를 지원하는 스마트폰 애플리케이션들이 현재 존재한다. 대부분의 애플리케이션에서는 제공하는 기능은 식당, 병원 등에서 자주 쓰이는 단어나 서술어 위에 그림이 그려져 있고, 그 그림들을 조합시켜 문장으로 만들 수 있는 기능이다. 또한 문장을 입력하면 기계가 음성으로 변환을 해 주기도 한다. 다만, 이러한 기능들은 매우 한정적이고, 원하는 문장을 말할 때 그림을 선택하려면 시간이 오래 걸릴 뿐만 아니라, 원하는 바를 정확히 전달하기도 어렵게 된다. 따라서, 보다 향상되고 편리한 방법의 AAC 방법이 필요하다.Smartphone applications that support AAC currently exist. The function provided by most applications is the ability to create sentences by drawing pictures on words or predicates frequently used in restaurants and hospitals, and combining the pictures. Also, when you input a sentence, the machine converts it into speech. However, these functions are very limited, and it takes a long time to select a picture when speaking a desired sentence, and it is difficult to convey exactly what you want. Therefore, there is a need for a more improved and convenient AAC method.

본 발명의 실시예들은, 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 및 그 동작 방법을 제공할 수 있다. Embodiments of the present invention may provide a service providing server for communication between the disabled and the non-disabled and an operating method thereof.

실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical problems to be achieved in the embodiments are not limited to those mentioned above, and other technical problems not mentioned may be considered by those of ordinary skill in the art from various embodiments to be described below. can

실시예들에 따르면, 적어도 하나의 서버에 의해 수행되는 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법에 있어서, 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.According to embodiments, there is provided a service providing method for communication between the disabled and the non-disabled performed by at least one server, the method comprising: acquiring and storing a user's voice input from a user terminal; obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step; obtaining, from the user terminal, an input for selecting the first category and the voice input; and providing, to the user terminal, a voice file corresponding to the first sentence based on an input for selecting the first category and the voice input.

여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하는 단계; 및 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계는, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.Here, the step of obtaining, by the server, an image input for a gesture to be matched with the first sentence from the user terminal and storing; and obtaining the image input from the user terminal, wherein the step of providing the audio file corresponding to the first sentence includes, by the server, an input for selecting the first category to the user terminal , providing an audio file corresponding to the first sentence based on the audio input and the image input.

여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계를 더 포함할 수 있다.Here, obtaining, by the server, an input for selecting the second category and an input different from the voice input from the user terminal; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; and providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category.

여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.

여기서, 상기 서버가, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계를 더 포함할 수 있다.Here, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may further include the step of providing.

본 발명의 일 실시예는 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버에 있어서, 프로세서(processor); 송수신기(transceiver); 및 메모리(memory); 를 포함하고, 상기 프로세서는: 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하고; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되고; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.An embodiment of the present invention provides a server for providing a service for communication between the disabled and the non-disabled, comprising: a processor; transceiver; and memory; wherein the processor is configured to: obtain and store, from the user terminal, the user's voice input; obtain, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; obtaining, from the user terminal, an input for selecting the first category and the voice input; In addition, the user terminal may be configured to provide an input for selecting the first category and a voice file corresponding to the first sentence based on the voice input.

여기서, 상기 프로세서는, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하고; 그리고 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.Here, the processor obtains and stores, from the user terminal, an image input for a gesture to be matched with the first sentence; and obtaining the image input from the user terminal, wherein the server provides the user terminal with the first category based on the input for selecting the first category, the audio input, and the image input. It may be set to provide a voice file corresponding to a sentence.

여기서, 상기 프로세서는, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하고; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하도록 더 설정될 수 있다.Here, the processor obtains, from the user terminal, an input for selecting the second category and an input different from the voice input; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; And it may be further configured to provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.

여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.

여기서, 상기 프로세서는, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하도록 더 설정될 수 있다.Here, the processor provides, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may be further set to provide.

실시예들에 따르면, 사용자는 실제로 구사할 수 있는 단어나 문장이 많지 않더라도, 자신이 원하는 내용을 비장애인들에게 명확히 전달할 수 있다. 또한, 자신이 자신의 언어 체계를 직접 만들어 나갈 수 있기 때문에, 언어 체계를 습득하기가 용이하다. 거의 음성을 내기 어려운 사람들도, 하나의 음성만으로도 여러 의미를 전달할 수 있기 때문에 효과적인 의사소통이 가능하게 된다.According to embodiments, the user can clearly convey the content he/she wants to non-disabled people even if there are not many words or sentences that can actually be used. In addition, it is easy to acquire a language system because you can create your own language system. Even people who can hardly speak a voice can communicate effectively because a single voice can convey multiple meanings.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those of ordinary skill in the art based on the following detailed description. can be

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버를 포함하는 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 3은 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.
도 4는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제1 커스텀 언어 세트를 도시한 도면이다.
도 5는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제2 커스텀 언어 세트를 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the embodiments, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a system diagram including a service providing server for communication between the disabled and non-disabled people according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a server that provides a service for communication between the disabled and the non-disabled according to an embodiment of the present invention.
3 is a diagram illustrating an embodiment of a method of operating a service providing server for communication between the disabled and the non-disabled.
4 is a diagram illustrating a first custom language set according to an embodiment of a service method for communication between disabled and non-disabled people.
5 is a diagram illustrating a second custom language set according to an embodiment of a service method for communication between the disabled and the non-disabled.

이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment.

도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of various embodiments are not described, and procedures or steps that can be understood at the level of those of ordinary skill in the art are also not described. did.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising or including" a certain component, it does not exclude other components unless otherwise stated, meaning that other components may be further included. do. In addition, terms such as "... unit", "... group", and "module" described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, "a or an", "one", "the" and like related terms are used herein in the context of describing various embodiments (especially in the context of the claims that follow). Unless otherwise indicated or clearly contradicted by context, it may be used in a sense including both the singular and the plural.

이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of various embodiments, and is not intended to represent the only embodiments.

또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to help the understanding of various embodiments, and the use of these specific terms may be changed to other forms without departing from the technical spirit of various embodiments. .

도 1을 참조하면, 본 발명의 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 PC(Personal Computer) 등과 같이 저장공간을 구비하고 인터넷에 연결될 수 있으며 휴대가 용이하지 않는 컴퓨팅 장치에서 수행되거나 스마트폰 등과 같이 휴대용 단말기에서 수행될 수 있다. 이때 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법이 구현된 어플리케이션(application)이 앱스토어(App store)등에서 다운되어 상기 휴대용 단말기에 설치된 후 실행될 수 있다.Referring to FIG. 1 , the method of providing a service for communication between the disabled and the non-disabled according to an embodiment of the present invention is a computing device that has a storage space such as a personal computer (PC), can be connected to the Internet, and is not easy to carry. It may be performed in a portable terminal such as a smart phone or the like. At this time, the method of providing a service for communication between the disabled and the non-disabled is that the application implementing the method is downloaded from the App Store and installed on the portable terminal. can be executed later.

그리고 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 CD(Compact Disc) 또는 USB(Universal Serial Bus) 메모리 등과 같은 기록매체에 기록된 상태에서 PC 등과 같은 컴퓨팅 장치에 삽입되어 상기 컴퓨팅 장치의 액세스 동작을 통해서 수행되거나 상기 기록매체로부터 컴퓨팅 장치의 저장공간에 저장된 후 컴퓨팅 장치의 액세스 동작을 통해서 수행될 수도 있다.And the method of providing a service for communication between the disabled and the non-disabled is inserted into a computing device such as a PC while being recorded in a recording medium such as a CD (Compact Disc) or USB (Universal Serial Bus) memory to access the computing device. It may be performed through an operation or may be performed through an access operation of the computing device after being stored in the storage space of the computing device from the recording medium.

한편 상기 컴퓨팅 장치 또는 휴대용 단말기가 인터넷에 연결된 서버에 접속가능한 경우, 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 상기 컴퓨팅 장치 또는 휴대용 단말기의 요청에 따라 서버에서도 실행될 수 있다.On the other hand, when the computing device or the portable terminal can access a server connected to the Internet, the method of providing a service for communication between the disabled and non-disabled can also be executed on the server at the request of the computing device or the portable terminal.

이하에서 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법이 실행되는 컴퓨팅 장치, 휴대용 단말기 또는 서버 등을 통칭하여 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치라고 칭할 수 있다.Hereinafter, the computing device, portable terminal, or server on which the above method of providing a service for communication between the disabled and non-disabled is executed may be collectively referred to as a service providing device for communication between the disabled and non-disabled.

상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치는 도 2에 예시된 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치와 동일한 구성을 가질 수 있으며, 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치는 도 1에 도시된 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치에 국한되지 않을 수 있다.The above   service providing device for communication between the disabled and non-disabled people may have the same configuration as the   service providing device for communication between the disabled and non-disabled illustrated in FIG. 2, and the above   service for communication between the disabled and non-disabled people The provision   device may not be limited to the   service provision device for communication between the disabled and non-disabled people shown in FIG. 1 .

일 실시예에 따른 시스템은 사용자 단말(100, 110), 소비자 단말(120, 130), 및 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(200)(이하, 서버(200))를 포함할 수 있다. 네트워크는 인터넷 포털 사이트 서버, SNS 서버, 블로그를 운영하는 서버 등을 포함할 수 있다.The system according to an embodiment may include user terminals 100 and 110, consumer terminals 120 and 130, and a service providing server 200 (hereinafter, server 200) for communication between the disabled and non-disabled people. can The network may include an Internet portal site server, an SNS server, a server operating a blog, and the like.

사용자 단말(100, 110), 소비자 단말(120, 130)은, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 단말(100, 110), 소비자 단말(120, 130)은 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.The user terminals 100 and 110 and the consumer terminals 120 and 130 are a smart phone, a tablet PC, a PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, a micro server, and a global positioning system (GPS). ) devices, e-book terminals, digital broadcast terminals, navigation devices, kiosks, MP3 players, digital cameras, home appliances, camera-equipped devices, and other mobile or non-mobile computing devices, but is not limited thereto. In addition, the user terminals 100 and 110 and the consumer terminals 120 and 130 may be wearable devices having a communication function and a data processing function. However, it is not limited thereto.

서버(200)는 사용자 단말(100, 110), 소비자 단말(120, 130)과, 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 200 is implemented as a computer device or a plurality of computer devices that communicate with the user terminals 100 and 110 and the consumer terminals 120 and 130 through a network to provide commands, codes, files, contents, services, etc. can be

일례로, 서버(200)는 네트워크를 통해 접속한 사용자 단말(100, 110), 소비자 단말(120, 130)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말(100, 110), 소비자 단말(120, 130)은 서버(200)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다.For example, the server 200 may provide a file for installing an application to the user terminals 100 and 110 and the consumer terminals 120 and 130 connected through a network. In this case, the user terminals 100 and 110 and the consumer terminals 120 and 130 may install an application using a file provided from the server 200 .

또한, 사용자 단말(100, 110), 소비자 단말(120, 130)은 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(200)에 접속하여, 서버(200)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.In addition, the user terminals 100, 110, and the consumer terminals 120 and 130 access the server 200 under the control of an operating system (OS) and at least one program (eg, a browser or an installed application), A service or content provided by the server 200 may be provided.

다른 예로, 서버(200)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 사용자 단말(100, 110), 소비자 단말(120, 130) 간의 데이터 송수신을 라우팅할 수도 있다.As another example, the server 200 may establish a communication session for data transmission/reception, and route data transmission/reception between the user terminals 100 and 110 and the consumer terminals 120 and 130 through the established communication session.

사용자 단말(100, 110), 소비자 단말(120, 130) 및 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(200)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The user terminals 100 and 110, the consumer terminals 120 and 130, and the service providing server 200 for communication between the disabled and the non-disabled may perform communication using a network. For example, a network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, a satellite communication network, and their It is a data communication network in a comprehensive sense that includes mutual combinations and enables each network constituent entity shown in FIG. 1 to communicate smoothly with each other, and may include a wired Internet, a wireless Internet, and a mobile wireless communication network. In addition, wireless communication is, for example, wireless LAN (Wi-Fi), Bluetooth, Bluetooth low energy, Zigbee, WFD (Wi-Fi Direct), UWB (ultra wideband), infrared communication (IrDA, infrared) Data Association), NFC (Near Field Communication), etc. may be there, but is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of a server that provides a service for communication between the disabled and the non-disabled according to an embodiment of the present invention.

도 2를 참조하면, 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버(200)(이하, 서버(200))는 통신부(210), 프로세서(220) 및 DB(230)를 포함할 수 있다. 도 2의 서버(200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.Referring to FIG. 2 , the server 200 (hereinafter, the server 200 ) that provides a service for communication between the disabled and the non-disabled may include a communication unit 210 , a processor 220 , and a DB 230 . have. In the server 200 of FIG. 2, only the components related to the embodiment are shown. Accordingly, it can be understood by those skilled in the art that other general-purpose components may be further included in addition to the components shown in FIG. 2 .

통신부(210)는 단말들 간 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.The communication unit 210 may include one or more components that enable wired/wireless communication between terminals. For example, the communication unit 210 may include at least one of a short-range communication unit (not shown), a mobile communication unit (not shown), and a broadcast receiving unit (not shown).

일례로, DB(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(210)의 제어에 따라 네트워크를 통해 단말로 전달될 수 있다. 역으로, 단말의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신부(210)을 통해 서버(200)로 수신될 수 있다. 예를 들어, 통신부(210)를 통해 수신된 서버(200)의 제어 신호나 명령, 컨텐츠 및 파일 등은 프로세서(220)로 전달되거나 DB(230)로 전달되어 저장될 수 있다.For example, a request generated according to a program code stored in a recording device such as the DB 230 may be transmitted to the terminal through a network under the control of the communication unit 210 . Conversely, a control signal, command, content, file, etc. provided under the control of the processor of the terminal may be received by the server 200 through the communication unit 210 through the network. For example, a control signal, command, content, file, etc. of the server 200 received through the communication unit 210 may be transmitted to the processor 220 or transmitted to the DB 230 and stored.

DB(230)는 서버(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.The DB 230 is hardware for storing various data processed in the server 200 , and may store a program for processing and controlling the processor 220 .

DB(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. DB(230)는 메모리라고 나타낼 수도 있다.DB 230 is a random access memory (RAM), such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory. The DB 230 may also be referred to as a memory.

프로세서(220)는 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 DB(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), DB(230) 등을 전반적으로 제어할 수 있다. 프로세서(220)는, DB(230)에 저장된 프로그램들을 실행함으로써, 외부 서버(200)의 동작을 제어할 수 있다.The processor 220 controls the overall operation of the server 200 . For example, the processor 220 may generally control the input unit (not shown), the display (not shown), the communication unit 210 , the DB 230 , and the like by executing programs stored in the DB 230 . The processor 220 may control the operation of the external server 200 by executing programs stored in the DB 230 .

통신부(210)는, 서버(200)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 서버(200)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 통신부(210)는 네트워크를 통해, 다른 전자 장치로부터의 사용자 입력을 수신하거나, 외부 장치로부터 외부 장치에 저장된 데이터를 수신할 수 있다. The communication unit 210 may include one or more components that allow the server 200 to communicate with another device (not shown) and a server (not shown). The other device (not shown) may be a computing device such as the server 200 or a sensing device, but is not limited thereto. The communication unit 210 may receive a user input from another electronic device or data stored in an external device from an external device through a network.

DB(230)는, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, DB(230)는 서비스 제공을 위한 인스트럭션(instruction)을 저장할 수 있다. 또한 DB(230)는 프로세서(220)에서 생성된 데이터를 저장할 수 있다. 예를 들어, DB(230)는 프로세서(220)가 제공하는 장애인과 비장애인의 의사소통을 위한 서비스와 관련된 정보를 저장할 수 있다. DB(230)는 서버(200)로 입력되거나 서버(200)로부터 출력되는 정보를 저장할 수도 있다. The DB 230 may store a program for processing and controlling the processor 220 . For example, the DB 230 may store an instruction for providing a service. Also, the DB 230 may store data generated by the processor 220 . For example, the DB 230 may store information related to a service for communication between the disabled and the non-disabled provided by the processor 220 . The DB 230 may store information input to or output from the server 200 .

프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 220 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, and microcontrollers. It may be implemented using at least one of (micro-controllers), microprocessors, and other electrical units for performing functions.

DB(230)는 프로세서(220)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하고; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되고; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.The DB 230 may store at least one instruction executed through the processor 220 . The at least one command is to obtain and store, from the user terminal, the user's voice input; obtain, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; obtaining, from the user terminal, an input for selecting the first category and the voice input; In addition, the user terminal may be configured to provide an input for selecting the first category and a voice file corresponding to the first sentence based on the voice input.

여기서, 상기 적어도 하나의 명령은, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하고; 그리고 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.Here, the at least one command may include: acquiring and storing an image input for a gesture to be matched with the first sentence from the user terminal; and obtaining the image input from the user terminal, wherein the server provides the user terminal with the first category based on the input for selecting the first category, the audio input, and the image input. It may be set to provide a voice file corresponding to a sentence.

여기서, 상기 적어도 하나의 명령은, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하고; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하도록 더 설정될 수 있다.Here, the at least one command may include: obtaining, from the user terminal, an input for selecting the second category and an input different from the voice input; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; And it may be further configured to provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.

여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.

여기서, 상기 적어도 하나의 명령은, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하도록 더 설정될 수 있다.Here, the at least one command is, to the consumer terminal, a first custom language related to a matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may be further configured to provide set information.

도 3은 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.3 is a diagram illustrating an embodiment of a method of operating a service providing server for communication between the disabled and the non-disabled.

도 3을 참조하면, 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(이하, 서버)는 사용자 음성 입력을 획득 및 저장할 수 있다(S300). 예를 들어, 서버는 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장할 수 있다.Referring to FIG. 3 , the service providing server (hereinafter, the server) for communication between the disabled and the non-disabled may acquire and store the user's voice input (S300). For example, the server may obtain and store the user's voice input from the user terminal.

서버는 장애인과 비장애인의 의사소통을 위한 서비스 제공의 트리거가 될 사용자의 음성 입력을 사용자 단말로부터 획득할 수 있다. 예를 들어, 서버는 사용자 단말로부터 특정 음성 입력을 반복적으로 획득할 수 있다. 서버는 사용자 단말로부터 음성 입력을 반복적으로 획득함으로써 상기 음성 입력에 대한 인식을 더 잘 수행할 수 있다. 예를 들어, 서버는 딥러닝 기술을 통해 음성 입력의 인식률을 향상시킬 수 있다. 서버는 사용자 단말로부터 획득한 음성 입력을 저장해 둘 수 있고, 저장해 둔 음성 입력과 동일 또는 유사하다고 인식할 수 있는 음성 입력을 구분할 수 있다.The server may obtain the user's voice input, which will be a trigger for providing a service for communication between the disabled and the non-disabled, from the user terminal. For example, the server may repeatedly obtain a specific voice input from the user terminal. The server may perform better recognition of the voice input by repeatedly acquiring the voice input from the user terminal. For example, the server can improve the recognition rate of voice input through deep learning technology. The server may store the voice input obtained from the user terminal, and may distinguish the stored voice input and the voice input that can be recognized as being the same or similar.

서버는 음성 입력과 매칭될 문장 정보를 획득할 수 있다(S310). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득할 수 있다. 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련될 수 있다.The server may obtain sentence information to be matched with the voice input (S310). For example, the server may obtain, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input. The first sentence may relate to a first category, and the second sentence may relate to a second category.

즉, 음성 입력에는 2개 이상의 문장이 매칭될 수 있다. 음성 입력에 2개 이상의 문장이 매칭되는 경우, 각 문장은 서로 다른 카테고리에 관련될 수 있다. 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.That is, two or more sentences may be matched to the voice input. When two or more sentences are matched to the voice input, each sentence may be related to a different category. The first sentence and the second sentence may have different meanings.

제1 문장은 제1 카테고리(예를 들어, 식당에서 쓰이는 문장)에 관련된 문장일 수 있다. 예를 들어, 제1 문장은 식당에서 쓰이는 문장으로, "이거 매운가요?", "물 좀 주세요", "1인분 추가할게요" 등의 문장일 수 있다.The first sentence may be a sentence related to a first category (eg, a sentence used in a restaurant). For example, the first sentence is a sentence used in a restaurant, and may be sentences such as "Is this spicy?", "Give me some water", and "I'll add one serving".

제2 문장은 제2 카테고리(예를 들어, 옷가게에서 쓰이는 문장)에 관련된 문장일 수 있다. 예를 들어, 제2 문장은 옷가게에서 쓰이는 문장으로, "입어봐도 되나요?", "계산은 어디서 하나요?", "다른 사이즈 있나요?" 등의 문장일 수 있다.The second sentence may be a sentence related to the second category (eg, a sentence used in a clothing store). For example, the second sentence is a sentence used in a clothing store, such as “Can I try on?”, “Where do I pay?”, “Do you have other sizes?” It may be a sentence such as

서버는 문장과 매칭될 영상 입력을 획득할 수 있다(S320). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장할 수 있다.The server may obtain an image input to be matched with the sentence (S320). For example, the server may obtain and store, from the user terminal, an image input for a gesture to be matched with the first sentence.

즉, 서버는 음성 입력과 함께 장애인과 비장애인의 의사소통을 위한 서비스 제공의 트리거가 될 영상 입력(즉, 제스처)을 사용자 단말로부터 획득할 수 있다. 예를 들어, 서버는 사용자 단말로부터 특정 영상 입력을 반복적으로 획득할 수 있다. 서버는 사용자 단말로부터 영상 입력을 반복적으로 획득함으로써 상기 영상 입력에 대한 인식을 더 잘 수행할 수 있다. 예를 들어, 서버는 딥러닝 기술을 통해 영상 입력의 인식률을 향상시킬 수 있다. 서버는 사용자 단말로부터 획득한 영상 입력을 저장해 둘 수 있고, 저장해 둔 영상 입력과 동일 또는 유사하다고 인식할 수 있는 영상 입력을 구분할 수 있다.That is, the server may acquire, from the user terminal, an image input (ie, a gesture) that will be a trigger for providing a service for communication between the disabled and the non-disabled along with the voice input. For example, the server may repeatedly obtain a specific image input from the user terminal. The server may better recognize the image input by repeatedly acquiring the image input from the user terminal. For example, the server may improve the recognition rate of image input through deep learning technology. The server may store an image input obtained from the user terminal, and may distinguish an image input that can be recognized as being identical to or similar to the stored image input.

서버는 문장에 해당하는 음성 파일을 제공할 수 있다(S330). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득할 수 있다. 또한, 서버는 상기 사용자 단말로부터, 상기 영상 입력도 획득할 수 있다.The server may provide a voice file corresponding to the sentence (S330). For example, the server may obtain an input for selecting the first category and the voice input from the user terminal. Also, the server may obtain the image input from the user terminal.

즉, 문장은 음성 입력에만 매칭될 수도 있고, 음성 입력 및 영상 입력과 같이 매칭될 수도 있다.That is, the sentence may be matched only with the voice input or may be matched with the voice input and the image input.

예를 들어, 문장이 음성 입력에만 매칭되는 경우, 서버는 사용자 단말로부터 카테고리를 선택하는 입력 및 음성 입력을 획득하면 사용자 단말에 문장에 해당하는 음성 파일을 제공할 수 있다.For example, when a sentence matches only a voice input, the server may provide a voice file corresponding to the sentence to the user terminal when an input for selecting a category and a voice input are obtained from the user terminal.

예를 들어, 문장이 음성 입력 및 영상 입력에 매칭되는 경우, 서버는 사용자 단말로부터 카테고리를 선택하는 입력, 음성 입력 및 영상 입력을 획득하면 사용자 단말에 문장에 해당하는 음성 파일을 제공할 수 있다. 즉, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공할 수 있다.For example, when the sentence matches the voice input and the image input, the server may provide the voice file corresponding to the sentence to the user terminal when the input for selecting a category, the voice input, and the image input are obtained from the user terminal. That is, the server may provide, to the user terminal, an audio file corresponding to the first sentence based on the input for selecting the first category, the audio input, and the image input.

서버는 카테고리에 관련된 복수의 문장에 대한 선택지를 제공할 수 있다(S340). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득할 수 있다.The server may provide options for a plurality of sentences related to the category (S340). For example, the server may obtain, from the user terminal, an input for selecting the second category and an input different from the voice input.

즉, 서버가 상기 사용자 단말로부터 카테고리를 선택하는 입력은 획득하였지만, 음성 입력 획득에 실패할 수 있다. 이 경우, 서버는 사용자 단말에 카테고리에 관련된 복수의 문장에 대한 선택지를 제공할 수 있다. 서버는 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득할 수 있다.That is, the server may obtain an input for selecting a category from the user terminal, but may fail to obtain a voice input. In this case, the server may provide the user terminal with options for a plurality of sentences related to the category. The server may obtain, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category.

서버는 선택 문장에 해당하는 음성 파일을 제공할 수 있다(S350). 예를 들어, 서버는 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공할 수 있다.The server may provide a voice file corresponding to the selected sentence (S350). For example, the server may provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.

즉, 음성 입력의 획득에 실패한 서버는, 제2 카테고리에서 자주 쓰이는 문장들에 대한 선택지를 사용자 단말에 제공할 수 있고, 사용자 단말로부터 사용자가 처한 상황에 가장 적절한 문장에 대한 입력을 획득하면, 해당 문장에 대한 음성 파일을 사용자 단말에 제공할 수 있다.That is, the server that has failed to obtain the voice input may provide the user terminal with options for sentences frequently used in the second category. A voice file for a sentence may be provided to the user terminal.

서버는 커스텀 언어 세트 정보를 다른 사용자에게 제공할 수 있다(S360). 예를 들어, 서버는 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공할 수 있다.The server may provide the custom language set information to another user (S360). For example, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. can provide

예를 들어, 사용자는 자신이 생성한 커스텀 언어 세트 정보를 서버에 등록할 수 있고, 서버를 통해 자신이 등록한 커스텀 언어 세트 정보를 다른 사용자에게 판매할 수 있다. 즉, 장애인과 비장애인의 의사소통을 위한 서비스를 이용하는 사용자는 다른 사용자가 만들어 놓은 커스텀 언어 세트 정보를 구매하여 사용할 수 있다.For example, the user may register the custom language set information created by the user in the server, and sell the custom language set information registered by the user to other users through the server. That is, a user who uses the service for communication between the disabled and the non-disabled can purchase and use custom language set information created by other users.

여기서, 소비자 단말은 장애인과 비장애인의 의사소통을 위한 서비스를 이용하는 사용자 중에서 다른 사용자가 만들어 놓은 커스텀 언어 세트 정보를 구매하여 사용하는 사용자의 단말을 지칭할 수 있다.Here, the consumer terminal may refer to a terminal of a user who purchases and uses custom language set information made by other users among users using a service for communication between the disabled and the non-disabled.

즉, 커스텀 언어 세트 정보는 음성 입력, 영상 입력, 문장들, 카테고리들에 대한 매칭관계를 포함하는 정보일 수 있다. 아래에서, 커스텀 언어 세트 정보에 대해 설명한다.That is, the custom language set information may be information including a matching relationship for voice input, image input, sentences, and categories. Hereinafter, custom language set information will be described.

도 4는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제1 커스텀 언어 세트를 도시한 도면이다.4 is a diagram illustrating a first custom language set according to an embodiment of a service method for communication between disabled and non-disabled people.

도 4를 참조하면, 제1 커스텀 언어 세트는 제1 음성, 제2 음성, 제3 음성을 포함할 수 있다.Referring to FIG. 4 , the first custom language set may include a first voice, a second voice, and a third voice.

예를 들어, 제1 음성에는 제1 카테고리의 제1 문장과 제2 카테고리의 제2 문장이 매칭될 수 있다. 서버는 제1 카테고리 선택 입력과 제1 음성을 획득하면, 제1 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제1 음성을 획득하면, 제2 문자에 해당하는 음성 파일을 제공할 수 있다.For example, a first sentence of a first category and a second sentence of a second category may be matched to the first voice. When the server acquires the first category selection input and the first voice, the server may provide a voice file corresponding to the first sentence. When the server acquires the second category selection input and the first voice, the server may provide a voice file corresponding to the second text.

예를 들어, 제2 음성에는 제2 카테고리의 제3, 제4, 제5 문장이 매칭될 수 있다. 여기서, 제3 문장에는 제1 제스처(즉, 제1 영상)가 매칭될 수 있고, 제4 문장에는 제2 제스처가 매칭될 수 있고, 제5 문장에는 제3 제스처가 매칭될 수 있다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제1 제스처를 획득하면, 제3 문장에 해당하는 음성 파일을 제공할 수 있다. 이 경우, 제2 카테고리 선택 입력과 제2 음성만을 획득하면, 서버는 제3 문장에 해당하는 음성 파일을 제공하지 않는다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제2 제스처를 획득하면, 제4 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제3 제스처를 획득하면 제5 문장에 해당하는 음성 파일을 제공할 수 있다.For example, third, fourth, and fifth sentences of the second category may be matched to the second voice. Here, the first gesture (ie, the first image) may be matched to the third sentence, the second gesture may be matched to the fourth sentence, and the third gesture may be matched to the fifth sentence. When the server acquires the second category selection input, the second voice, and the first gesture, the server may provide a voice file corresponding to the third sentence. In this case, when only the second category selection input and the second voice are obtained, the server does not provide the voice file corresponding to the third sentence. When the server acquires the second category selection input, the second voice, and the second gesture, the server may provide a voice file corresponding to the fourth sentence. When the server acquires the second category selection input, the second voice, and the third gesture, the server may provide a voice file corresponding to the fifth sentence.

예를 들어, 제3 음성에는 제1 카테고리의 제6 문장이 매칭될 수 있다. 즉, 하나의 음성에 하나의 문장만 매칭되는 것도 가능하다. 서버는 제1 카테고리 선택 입력과 제3 음성을 획득하면, 제6 문장에 해당하는 음성 파일을 제공할 수 있다.For example, the sixth sentence of the first category may be matched to the third voice. That is, it is also possible to match only one sentence to one voice. When the server acquires the first category selection input and the third voice, the server may provide a voice file corresponding to the sixth sentence.

다시 도 3을 참조하면, 서버는 대체 음성, 대체 영상 입력을 획득할 수 있다(S370). 예를 들어, 서버는 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장할 수 있다.Referring back to FIG. 3 , the server may obtain an alternative voice and an alternative video input ( S370 ). For example, the server may obtain and store, from the consumer terminal, an alternative voice input to replace the voice input in the custom language set information.

서버는 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 영상 입력을 대체할 대체 영상 입력을 획득 및 저장할 수 있다.The server may obtain and store, from the consumer terminal, an alternative image input to replace the image input in the custom language set information.

서버는 새로운 커스텀 언어 세트를 생성할 수 있다(S380). 예를 들어, 서버는 상기 대체 음성 입력 및 상기 대체 영상 입력을 기초로 제2 커스텀 언어 세트 정보를 생성할 수 있다. 아래에서, 대체 음성 및 대체 영상(즉, 대체 제스처)을 통해 새로운 커스텀 언어 세트 정보를 생성하는 방법에 대해 설명한다.The server may create a new custom language set (S380). For example, the server may generate second custom language set information based on the alternative voice input and the alternative video input. Hereinafter, a method of generating new custom language set information through an alternative voice and an alternative image (ie, an alternative gesture) will be described.

도 5는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제2 커스텀 언어 세트를 도시한 도면이다.5 is a diagram illustrating a second custom language set according to an embodiment of a service method for communication between the disabled and the non-disabled.

도 5를 참조하면, 제1 음성 내지 제3 음성이 제1 대체 음성 내지 제3 대체 음성으로 대체될 수 있다. 음성의 경우, 다른 사람의 음성이 등록되어 있으면 음색, 음량, 음의 높낮이 등이 다를 수 있기 때문에 자신의 음성을 사용하는 것이 바람직하다. 따라서, 커스텀 언어 세트를 구매한 사용자는 해당 커스텀 언어 세트에서 음성 부분을 자신의 음성으로 대체할 수 있다.Referring to FIG. 5 , first to third voices may be replaced with first to third alternate voices. In the case of voice, it is preferable to use one's own voice because the tone, volume, pitch, and the like may be different if another person's voice is registered. Accordingly, a user who has purchased a custom language set can replace the voice part in the custom language set with his or her own voice.

예를 들어, 사용자는 대체 음성 정보를 서버에 전송할 수 있고, 서버는 사용자 단말로부터 대체 음성 정보를 획득하면, 기존 커스텀 언어 세트의 음성을 대체 음성으로 대체할 수 있다.For example, the user may transmit substitute voice information to the server, and when the server obtains the substitute voice information from the user terminal, the voice of the existing custom language set may be replaced with the substitute voice.

또한, 제스처의 경우에도, 장애 때문에 동일한 제스처를 수행하기 어려운 케이스가 발생할 수 있기 때문에, 기존 제스처가 대체 제스처로 대체될 수 있다.Also, even in the case of a gesture, since a case in which it is difficult to perform the same gesture due to a disability may occur, an existing gesture may be replaced with an alternative gesture.

예를 들어, 사용자는 대체 영상 정보를 서버에 전송할 수 있고, 서버는 사용자 단말로부터 대체 영상 정보를 획득하면, 기존 커스텀 언어 세트의 영상(즉, 제스처)을 대체 영상으로 대체할 수 있다.For example, the user may transmit the replacement image information to the server, and when the server obtains the replacement image information from the user terminal, the image (ie, gesture) of the existing custom language set may be replaced with the replacement image.

서버는 제1 카테고리 선택 입력과 제1 대체 음성을 획득하면, 제1 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제1 대체 음성을 획득하면, 제2 문자에 해당하는 음성 파일을 제공할 수 있다.When the server obtains the first category selection input and the first replacement voice, the server may provide a voice file corresponding to the first sentence. When the server obtains the second category selection input and the first replacement voice, the server may provide a voice file corresponding to the second text.

서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제1 대체 제스처를 획득하면, 제3 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제2 대체 제스처를 획득하면, 제4 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제3 대체 제스처를 획득하면 제5 문장에 해당하는 음성 파일을 제공할 수 있다.When the server acquires the second category selection input, the second alternative voice, and the first alternative gesture, the server may provide a voice file corresponding to the third sentence. When the server acquires the second category selection input, the second alternative voice, and the second alternative gesture, the server may provide a voice file corresponding to the fourth sentence. When the server acquires the second category selection input, the second alternative voice and the third alternative gesture, the server may provide a voice file corresponding to the fifth sentence.

서버는 제1 카테고리 선택 입력과 제3 대체 음성을 획득하면, 제6 문장에 해당하는 음성 파일을 제공할 수 있다.When the server obtains the first category selection input and the third alternative voice, the server may provide a voice file corresponding to the sixth sentence.

도 3의 일례에 표시된 세부 단계 중 일부는 필수 단계가 아닐 수 있고, 생략될 수 있다. 도 3에 도시된 단계 외에 다른 단계가 추가될 수 있고, 상기 단계들의 순서는 달라질 수 있다. 상기 단계들 중 일부 단계가 독자적 기술적 의미를 가질 수 있다.Some of the detailed steps shown in the example of FIG. 3 may not be essential steps and may be omitted. In addition to the steps shown in FIG. 3 , other steps may be added, and the order of the steps may vary. Some of the above steps may have their own technical meaning.

적어도 하나의 서버에 의해 수행되는 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 방법에 있어서, 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.A method of providing a service for communication between the disabled and the non-disabled performed by at least one server, the method comprising: acquiring and storing a user's voice input from a user terminal; obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step; obtaining, from the user terminal, an input for selecting the first category and the voice input; and providing, to the user terminal, a voice file corresponding to the first sentence based on an input for selecting the first category and the voice input.

여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하는 단계; 및 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계는, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공할 수 있다.Here, the step of obtaining, by the server, an image input for a gesture to be matched with the first sentence from the user terminal and storing; and obtaining the image input from the user terminal, wherein the step of providing the audio file corresponding to the first sentence includes, by the server, an input for selecting the first category to the user terminal , an audio file corresponding to the first sentence based on the audio input and the image input may be provided.

여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계를 더 포함할 수 있다.Here, obtaining, by the server, an input for selecting the second category and an input different from the voice input from the user terminal; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; and providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category.

여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.

여기서, 상기 서버가, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계를 더 포함할 수 있다.Here, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may further include the step of providing.

여기서, 상기 서버가, 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장하는 단계; 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 영상 입력을 대체할 대체 영상 입력을 획득 및 저장하는 단계; 및 상기 대체 음성 입력 및 상기 대체 영상 입력을 기초로 제2 커스텀 언어 세트 정보를 생성하는 단계를 더 포함할 수 있다.Here, the server acquiring and storing, from the consumer terminal, an alternative voice input to replace the voice input in the custom language set information; obtaining and storing, from the consumer terminal, an alternative image input to replace the image input in the custom language set information; and generating second custom language set information based on the alternative voice input and the alternative video input.

본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.The operation according to the embodiment of the present specification may be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. In addition, the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable programs or codes in a distributed manner.

실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented in software, the above-described technique may be implemented as a module (process, function, etc.) that performs the above-described function. A module may be stored in a memory and executed by a processor. The memory may be internal or external to the processor, and may be coupled to the processor by various well-known means.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, wherein a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also represent a corresponding block or item or a corresponding device feature. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상술한 다양한 실시예들은 그 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 다양한 실시예들의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 다양한 실시예들의 등가적 범위 내에서의 모든 변경은 다양한 실시예들의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The various embodiments described above may be embodied in other specific forms without departing from the technical idea and essential characteristics thereof. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the various embodiments should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the various embodiments are included in the scope of the various embodiments. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment or may be included as a new claim by amendment after filing.

Claims (1)

적어도 하나의 서버에 의해 수행되는 장애인을 위한 의사소통 보조 서비스 제공 방법에 있어서,
사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계;
상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계;
상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계;
상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계;
상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계;
상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계;
소비자 단말에게, 상기 음성 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계;
상기 소비자 단말로부터, 상기 제1 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장하는 단계;
상기 대체 음성 입력을 기초로 제2 커스텀 언어 세트 정보를 생성하는 단계를 포함하고,
상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장인,
장애인을 위한 의사소통 보조 서비스 제공 방법.
In the method of providing a communication assistance service for the disabled performed by at least one server,
obtaining and storing the user's voice input from the user terminal;
obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step;
providing, to the user terminal, an input for selecting the first category and a voice file corresponding to the first sentence based on the voice input;
obtaining, from the user terminal, an input for selecting the second category and an input different from the voice input;
obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category;
providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category;
providing, to a consumer terminal, first custom language set information related to a matching relationship between the voice input, the first sentence, the second sentence, the first category, and the second category;
obtaining and storing, from the consumer terminal, a substitute voice input to replace the voice input in the first custom language set information;
generating second custom language set information based on the alternative speech input;
The first sentence and the second sentence are sentences having different meanings,
How to provide communication assistance services for people with disabilities.
KR1020220066881A 2021-12-13 2022-05-31 Method for providing communication assistance service for people with disabilities KR102456526B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220066881A KR102456526B1 (en) 2021-12-13 2022-05-31 Method for providing communication assistance service for people with disabilities

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210177619A KR102405822B1 (en) 2021-12-13 2021-12-13 Method and apparatus for providing service for communication between disabled and non-disabled people
KR1020220066881A KR102456526B1 (en) 2021-12-13 2022-05-31 Method for providing communication assistance service for people with disabilities

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210177619A Division KR102405822B1 (en) 2021-12-13 2021-12-13 Method and apparatus for providing service for communication between disabled and non-disabled people

Publications (1)

Publication Number Publication Date
KR102456526B1 true KR102456526B1 (en) 2022-10-19

Family

ID=81986951

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210177619A KR102405822B1 (en) 2021-12-13 2021-12-13 Method and apparatus for providing service for communication between disabled and non-disabled people
KR1020220066881A KR102456526B1 (en) 2021-12-13 2022-05-31 Method for providing communication assistance service for people with disabilities

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210177619A KR102405822B1 (en) 2021-12-13 2021-12-13 Method and apparatus for providing service for communication between disabled and non-disabled people

Country Status (1)

Country Link
KR (2) KR102405822B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090065715A (en) * 2007-12-18 2009-06-23 (주)트루시스템 Communication assistance apparatus for the deaf-mutism and the like
KR20150060348A (en) * 2013-11-26 2015-06-03 한국전자통신연구원 Apparatus and method of communication between disabled person and disabled person
KR102036612B1 (en) * 2019-06-20 2019-10-25 코액터스 주식회사 A system that helps communicate between 'Taxi driver with hearing impairment' and 'passenger'

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090065715A (en) * 2007-12-18 2009-06-23 (주)트루시스템 Communication assistance apparatus for the deaf-mutism and the like
KR20150060348A (en) * 2013-11-26 2015-06-03 한국전자통신연구원 Apparatus and method of communication between disabled person and disabled person
KR102036612B1 (en) * 2019-06-20 2019-10-25 코액터스 주식회사 A system that helps communicate between 'Taxi driver with hearing impairment' and 'passenger'

Also Published As

Publication number Publication date
KR102405822B1 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
EP3389044B1 (en) Management layer for multiple intelligent personal assistant services
US11720200B2 (en) Systems and methods for identifying a set of characters in a media file
US11900017B2 (en) Optimizing display engagement in action automation
US10832653B1 (en) Providing content on multiple devices
JP6125088B2 (en) Serving content on multiple devices
US10827067B2 (en) Text-to-speech apparatus and method, browser, and user terminal
JP6588637B2 (en) Learning personalized entity pronunciation
JP6744314B2 (en) Updating Language Understanding Classifier Model for Digital Personal Assistant Based on Crowdsourcing
CN107111492B (en) Scaling digital personal assistant agents across devices
US10249296B1 (en) Application discovery and selection in language-based systems
Higginbotham et al. The future of the android operating system for augmentative and alternative communication
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
CA3158979A1 (en) Headless task completion within digital personal assistants
JP2019533181A (en) Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE)
US20220283831A1 (en) Action recipes for a crowdsourced digital assistant system
US11056103B2 (en) Real-time utterance verification system and method thereof
Lojka et al. Multi-thread parallel speech recognition for mobile applications
KR102456526B1 (en) Method for providing communication assistance service for people with disabilities
US11803590B2 (en) Smart and interactive book audio services
KR102584324B1 (en) Method for providing of voice recognition service and apparatus thereof
US11211057B2 (en) Interactive e-reader device, related method, and computer readable medium storing related software program
JP2018511873A (en) Search service providing apparatus, method, and computer program
US11722572B2 (en) Communication platform shifting for voice-enabled device
KR102660922B1 (en) Management layer for multiple intelligent personal assistant services
TWI604435B (en) Method and mobile device for customizing speech recognition results, computer-readable recording media

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant