KR102456526B1 - Method for providing communication assistance service for people with disabilities - Google Patents
Method for providing communication assistance service for people with disabilities Download PDFInfo
- Publication number
- KR102456526B1 KR102456526B1 KR1020220066881A KR20220066881A KR102456526B1 KR 102456526 B1 KR102456526 B1 KR 102456526B1 KR 1020220066881 A KR1020220066881 A KR 1020220066881A KR 20220066881 A KR20220066881 A KR 20220066881A KR 102456526 B1 KR102456526 B1 KR 102456526B1
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- input
- server
- category
- voice
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Abstract
Description
본 발명의 실시예들은 장애인을 위한 의사소통 보조 서비스 제공 방법에 대한 것이다.Embodiments of the present invention relate to a method of providing a communication assistance service for the disabled.
기존 의사소통 보조기기에는 텍스트를 음성으로 표현하는 기술이 존재한다. 기존 소프트웨어는 텍스트의 음성화, 음성의 텍스트화를 지원하나 대부분 번역을 위한 것이라 내국인과의 사용시 사용이 불편하다.Existing communication assistive devices have a technology for expressing text into voice. Existing software supports text-to-speech and voice-to-text, but most of them are for translation, so it is inconvenient to use with Koreans.
기본적인 의사소통이 힘든 장애인들이 사람들과 상호작용하는 방법은 여러가지가 있다. 다만, 비장애인이 이를 인식하는 데 어려움이 있어 대체적인 의사소통 방식이 필요한 장애인, 언어를 구사하고 습득하는 능력이 부족한 사람 등은 동행하는 도우미의 도움을 받거나, 휴대폰 메모장을 이용해 문장을 전달하는 등의 방법을 사용하고 있다. 이 경우, 장애인들은 외출 시 반드시 보호자와 동행을 해야 하므로 독립적인 생활에 지장이 있고, 의사소통 시간이 지연되는 등 어려가지 문제점이 있다. 하지만, 아직 언어 장애나 지적장애 등을 가지고 있는 사람들을 위한 독립적인 언어 체계는 없는 상태이다.There are many ways in which people with disabilities who have difficulty in basic communication interact with people. However, people with disabilities who need an alternative communication method because non-disabled people have difficulties in recognizing it, or those who lack the ability to speak and acquire a language, need help from an accompanying assistant or use a cell phone memo pad to deliver sentences, etc. is using the method of In this case, since the disabled must be accompanied by a guardian when going out, there are difficulties such as hindering independent living and delaying communication time. However, there is still no independent language system for people with language or intellectual disabilities.
이러한 한계점을 보완하기 위해 나온 것이 AAC(augmentative and alternative communication), 즉 보완/대체 의사소통이다. 따로 언어 체계가 있다거나, 형태가 있는 것은 아니지만, 말 운동장애나 뇌성마비, 지적장애 등을 가지고 있는 사람들이 자신의 의사를 상대방에게 전달하기 위해 말 대신 사용할 수 있는 다양한 방식의 의사소통을 의미한다.AAC (augmentative and alternative communication), that is, complementary/alternative communication, has emerged to overcome these limitations. Although there is no separate language system or form, it refers to various methods of communication that people with speech movement disorders, cerebral palsy, or intellectual disabilities can use instead of words to communicate their intentions to others.
AAC를 지원하는 스마트폰 애플리케이션들이 현재 존재한다. 대부분의 애플리케이션에서는 제공하는 기능은 식당, 병원 등에서 자주 쓰이는 단어나 서술어 위에 그림이 그려져 있고, 그 그림들을 조합시켜 문장으로 만들 수 있는 기능이다. 또한 문장을 입력하면 기계가 음성으로 변환을 해 주기도 한다. 다만, 이러한 기능들은 매우 한정적이고, 원하는 문장을 말할 때 그림을 선택하려면 시간이 오래 걸릴 뿐만 아니라, 원하는 바를 정확히 전달하기도 어렵게 된다. 따라서, 보다 향상되고 편리한 방법의 AAC 방법이 필요하다.Smartphone applications that support AAC currently exist. The function provided by most applications is the ability to create sentences by drawing pictures on words or predicates frequently used in restaurants and hospitals, and combining the pictures. Also, when you input a sentence, the machine converts it into speech. However, these functions are very limited, and it takes a long time to select a picture when speaking a desired sentence, and it is difficult to convey exactly what you want. Therefore, there is a need for a more improved and convenient AAC method.
본 발명의 실시예들은, 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 및 그 동작 방법을 제공할 수 있다. Embodiments of the present invention may provide a service providing server for communication between the disabled and the non-disabled and an operating method thereof.
실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical problems to be achieved in the embodiments are not limited to those mentioned above, and other technical problems not mentioned may be considered by those of ordinary skill in the art from various embodiments to be described below. can
실시예들에 따르면, 적어도 하나의 서버에 의해 수행되는 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법에 있어서, 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.According to embodiments, there is provided a service providing method for communication between the disabled and the non-disabled performed by at least one server, the method comprising: acquiring and storing a user's voice input from a user terminal; obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step; obtaining, from the user terminal, an input for selecting the first category and the voice input; and providing, to the user terminal, a voice file corresponding to the first sentence based on an input for selecting the first category and the voice input.
여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하는 단계; 및 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계는, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.Here, the step of obtaining, by the server, an image input for a gesture to be matched with the first sentence from the user terminal and storing; and obtaining the image input from the user terminal, wherein the step of providing the audio file corresponding to the first sentence includes, by the server, an input for selecting the first category to the user terminal , providing an audio file corresponding to the first sentence based on the audio input and the image input.
여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계를 더 포함할 수 있다.Here, obtaining, by the server, an input for selecting the second category and an input different from the voice input from the user terminal; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; and providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category.
여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.
여기서, 상기 서버가, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계를 더 포함할 수 있다.Here, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may further include the step of providing.
본 발명의 일 실시예는 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버에 있어서, 프로세서(processor); 송수신기(transceiver); 및 메모리(memory); 를 포함하고, 상기 프로세서는: 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하고; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되고; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.An embodiment of the present invention provides a server for providing a service for communication between the disabled and the non-disabled, comprising: a processor; transceiver; and memory; wherein the processor is configured to: obtain and store, from the user terminal, the user's voice input; obtain, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; obtaining, from the user terminal, an input for selecting the first category and the voice input; In addition, the user terminal may be configured to provide an input for selecting the first category and a voice file corresponding to the first sentence based on the voice input.
여기서, 상기 프로세서는, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하고; 그리고 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.Here, the processor obtains and stores, from the user terminal, an image input for a gesture to be matched with the first sentence; and obtaining the image input from the user terminal, wherein the server provides the user terminal with the first category based on the input for selecting the first category, the audio input, and the image input. It may be set to provide a voice file corresponding to a sentence.
여기서, 상기 프로세서는, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하고; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하도록 더 설정될 수 있다.Here, the processor obtains, from the user terminal, an input for selecting the second category and an input different from the voice input; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; And it may be further configured to provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.
여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.
여기서, 상기 프로세서는, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하도록 더 설정될 수 있다.Here, the processor provides, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may be further set to provide.
실시예들에 따르면, 사용자는 실제로 구사할 수 있는 단어나 문장이 많지 않더라도, 자신이 원하는 내용을 비장애인들에게 명확히 전달할 수 있다. 또한, 자신이 자신의 언어 체계를 직접 만들어 나갈 수 있기 때문에, 언어 체계를 습득하기가 용이하다. 거의 음성을 내기 어려운 사람들도, 하나의 음성만으로도 여러 의미를 전달할 수 있기 때문에 효과적인 의사소통이 가능하게 된다.According to embodiments, the user can clearly convey the content he/she wants to non-disabled people even if there are not many words or sentences that can actually be used. In addition, it is easy to acquire a language system because you can create your own language system. Even people who can hardly speak a voice can communicate effectively because a single voice can convey multiple meanings.
실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those of ordinary skill in the art based on the following detailed description. can be
실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버를 포함하는 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 3은 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.
도 4는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제1 커스텀 언어 세트를 도시한 도면이다.
도 5는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제2 커스텀 언어 세트를 도시한 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the embodiments, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a system diagram including a service providing server for communication between the disabled and non-disabled people according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a server that provides a service for communication between the disabled and the non-disabled according to an embodiment of the present invention.
3 is a diagram illustrating an embodiment of a method of operating a service providing server for communication between the disabled and the non-disabled.
4 is a diagram illustrating a first custom language set according to an embodiment of a service method for communication between disabled and non-disabled people.
5 is a diagram illustrating a second custom language set according to an embodiment of a service method for communication between the disabled and the non-disabled.
이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment.
도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of various embodiments are not described, and procedures or steps that can be understood at the level of those of ordinary skill in the art are also not described. did.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising or including" a certain component, it does not exclude other components unless otherwise stated, meaning that other components may be further included. do. In addition, terms such as "... unit", "... group", and "module" described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, "a or an", "one", "the" and like related terms are used herein in the context of describing various embodiments (especially in the context of the claims that follow). Unless otherwise indicated or clearly contradicted by context, it may be used in a sense including both the singular and the plural.
이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of various embodiments, and is not intended to represent the only embodiments.
또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to help the understanding of various embodiments, and the use of these specific terms may be changed to other forms without departing from the technical spirit of various embodiments. .
도 1을 참조하면, 본 발명의 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 PC(Personal Computer) 등과 같이 저장공간을 구비하고 인터넷에 연결될 수 있으며 휴대가 용이하지 않는 컴퓨팅 장치에서 수행되거나 스마트폰 등과 같이 휴대용 단말기에서 수행될 수 있다. 이때 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법이 구현된 어플리케이션(application)이 앱스토어(App store)등에서 다운되어 상기 휴대용 단말기에 설치된 후 실행될 수 있다.Referring to FIG. 1 , the method of providing a service for communication between the disabled and the non-disabled according to an embodiment of the present invention is a computing device that has a storage space such as a personal computer (PC), can be connected to the Internet, and is not easy to carry. It may be performed in a portable terminal such as a smart phone or the like. At this time, the method of providing a service for communication between the disabled and the non-disabled is that the application implementing the method is downloaded from the App Store and installed on the portable terminal. can be executed later.
그리고 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 CD(Compact Disc) 또는 USB(Universal Serial Bus) 메모리 등과 같은 기록매체에 기록된 상태에서 PC 등과 같은 컴퓨팅 장치에 삽입되어 상기 컴퓨팅 장치의 액세스 동작을 통해서 수행되거나 상기 기록매체로부터 컴퓨팅 장치의 저장공간에 저장된 후 컴퓨팅 장치의 액세스 동작을 통해서 수행될 수도 있다.And the method of providing a service for communication between the disabled and the non-disabled is inserted into a computing device such as a PC while being recorded in a recording medium such as a CD (Compact Disc) or USB (Universal Serial Bus) memory to access the computing device. It may be performed through an operation or may be performed through an access operation of the computing device after being stored in the storage space of the computing device from the recording medium.
한편 상기 컴퓨팅 장치 또는 휴대용 단말기가 인터넷에 연결된 서버에 접속가능한 경우, 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법은 상기 컴퓨팅 장치 또는 휴대용 단말기의 요청에 따라 서버에서도 실행될 수 있다.On the other hand, when the computing device or the portable terminal can access a server connected to the Internet, the method of providing a service for communication between the disabled and non-disabled can also be executed on the server at the request of the computing device or the portable terminal.
이하에서 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 방법이 실행되는 컴퓨팅 장치, 휴대용 단말기 또는 서버 등을 통칭하여 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치라고 칭할 수 있다.Hereinafter, the computing device, portable terminal, or server on which the above method of providing a service for communication between the disabled and non-disabled is executed may be collectively referred to as a service providing device for communication between the disabled and non-disabled.
상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치는 도 2에 예시된 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치와 동일한 구성을 가질 수 있으며, 상기 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치는 도 1에 도시된 장애인과 비장애인의 의사소통을 위한 서비스 제공 장치에 국한되지 않을 수 있다.The above service providing device for communication between the disabled and non-disabled people may have the same configuration as the service providing device for communication between the disabled and non-disabled illustrated in FIG. 2, and the above service for communication between the disabled and non-disabled people The provision device may not be limited to the service provision device for communication between the disabled and non-disabled people shown in FIG. 1 .
일 실시예에 따른 시스템은 사용자 단말(100, 110), 소비자 단말(120, 130), 및 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(200)(이하, 서버(200))를 포함할 수 있다. 네트워크는 인터넷 포털 사이트 서버, SNS 서버, 블로그를 운영하는 서버 등을 포함할 수 있다.The system according to an embodiment may include
사용자 단말(100, 110), 소비자 단말(120, 130)은, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 단말(100, 110), 소비자 단말(120, 130)은 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.The
서버(200)는 사용자 단말(100, 110), 소비자 단말(120, 130)과, 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The
일례로, 서버(200)는 네트워크를 통해 접속한 사용자 단말(100, 110), 소비자 단말(120, 130)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말(100, 110), 소비자 단말(120, 130)은 서버(200)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다.For example, the
또한, 사용자 단말(100, 110), 소비자 단말(120, 130)은 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(200)에 접속하여, 서버(200)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.In addition, the
다른 예로, 서버(200)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 사용자 단말(100, 110), 소비자 단말(120, 130) 간의 데이터 송수신을 라우팅할 수도 있다.As another example, the
사용자 단말(100, 110), 소비자 단말(120, 130) 및 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(200)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The
도 2는 본 발명의 일 실시예에 따른 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of a server that provides a service for communication between the disabled and the non-disabled according to an embodiment of the present invention.
도 2를 참조하면, 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 서버(200)(이하, 서버(200))는 통신부(210), 프로세서(220) 및 DB(230)를 포함할 수 있다. 도 2의 서버(200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.Referring to FIG. 2 , the server 200 (hereinafter, the server 200 ) that provides a service for communication between the disabled and the non-disabled may include a
통신부(210)는 단말들 간 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.The
일례로, DB(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(210)의 제어에 따라 네트워크를 통해 단말로 전달될 수 있다. 역으로, 단말의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신부(210)을 통해 서버(200)로 수신될 수 있다. 예를 들어, 통신부(210)를 통해 수신된 서버(200)의 제어 신호나 명령, 컨텐츠 및 파일 등은 프로세서(220)로 전달되거나 DB(230)로 전달되어 저장될 수 있다.For example, a request generated according to a program code stored in a recording device such as the
DB(230)는 서버(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.The
DB(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. DB(230)는 메모리라고 나타낼 수도 있다.
프로세서(220)는 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 DB(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), DB(230) 등을 전반적으로 제어할 수 있다. 프로세서(220)는, DB(230)에 저장된 프로그램들을 실행함으로써, 외부 서버(200)의 동작을 제어할 수 있다.The
통신부(210)는, 서버(200)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 서버(200)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 통신부(210)는 네트워크를 통해, 다른 전자 장치로부터의 사용자 입력을 수신하거나, 외부 장치로부터 외부 장치에 저장된 데이터를 수신할 수 있다. The
DB(230)는, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, DB(230)는 서비스 제공을 위한 인스트럭션(instruction)을 저장할 수 있다. 또한 DB(230)는 프로세서(220)에서 생성된 데이터를 저장할 수 있다. 예를 들어, DB(230)는 프로세서(220)가 제공하는 장애인과 비장애인의 의사소통을 위한 서비스와 관련된 정보를 저장할 수 있다. DB(230)는 서버(200)로 입력되거나 서버(200)로부터 출력되는 정보를 저장할 수도 있다. The
프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The
DB(230)는 프로세서(220)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하고; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되고; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.The
여기서, 상기 적어도 하나의 명령은, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하고; 그리고 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하도록 설정될 수 있다.Here, the at least one command may include: acquiring and storing an image input for a gesture to be matched with the first sentence from the user terminal; and obtaining the image input from the user terminal, wherein the server provides the user terminal with the first category based on the input for selecting the first category, the audio input, and the image input. It may be set to provide a voice file corresponding to a sentence.
여기서, 상기 적어도 하나의 명령은, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하고; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하고; 그리고 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하도록 더 설정될 수 있다.Here, the at least one command may include: obtaining, from the user terminal, an input for selecting the second category and an input different from the voice input; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; And it may be further configured to provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.
여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.
여기서, 상기 적어도 하나의 명령은, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하도록 더 설정될 수 있다.Here, the at least one command is, to the consumer terminal, a first custom language related to a matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may be further configured to provide set information.
도 3은 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.3 is a diagram illustrating an embodiment of a method of operating a service providing server for communication between the disabled and the non-disabled.
도 3을 참조하면, 장애인과 비장애인의 의사소통을 위한 서비스 제공 서버(이하, 서버)는 사용자 음성 입력을 획득 및 저장할 수 있다(S300). 예를 들어, 서버는 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장할 수 있다.Referring to FIG. 3 , the service providing server (hereinafter, the server) for communication between the disabled and the non-disabled may acquire and store the user's voice input (S300). For example, the server may obtain and store the user's voice input from the user terminal.
서버는 장애인과 비장애인의 의사소통을 위한 서비스 제공의 트리거가 될 사용자의 음성 입력을 사용자 단말로부터 획득할 수 있다. 예를 들어, 서버는 사용자 단말로부터 특정 음성 입력을 반복적으로 획득할 수 있다. 서버는 사용자 단말로부터 음성 입력을 반복적으로 획득함으로써 상기 음성 입력에 대한 인식을 더 잘 수행할 수 있다. 예를 들어, 서버는 딥러닝 기술을 통해 음성 입력의 인식률을 향상시킬 수 있다. 서버는 사용자 단말로부터 획득한 음성 입력을 저장해 둘 수 있고, 저장해 둔 음성 입력과 동일 또는 유사하다고 인식할 수 있는 음성 입력을 구분할 수 있다.The server may obtain the user's voice input, which will be a trigger for providing a service for communication between the disabled and the non-disabled, from the user terminal. For example, the server may repeatedly obtain a specific voice input from the user terminal. The server may perform better recognition of the voice input by repeatedly acquiring the voice input from the user terminal. For example, the server can improve the recognition rate of voice input through deep learning technology. The server may store the voice input obtained from the user terminal, and may distinguish the stored voice input and the voice input that can be recognized as being the same or similar.
서버는 음성 입력과 매칭될 문장 정보를 획득할 수 있다(S310). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득할 수 있다. 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련될 수 있다.The server may obtain sentence information to be matched with the voice input (S310). For example, the server may obtain, from the user terminal, a selection input for a first sentence and a second sentence to be matched with the voice input. The first sentence may relate to a first category, and the second sentence may relate to a second category.
즉, 음성 입력에는 2개 이상의 문장이 매칭될 수 있다. 음성 입력에 2개 이상의 문장이 매칭되는 경우, 각 문장은 서로 다른 카테고리에 관련될 수 있다. 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.That is, two or more sentences may be matched to the voice input. When two or more sentences are matched to the voice input, each sentence may be related to a different category. The first sentence and the second sentence may have different meanings.
제1 문장은 제1 카테고리(예를 들어, 식당에서 쓰이는 문장)에 관련된 문장일 수 있다. 예를 들어, 제1 문장은 식당에서 쓰이는 문장으로, "이거 매운가요?", "물 좀 주세요", "1인분 추가할게요" 등의 문장일 수 있다.The first sentence may be a sentence related to a first category (eg, a sentence used in a restaurant). For example, the first sentence is a sentence used in a restaurant, and may be sentences such as "Is this spicy?", "Give me some water", and "I'll add one serving".
제2 문장은 제2 카테고리(예를 들어, 옷가게에서 쓰이는 문장)에 관련된 문장일 수 있다. 예를 들어, 제2 문장은 옷가게에서 쓰이는 문장으로, "입어봐도 되나요?", "계산은 어디서 하나요?", "다른 사이즈 있나요?" 등의 문장일 수 있다.The second sentence may be a sentence related to the second category (eg, a sentence used in a clothing store). For example, the second sentence is a sentence used in a clothing store, such as “Can I try on?”, “Where do I pay?”, “Do you have other sizes?” It may be a sentence such as
서버는 문장과 매칭될 영상 입력을 획득할 수 있다(S320). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장할 수 있다.The server may obtain an image input to be matched with the sentence (S320). For example, the server may obtain and store, from the user terminal, an image input for a gesture to be matched with the first sentence.
즉, 서버는 음성 입력과 함께 장애인과 비장애인의 의사소통을 위한 서비스 제공의 트리거가 될 영상 입력(즉, 제스처)을 사용자 단말로부터 획득할 수 있다. 예를 들어, 서버는 사용자 단말로부터 특정 영상 입력을 반복적으로 획득할 수 있다. 서버는 사용자 단말로부터 영상 입력을 반복적으로 획득함으로써 상기 영상 입력에 대한 인식을 더 잘 수행할 수 있다. 예를 들어, 서버는 딥러닝 기술을 통해 영상 입력의 인식률을 향상시킬 수 있다. 서버는 사용자 단말로부터 획득한 영상 입력을 저장해 둘 수 있고, 저장해 둔 영상 입력과 동일 또는 유사하다고 인식할 수 있는 영상 입력을 구분할 수 있다.That is, the server may acquire, from the user terminal, an image input (ie, a gesture) that will be a trigger for providing a service for communication between the disabled and the non-disabled along with the voice input. For example, the server may repeatedly obtain a specific image input from the user terminal. The server may better recognize the image input by repeatedly acquiring the image input from the user terminal. For example, the server may improve the recognition rate of image input through deep learning technology. The server may store an image input obtained from the user terminal, and may distinguish an image input that can be recognized as being identical to or similar to the stored image input.
서버는 문장에 해당하는 음성 파일을 제공할 수 있다(S330). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득할 수 있다. 또한, 서버는 상기 사용자 단말로부터, 상기 영상 입력도 획득할 수 있다.The server may provide a voice file corresponding to the sentence (S330). For example, the server may obtain an input for selecting the first category and the voice input from the user terminal. Also, the server may obtain the image input from the user terminal.
즉, 문장은 음성 입력에만 매칭될 수도 있고, 음성 입력 및 영상 입력과 같이 매칭될 수도 있다.That is, the sentence may be matched only with the voice input or may be matched with the voice input and the image input.
예를 들어, 문장이 음성 입력에만 매칭되는 경우, 서버는 사용자 단말로부터 카테고리를 선택하는 입력 및 음성 입력을 획득하면 사용자 단말에 문장에 해당하는 음성 파일을 제공할 수 있다.For example, when a sentence matches only a voice input, the server may provide a voice file corresponding to the sentence to the user terminal when an input for selecting a category and a voice input are obtained from the user terminal.
예를 들어, 문장이 음성 입력 및 영상 입력에 매칭되는 경우, 서버는 사용자 단말로부터 카테고리를 선택하는 입력, 음성 입력 및 영상 입력을 획득하면 사용자 단말에 문장에 해당하는 음성 파일을 제공할 수 있다. 즉, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공할 수 있다.For example, when the sentence matches the voice input and the image input, the server may provide the voice file corresponding to the sentence to the user terminal when the input for selecting a category, the voice input, and the image input are obtained from the user terminal. That is, the server may provide, to the user terminal, an audio file corresponding to the first sentence based on the input for selecting the first category, the audio input, and the image input.
서버는 카테고리에 관련된 복수의 문장에 대한 선택지를 제공할 수 있다(S340). 예를 들어, 서버는 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득할 수 있다.The server may provide options for a plurality of sentences related to the category (S340). For example, the server may obtain, from the user terminal, an input for selecting the second category and an input different from the voice input.
즉, 서버가 상기 사용자 단말로부터 카테고리를 선택하는 입력은 획득하였지만, 음성 입력 획득에 실패할 수 있다. 이 경우, 서버는 사용자 단말에 카테고리에 관련된 복수의 문장에 대한 선택지를 제공할 수 있다. 서버는 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득할 수 있다.That is, the server may obtain an input for selecting a category from the user terminal, but may fail to obtain a voice input. In this case, the server may provide the user terminal with options for a plurality of sentences related to the category. The server may obtain, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category.
서버는 선택 문장에 해당하는 음성 파일을 제공할 수 있다(S350). 예를 들어, 서버는 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공할 수 있다.The server may provide a voice file corresponding to the selected sentence (S350). For example, the server may provide a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category to the user terminal.
즉, 음성 입력의 획득에 실패한 서버는, 제2 카테고리에서 자주 쓰이는 문장들에 대한 선택지를 사용자 단말에 제공할 수 있고, 사용자 단말로부터 사용자가 처한 상황에 가장 적절한 문장에 대한 입력을 획득하면, 해당 문장에 대한 음성 파일을 사용자 단말에 제공할 수 있다.That is, the server that has failed to obtain the voice input may provide the user terminal with options for sentences frequently used in the second category. A voice file for a sentence may be provided to the user terminal.
서버는 커스텀 언어 세트 정보를 다른 사용자에게 제공할 수 있다(S360). 예를 들어, 서버는 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공할 수 있다.The server may provide the custom language set information to another user (S360). For example, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. can provide
예를 들어, 사용자는 자신이 생성한 커스텀 언어 세트 정보를 서버에 등록할 수 있고, 서버를 통해 자신이 등록한 커스텀 언어 세트 정보를 다른 사용자에게 판매할 수 있다. 즉, 장애인과 비장애인의 의사소통을 위한 서비스를 이용하는 사용자는 다른 사용자가 만들어 놓은 커스텀 언어 세트 정보를 구매하여 사용할 수 있다.For example, the user may register the custom language set information created by the user in the server, and sell the custom language set information registered by the user to other users through the server. That is, a user who uses the service for communication between the disabled and the non-disabled can purchase and use custom language set information created by other users.
여기서, 소비자 단말은 장애인과 비장애인의 의사소통을 위한 서비스를 이용하는 사용자 중에서 다른 사용자가 만들어 놓은 커스텀 언어 세트 정보를 구매하여 사용하는 사용자의 단말을 지칭할 수 있다.Here, the consumer terminal may refer to a terminal of a user who purchases and uses custom language set information made by other users among users using a service for communication between the disabled and the non-disabled.
즉, 커스텀 언어 세트 정보는 음성 입력, 영상 입력, 문장들, 카테고리들에 대한 매칭관계를 포함하는 정보일 수 있다. 아래에서, 커스텀 언어 세트 정보에 대해 설명한다.That is, the custom language set information may be information including a matching relationship for voice input, image input, sentences, and categories. Hereinafter, custom language set information will be described.
도 4는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제1 커스텀 언어 세트를 도시한 도면이다.4 is a diagram illustrating a first custom language set according to an embodiment of a service method for communication between disabled and non-disabled people.
도 4를 참조하면, 제1 커스텀 언어 세트는 제1 음성, 제2 음성, 제3 음성을 포함할 수 있다.Referring to FIG. 4 , the first custom language set may include a first voice, a second voice, and a third voice.
예를 들어, 제1 음성에는 제1 카테고리의 제1 문장과 제2 카테고리의 제2 문장이 매칭될 수 있다. 서버는 제1 카테고리 선택 입력과 제1 음성을 획득하면, 제1 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제1 음성을 획득하면, 제2 문자에 해당하는 음성 파일을 제공할 수 있다.For example, a first sentence of a first category and a second sentence of a second category may be matched to the first voice. When the server acquires the first category selection input and the first voice, the server may provide a voice file corresponding to the first sentence. When the server acquires the second category selection input and the first voice, the server may provide a voice file corresponding to the second text.
예를 들어, 제2 음성에는 제2 카테고리의 제3, 제4, 제5 문장이 매칭될 수 있다. 여기서, 제3 문장에는 제1 제스처(즉, 제1 영상)가 매칭될 수 있고, 제4 문장에는 제2 제스처가 매칭될 수 있고, 제5 문장에는 제3 제스처가 매칭될 수 있다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제1 제스처를 획득하면, 제3 문장에 해당하는 음성 파일을 제공할 수 있다. 이 경우, 제2 카테고리 선택 입력과 제2 음성만을 획득하면, 서버는 제3 문장에 해당하는 음성 파일을 제공하지 않는다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제2 제스처를 획득하면, 제4 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 음성 및 제3 제스처를 획득하면 제5 문장에 해당하는 음성 파일을 제공할 수 있다.For example, third, fourth, and fifth sentences of the second category may be matched to the second voice. Here, the first gesture (ie, the first image) may be matched to the third sentence, the second gesture may be matched to the fourth sentence, and the third gesture may be matched to the fifth sentence. When the server acquires the second category selection input, the second voice, and the first gesture, the server may provide a voice file corresponding to the third sentence. In this case, when only the second category selection input and the second voice are obtained, the server does not provide the voice file corresponding to the third sentence. When the server acquires the second category selection input, the second voice, and the second gesture, the server may provide a voice file corresponding to the fourth sentence. When the server acquires the second category selection input, the second voice, and the third gesture, the server may provide a voice file corresponding to the fifth sentence.
예를 들어, 제3 음성에는 제1 카테고리의 제6 문장이 매칭될 수 있다. 즉, 하나의 음성에 하나의 문장만 매칭되는 것도 가능하다. 서버는 제1 카테고리 선택 입력과 제3 음성을 획득하면, 제6 문장에 해당하는 음성 파일을 제공할 수 있다.For example, the sixth sentence of the first category may be matched to the third voice. That is, it is also possible to match only one sentence to one voice. When the server acquires the first category selection input and the third voice, the server may provide a voice file corresponding to the sixth sentence.
다시 도 3을 참조하면, 서버는 대체 음성, 대체 영상 입력을 획득할 수 있다(S370). 예를 들어, 서버는 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장할 수 있다.Referring back to FIG. 3 , the server may obtain an alternative voice and an alternative video input ( S370 ). For example, the server may obtain and store, from the consumer terminal, an alternative voice input to replace the voice input in the custom language set information.
서버는 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 영상 입력을 대체할 대체 영상 입력을 획득 및 저장할 수 있다.The server may obtain and store, from the consumer terminal, an alternative image input to replace the image input in the custom language set information.
서버는 새로운 커스텀 언어 세트를 생성할 수 있다(S380). 예를 들어, 서버는 상기 대체 음성 입력 및 상기 대체 영상 입력을 기초로 제2 커스텀 언어 세트 정보를 생성할 수 있다. 아래에서, 대체 음성 및 대체 영상(즉, 대체 제스처)을 통해 새로운 커스텀 언어 세트 정보를 생성하는 방법에 대해 설명한다.The server may create a new custom language set (S380). For example, the server may generate second custom language set information based on the alternative voice input and the alternative video input. Hereinafter, a method of generating new custom language set information through an alternative voice and an alternative image (ie, an alternative gesture) will be described.
도 5는 장애인과 비장애인의 의사소통을 위한 서비스 방법의 일 실시예에 따른 제2 커스텀 언어 세트를 도시한 도면이다.5 is a diagram illustrating a second custom language set according to an embodiment of a service method for communication between the disabled and the non-disabled.
도 5를 참조하면, 제1 음성 내지 제3 음성이 제1 대체 음성 내지 제3 대체 음성으로 대체될 수 있다. 음성의 경우, 다른 사람의 음성이 등록되어 있으면 음색, 음량, 음의 높낮이 등이 다를 수 있기 때문에 자신의 음성을 사용하는 것이 바람직하다. 따라서, 커스텀 언어 세트를 구매한 사용자는 해당 커스텀 언어 세트에서 음성 부분을 자신의 음성으로 대체할 수 있다.Referring to FIG. 5 , first to third voices may be replaced with first to third alternate voices. In the case of voice, it is preferable to use one's own voice because the tone, volume, pitch, and the like may be different if another person's voice is registered. Accordingly, a user who has purchased a custom language set can replace the voice part in the custom language set with his or her own voice.
예를 들어, 사용자는 대체 음성 정보를 서버에 전송할 수 있고, 서버는 사용자 단말로부터 대체 음성 정보를 획득하면, 기존 커스텀 언어 세트의 음성을 대체 음성으로 대체할 수 있다.For example, the user may transmit substitute voice information to the server, and when the server obtains the substitute voice information from the user terminal, the voice of the existing custom language set may be replaced with the substitute voice.
또한, 제스처의 경우에도, 장애 때문에 동일한 제스처를 수행하기 어려운 케이스가 발생할 수 있기 때문에, 기존 제스처가 대체 제스처로 대체될 수 있다.Also, even in the case of a gesture, since a case in which it is difficult to perform the same gesture due to a disability may occur, an existing gesture may be replaced with an alternative gesture.
예를 들어, 사용자는 대체 영상 정보를 서버에 전송할 수 있고, 서버는 사용자 단말로부터 대체 영상 정보를 획득하면, 기존 커스텀 언어 세트의 영상(즉, 제스처)을 대체 영상으로 대체할 수 있다.For example, the user may transmit the replacement image information to the server, and when the server obtains the replacement image information from the user terminal, the image (ie, gesture) of the existing custom language set may be replaced with the replacement image.
서버는 제1 카테고리 선택 입력과 제1 대체 음성을 획득하면, 제1 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제1 대체 음성을 획득하면, 제2 문자에 해당하는 음성 파일을 제공할 수 있다.When the server obtains the first category selection input and the first replacement voice, the server may provide a voice file corresponding to the first sentence. When the server obtains the second category selection input and the first replacement voice, the server may provide a voice file corresponding to the second text.
서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제1 대체 제스처를 획득하면, 제3 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제2 대체 제스처를 획득하면, 제4 문장에 해당하는 음성 파일을 제공할 수 있다. 서버는 제2 카테고리 선택 입력과 제2 대체 음성 및 제3 대체 제스처를 획득하면 제5 문장에 해당하는 음성 파일을 제공할 수 있다.When the server acquires the second category selection input, the second alternative voice, and the first alternative gesture, the server may provide a voice file corresponding to the third sentence. When the server acquires the second category selection input, the second alternative voice, and the second alternative gesture, the server may provide a voice file corresponding to the fourth sentence. When the server acquires the second category selection input, the second alternative voice and the third alternative gesture, the server may provide a voice file corresponding to the fifth sentence.
서버는 제1 카테고리 선택 입력과 제3 대체 음성을 획득하면, 제6 문장에 해당하는 음성 파일을 제공할 수 있다.When the server obtains the first category selection input and the third alternative voice, the server may provide a voice file corresponding to the sixth sentence.
도 3의 일례에 표시된 세부 단계 중 일부는 필수 단계가 아닐 수 있고, 생략될 수 있다. 도 3에 도시된 단계 외에 다른 단계가 추가될 수 있고, 상기 단계들의 순서는 달라질 수 있다. 상기 단계들 중 일부 단계가 독자적 기술적 의미를 가질 수 있다.Some of the detailed steps shown in the example of FIG. 3 may not be essential steps and may be omitted. In addition to the steps shown in FIG. 3 , other steps may be added, and the order of the steps may vary. Some of the above steps may have their own technical meaning.
적어도 하나의 서버에 의해 수행되는 장애인과 비장애인의 의사소통을 위한 서비스를 제공하는 방법에 있어서, 사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계; 상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계; 상기 사용자 단말로부터, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계를 포함할 수 있다.A method of providing a service for communication between the disabled and the non-disabled performed by at least one server, the method comprising: acquiring and storing a user's voice input from a user terminal; obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step; obtaining, from the user terminal, an input for selecting the first category and the voice input; and providing, to the user terminal, a voice file corresponding to the first sentence based on an input for selecting the first category and the voice input.
여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제1 문장에 매칭될 제스처에 대한 영상 입력을 획득 및 저장하는 단계; 및 상기 사용자 단말로부터, 상기 영상 입력을 획득하는 단계를 더 포함하고, 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계는, 상기 서버가, 상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력, 상기 음성 입력, 및 상기 영상 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공할 수 있다.Here, the step of obtaining, by the server, an image input for a gesture to be matched with the first sentence from the user terminal and storing; and obtaining the image input from the user terminal, wherein the step of providing the audio file corresponding to the first sentence includes, by the server, an input for selecting the first category to the user terminal , an audio file corresponding to the first sentence based on the audio input and the image input may be provided.
여기서, 상기 서버가, 상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계; 상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계; 및 상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계를 더 포함할 수 있다.Here, obtaining, by the server, an input for selecting the second category and an input different from the voice input from the user terminal; obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category; and providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category.
여기서, 상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장일 수 있다.Here, the first sentence and the second sentence may be sentences having different meanings.
여기서, 상기 서버가, 소비자 단말에게, 상기 음성 입력, 상기 영상 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계를 더 포함할 수 있다.Here, the server sends, to the consumer terminal, first custom language set information related to the matching relationship between the voice input, the video input, the first sentence, the second sentence, the first category, and the second category. It may further include the step of providing.
여기서, 상기 서버가, 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장하는 단계; 상기 소비자 단말로부터, 상기 커스텀 언어 세트 정보에서 상기 영상 입력을 대체할 대체 영상 입력을 획득 및 저장하는 단계; 및 상기 대체 음성 입력 및 상기 대체 영상 입력을 기초로 제2 커스텀 언어 세트 정보를 생성하는 단계를 더 포함할 수 있다.Here, the server acquiring and storing, from the consumer terminal, an alternative voice input to replace the voice input in the custom language set information; obtaining and storing, from the consumer terminal, an alternative image input to replace the image input in the custom language set information; and generating second custom language set information based on the alternative voice input and the alternative video input.
본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.The operation according to the embodiment of the present specification may be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. In addition, the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable programs or codes in a distributed manner.
실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented in software, the above-described technique may be implemented as a module (process, function, etc.) that performs the above-described function. A module may be stored in a memory and executed by a processor. The memory may be internal or external to the processor, and may be coupled to the processor by various well-known means.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, wherein a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also represent a corresponding block or item or a corresponding device feature. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.
상술한 다양한 실시예들은 그 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 다양한 실시예들의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 다양한 실시예들의 등가적 범위 내에서의 모든 변경은 다양한 실시예들의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The various embodiments described above may be embodied in other specific forms without departing from the technical idea and essential characteristics thereof. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the various embodiments should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the various embodiments are included in the scope of the various embodiments. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment or may be included as a new claim by amendment after filing.
Claims (1)
사용자 단말로부터, 사용자의 음성 입력을 획득 및 저장하는 단계;
상기 사용자 단말로부터, 상기 음성 입력에 매칭될 제1 문장 및 제2 문장에 대한 선택 입력을 획득하되, 상기 제1 문장은 제1 카테고리에 관련되고, 상기 제2 문장은 제2 카테고리에 관련되는, 단계;
상기 사용자 단말에게, 상기 제1 카테고리를 선택하는 입력 및 상기 음성 입력을 기초로 상기 제1 문장에 해당하는 음성 파일을 제공하는 단계;
상기 사용자 단말로부터, 상기 제2 카테고리를 선택하는 입력 및 상기 음성 입력과 상이한 입력을 획득하는 단계;
상기 사용자 단말로부터, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 하나의 문장을 선택하는 입력을 획득하는 단계;
상기 사용자 단말에게, 상기 제2 카테고리에 관련된 복수의 문장들 중에서 선택된 상기 하나의 문장에 해당하는 음성 파일을 제공하는 단계;
소비자 단말에게, 상기 음성 입력, 상기 제1 문장, 상기 제2 문장, 상기 제1 카테고리, 및 상기 제2 카테고리의 매칭 관계에 관련된 제1 커스텀 언어 세트 정보를 제공하는 단계;
상기 소비자 단말로부터, 상기 제1 커스텀 언어 세트 정보에서 상기 음성 입력을 대체할 대체 음성 입력을 획득 및 저장하는 단계;
상기 대체 음성 입력을 기초로 제2 커스텀 언어 세트 정보를 생성하는 단계를 포함하고,
상기 제1 문장과 상기 제2 문장은 의미가 상이한 문장인,
장애인을 위한 의사소통 보조 서비스 제공 방법.
In the method of providing a communication assistance service for the disabled performed by at least one server,
obtaining and storing the user's voice input from the user terminal;
obtaining, from the user terminal, selection inputs for a first sentence and a second sentence to be matched with the voice input, wherein the first sentence relates to a first category, and the second sentence relates to a second category; step;
providing, to the user terminal, an input for selecting the first category and a voice file corresponding to the first sentence based on the voice input;
obtaining, from the user terminal, an input for selecting the second category and an input different from the voice input;
obtaining, from the user terminal, an input for selecting one sentence from among a plurality of sentences related to the second category;
providing, to the user terminal, a voice file corresponding to the one sentence selected from among a plurality of sentences related to the second category;
providing, to a consumer terminal, first custom language set information related to a matching relationship between the voice input, the first sentence, the second sentence, the first category, and the second category;
obtaining and storing, from the consumer terminal, a substitute voice input to replace the voice input in the first custom language set information;
generating second custom language set information based on the alternative speech input;
The first sentence and the second sentence are sentences having different meanings,
How to provide communication assistance services for people with disabilities.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220066881A KR102456526B1 (en) | 2021-12-13 | 2022-05-31 | Method for providing communication assistance service for people with disabilities |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210177619A KR102405822B1 (en) | 2021-12-13 | 2021-12-13 | Method and apparatus for providing service for communication between disabled and non-disabled people |
KR1020220066881A KR102456526B1 (en) | 2021-12-13 | 2022-05-31 | Method for providing communication assistance service for people with disabilities |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210177619A Division KR102405822B1 (en) | 2021-12-13 | 2021-12-13 | Method and apparatus for providing service for communication between disabled and non-disabled people |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102456526B1 true KR102456526B1 (en) | 2022-10-19 |
Family
ID=81986951
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210177619A KR102405822B1 (en) | 2021-12-13 | 2021-12-13 | Method and apparatus for providing service for communication between disabled and non-disabled people |
KR1020220066881A KR102456526B1 (en) | 2021-12-13 | 2022-05-31 | Method for providing communication assistance service for people with disabilities |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210177619A KR102405822B1 (en) | 2021-12-13 | 2021-12-13 | Method and apparatus for providing service for communication between disabled and non-disabled people |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102405822B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090065715A (en) * | 2007-12-18 | 2009-06-23 | (주)트루시스템 | Communication assistance apparatus for the deaf-mutism and the like |
KR20150060348A (en) * | 2013-11-26 | 2015-06-03 | 한국전자통신연구원 | Apparatus and method of communication between disabled person and disabled person |
KR102036612B1 (en) * | 2019-06-20 | 2019-10-25 | 코액터스 주식회사 | A system that helps communicate between 'Taxi driver with hearing impairment' and 'passenger' |
-
2021
- 2021-12-13 KR KR1020210177619A patent/KR102405822B1/en active IP Right Grant
-
2022
- 2022-05-31 KR KR1020220066881A patent/KR102456526B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090065715A (en) * | 2007-12-18 | 2009-06-23 | (주)트루시스템 | Communication assistance apparatus for the deaf-mutism and the like |
KR20150060348A (en) * | 2013-11-26 | 2015-06-03 | 한국전자통신연구원 | Apparatus and method of communication between disabled person and disabled person |
KR102036612B1 (en) * | 2019-06-20 | 2019-10-25 | 코액터스 주식회사 | A system that helps communicate between 'Taxi driver with hearing impairment' and 'passenger' |
Also Published As
Publication number | Publication date |
---|---|
KR102405822B1 (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3389044B1 (en) | Management layer for multiple intelligent personal assistant services | |
US11720200B2 (en) | Systems and methods for identifying a set of characters in a media file | |
US11900017B2 (en) | Optimizing display engagement in action automation | |
US10832653B1 (en) | Providing content on multiple devices | |
JP6125088B2 (en) | Serving content on multiple devices | |
US10827067B2 (en) | Text-to-speech apparatus and method, browser, and user terminal | |
JP6588637B2 (en) | Learning personalized entity pronunciation | |
JP6744314B2 (en) | Updating Language Understanding Classifier Model for Digital Personal Assistant Based on Crowdsourcing | |
CN107111492B (en) | Scaling digital personal assistant agents across devices | |
US10249296B1 (en) | Application discovery and selection in language-based systems | |
Higginbotham et al. | The future of the android operating system for augmentative and alternative communication | |
US10860289B2 (en) | Flexible voice-based information retrieval system for virtual assistant | |
CA3158979A1 (en) | Headless task completion within digital personal assistants | |
JP2019533181A (en) | Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE) | |
US20220283831A1 (en) | Action recipes for a crowdsourced digital assistant system | |
US11056103B2 (en) | Real-time utterance verification system and method thereof | |
Lojka et al. | Multi-thread parallel speech recognition for mobile applications | |
KR102456526B1 (en) | Method for providing communication assistance service for people with disabilities | |
US11803590B2 (en) | Smart and interactive book audio services | |
KR102584324B1 (en) | Method for providing of voice recognition service and apparatus thereof | |
US11211057B2 (en) | Interactive e-reader device, related method, and computer readable medium storing related software program | |
JP2018511873A (en) | Search service providing apparatus, method, and computer program | |
US11722572B2 (en) | Communication platform shifting for voice-enabled device | |
KR102660922B1 (en) | Management layer for multiple intelligent personal assistant services | |
TWI604435B (en) | Method and mobile device for customizing speech recognition results, computer-readable recording media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |