KR102300589B1 - Sign language interpretation system - Google Patents

Sign language interpretation system Download PDF

Info

Publication number
KR102300589B1
KR102300589B1 KR1020190158245A KR20190158245A KR102300589B1 KR 102300589 B1 KR102300589 B1 KR 102300589B1 KR 1020190158245 A KR1020190158245 A KR 1020190158245A KR 20190158245 A KR20190158245 A KR 20190158245A KR 102300589 B1 KR102300589 B1 KR 102300589B1
Authority
KR
South Korea
Prior art keywords
sign language
sentence
dictionary
morpheme
homonym
Prior art date
Application number
KR1020190158245A
Other languages
Korean (ko)
Other versions
KR20210068790A (en
Inventor
배주운
Original Assignee
주식회사 에이아이톡
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이아이톡 filed Critical 주식회사 에이아이톡
Priority to KR1020190158245A priority Critical patent/KR102300589B1/en
Publication of KR20210068790A publication Critical patent/KR20210068790A/en
Application granted granted Critical
Publication of KR102300589B1 publication Critical patent/KR102300589B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

본 발명은 인공지능(AI) 기반의 수화통역 시스템에 관한 것으로, 같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전이 저장된 사전 저장부와; 입력 문장에 대해 형태소를 구분하기 위한 형태소 분석기와; 상기 구분된 각 형태소에 대하여 상기 사전들과 비교해 번역할 수화문장을 생성하는 수화문장 생성기와; 생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부에서 추출하는 모션 데이터 추출부와; 추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 표시부상에 표시 제어하는 아바타 모션 표시부;를 포함함을 특징으로 한다.The present invention relates to a sign language interpretation system based on artificial intelligence (AI). a dictionary storage unit storing a processing dictionary, a stopword processing dictionary defining stopwords that are not used for sign language translation among morpheme-analyzed sentences, and a homonym dictionary in which different identification information is set for each homonym; a morpheme analyzer for classifying morphemes with respect to the input sentence; a sign language sentence generator for generating a sign language sentence to be translated by comparing it with the dictionaries for each of the divided morphemes; a motion data extraction unit for extracting from the storage unit each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence; and an avatar motion display unit configured to display and control the motion of the sign language transmission avatar on the display unit according to the extracted motion data.

Figure 112019124272811-pat00001
Figure 112019124272811-pat00001

Description

수화통역 시스템{SIGN LANGUAGE INTERPRETATION SYSTEM}Sign Language Interpretation System {SIGN LANGUAGE INTERPRETATION SYSTEM}

본 발명은 수화통역 시스템에 관한 것으로, 특히 인공지능(AI) 기반의 수화통역 시스템에 관한 것이다.The present invention relates to a sign language interpretation system, and more particularly, to an artificial intelligence (AI)-based sign language interpretation system.

정부의 장애인 차별 금지법 시행에 따라 장애인에 대한 다양한 정보 서비스 지원체계를 수립하여 지원하고 있으나, 장애인의 현황을 정확히 파악하지 못하고 있음은 물론 대부분 보여주기 식의 정책 및 서비스가 주를 이루고 있는 실정이다. 예를 들면 상당 수의 청각 장애인들은 한국어를 이해하고 있지 못한데 장애인용 자막 방송이 서비스되고 있다는 것이 대표적인 예이다.In accordance with the enforcement of the Anti-Discrimination Act of the Disabled by the government, various information service support systems for the disabled have been established and supported. For example, a significant number of hearing-impaired people do not understand Korean, but closed captioning for the disabled is a typical example.

일반인들은 보통 청각 장애인들이 음성언어(한국어)를 들을 수 없지만 글을 읽어 의사소통할 수 있기 때문에 다양한 정보에 접근하거나 의사소통하는데 불편함이 없으리라 생각한다. 그러나 청각 장애인은 듣기에 어려움이 있어 음성언어(한국어) 습득에 어려움이 있고, 그로 인해 음성언어에 해당되는 문자(한글)의 습득에도 어려움을 갖는다. 즉, 청각 장애인의 경우 소수를 제외하면 전반적으로 한국어 문해에 어려움이 있어 그 어떤 매체로도 신속, 정확하게 정보를 습득하는데 한계가 있다.Ordinary people think that hearing-impaired people cannot hear spoken language (Korean), but because they can communicate by reading, there will be no inconvenience in accessing or communicating with various information. However, hearing impaired people have difficulty in acquiring the spoken language (Korean) because of their hearing difficulties, and therefore have difficulties in acquiring the characters (Hangul) corresponding to the spoken language. In other words, with the exception of a few, the hearing impaired generally have difficulties in Korean literacy, limiting their ability to acquire information quickly and accurately through any medium.

또한 기존에 서비스되고 있는 수화 서비스도 '한국어 대응수화(한국어를 제1언어로 하고 이후에 수어를 습득하기 시작하여 수어 문법에 능숙하지 않은 청각 장애인들이 한국어의 의미를 수어로 이해하려고 할 때 사용)'로서 청각 장애인이 사용하고 있는 '한국수화(수어를 제1언어로 습득하여 수어 문법에 능숙한 청각 장애인이 한국어의 의미를 이해하려고 할 때 사용)'와는 차이가 있어, 향후 수화서비스는 청각 장애인이 활용하고 있는 한국수화를 중심으로 서비스 제공이 이루어질 필요가 있다.In addition, the existing sign language service is also called 'Korean correspondence sign language (used when deaf people who are not proficient in sign language grammar because Korean is their first language and then start to acquire sign language try to understand the meaning of Korean in sign language) It is different from 'Korean sign language (used when a deaf person who is proficient in sign language grammar by acquiring sign language as a first language tries to understand the meaning of Korean)' used by the deaf as '. It is necessary to provide services centering on the Korean sign language that is being used.

대한민국 등록특허공보 제10-1612873호Republic of Korea Patent Publication No. 10-1612873

이에 본 발명은 상술한 필요성 및 상술한 문제를 해결하기 위해 창안된 발명으로써, 본 발명의 주요 목적은 청각 장애인의 미디어 접근성 강화 및 민원 서비스 향상을 위한 인공지능 기반의 수화통역 시스템을 제공함에 있다.Accordingly, the present invention is an invention devised to solve the above-mentioned necessity and the above-mentioned problems, and the main object of the present invention is to provide an artificial intelligence-based sign language interpretation system for strengthening media accessibility of the hearing impaired and improving civil service services.

더 나아가 본 발명의 또 다른 목적은 청각 장애인을 위한 한국수어 기반의 수화통역 시스템을 제공함에 있으며,Furthermore, another object of the present invention is to provide a sign language interpretation system based on Korean sign language for the hearing impaired,

더 나아가 본 발명은 기존의 자막방송 위주의 청각 장애인 정보 서비스 체계에서 청각 장애인의 정보 서비스 접근성 향상을 위한 체계로 전환할 수 있는 초석을 마련하기 위한 AI 기반의 수화통역 시스템을 제공함을 또 다른 목적으로 한다.Furthermore, the present invention aims to provide an AI-based sign language interpretation system to lay the foundation for transition from the existing closed captioning-centered information service system for the hearing impaired to a system for improving access to information services for the hearing impaired. do.

또한 본 발명은 청각 장애인을 위한 자막방송을 한국수어 기반의 수화로 통역하여 줄 수 있는 AI 기반의 수화통역 시스템을 제공함에 있다.Another object of the present invention is to provide an AI-based sign language interpretation system capable of interpreting closed caption broadcasting for the hearing impaired into sign language based on Korean sign language.

또한 본 발명은 정부기관, 지자체, 공공 기관 등의 민원 서비스 내용뿐만 아니라 웹콘텐츠를 수화로 서비스할 수 있는 AI 기반의 수화통역 시스템을 제공함에 있다.In addition, the present invention is to provide an AI-based sign language interpretation system that can service web contents in sign language as well as civil service contents of government agencies, local governments, and public institutions.

마지막으로 본 발명의 다른 목적은 한국어 문장의 의미 분석을 통하여 청각 장애인에게 가장 적합한 수화를 번역 제공할 수 있는 한국수어 중심의 AI 기반 수화통역 시스템을 제공함에 있다.Finally, another object of the present invention is to provide an AI-based sign language interpretation system centered on Korean sign language that can translate and provide the most suitable sign language to the hearing impaired through semantic analysis of Korean sentences.

상술한 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 수화통역 시스템은,Sign language interpretation system according to an embodiment of the present invention for solving the above technical problem,

같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전이 저장된 사전 저장부와;Defines a prototype dictionary that defines words derived from the same word as a single word, a thesaurus that defines words with the same or similar meaning as a single word, and defines stopwords that are not used in sign language translation among morphologically analyzed sentences a dictionary storage unit for storing the stopped word processing dictionary and the homonym dictionary in which different identification information is set for each homonym;

입력 문장에 대해 형태소를 구분하기 위한 형태소 분석기와;a morpheme analyzer for classifying morphemes with respect to the input sentence;

상기 구분된 각 형태소에 대하여 상기 사전들과 비교해 번역할 수화문장을 생성하는 수화문장 생성기와;a sign language sentence generator for generating a sign language sentence to be translated by comparing it with the dictionaries for each of the divided morphemes;

생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 수화사전에서 추출하는 모션 데이터 추출부와;a motion data extraction unit for extracting each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence from a sign language dictionary;

추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 표시부상에 표시 제어하는 아바타 모션 표시부;를 포함함을 특징으로 하며,and an avatar motion display unit configured to display and control the motion of the sign language transmission avatar on the display unit according to the extracted motion data,

상술한 수화통역 시스템은, 마이크를 통해 입력되는 음성신호를 문장으로 변환하여 상기 형태소 분석기로 전달하기 위한 음성인식 문자 변환부;를 더 포함함을 또 다른 특징으로 한다.Another feature of the sign language interpretation system described above is that it further includes a voice recognition text converter for converting a voice signal input through a microphone into a sentence and transmitting it to the morpheme analyzer.

상술한 구성의 수화통역 시스템들에 있어서, 상기 입력 문장은 방송신호에서 분리되어 디코딩 처리된 자막 방송의 문장일 수 있고,In the sign language interpretation systems having the above configuration, the input sentence may be a subtitle broadcasting sentence that has been decoded and separated from a broadcast signal,

상기 입력 문장은 통신망을 통해 외부 컴퓨터 시스템으로부터 수화통역 요청된 문장일 수 있다.The input sentence may be a sentence requested for sign language interpretation from an external computer system through a communication network.

더 나아가 상술한 구성의 수화통역 시스템들에 있어서, 상기 수화문장 생성기는,Furthermore, in the sign language interpretation systems of the above configuration, the sign language sentence generator,

상기 구분된 하나의 형태소가 동음이의어일 경우 전후 단어를 인식해 동음이의어중 하나의 형태소를 선택해 상기 수화문장에 포함시킬 수 있으며,When one of the divided morphemes is a homonym, the preceding and following words can be recognized and one of the morphemes can be selected and included in the sign language sentence,

상기 사전 저장부는 이름, 지명과 같은 고유명사에 대한 처리 규칙을 정의해 놓은 개체인식 사전을 더 저장하며, 이러한 경우 상기 수화문장 생성기는 상기 구분된 각 형태소에 대하여 원형사전 비교, 동의어처리, 개체인식 검토, 동음이의어 처리를 순차적으로 수행하여 상기 수화문장을 생성함을 또 다른 특징으로 한다.The dictionary storage unit further stores an individual recognition dictionary in which processing rules for proper nouns such as names and place names are defined. Another feature is that the sign language sentence is generated by sequentially performing the review and homonym processing.

본 발명의 또 다른 실시예에 따른 수화통역 시스템은 서버에서 실행 가능한 수화통역 시스템으로서,A sign language interpretation system according to another embodiment of the present invention is a sign language interpretation system executable in a server,

같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전이 저장된 사전 저장부와;Defines a prototype dictionary that defines words derived from the same word as a single word, a thesaurus that defines words with the same or similar meaning as a single word, and defines stopwords that are not used in sign language translation among morphologically analyzed sentences a dictionary storage unit for storing the stopped word processing dictionary and the homonym dictionary in which different identification information is set for each homonym;

웹 사이트 방문자에 의해 웹 사이트에서 지정된 수화통역 희망 문장에 대해 형태소를 구분하기 위한 형태소 분석기와;a morpheme analyzer for classifying morphemes for a sign language interpretation desired sentence specified on the website by the website visitor;

상기 구분된 각 형태소에 대하여 상기 사전들과 비교해 번역할 수화문장을 생성하는 수화문장 생성기와;a sign language sentence generator for generating a sign language sentence to be translated by comparing it with the dictionaries for each of the divided morphemes;

생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 수화사전에서 추출하는 모션 데이터 추출부와;a motion data extraction unit for extracting each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence from a sign language dictionary;

추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 상기 웹 사이트상에 표시 제어하는 아바타 모션 표시부;를 포함함을 특징으로 한다.and an avatar motion display unit configured to display and control the motion of the sign language transmission avatar on the website according to the extracted motion data.

상술한 과제 해결 수단에 따르면, 본 발명은 한국어 문장의 의미 분석을 통하여 청각 장애인에게 가장 적합한 한국수어 기반의 수화를 통역 제공할 수 있는 효과가 있으며,According to the above-described problem solving means, the present invention has the effect of providing an interpretation of the most suitable Korean sign language-based sign language for the hearing impaired through semantic analysis of Korean sentences,

또한 본 발명은 웹 사이트에 게재된 문장을 한국수어 기반의 수화로 통역하여 수화 전달 아바타를 통해 수지적 요소와 비수지적 요소의 모션으로 표출하기 때문에, 청각 장애인의 미디어 접근성을 강화시킴은 물론 민원 서비스를 향상시킬 수 있는 효과도 제공한다.In addition, the present invention interprets the sentences posted on the website into sign language based on Korean sign language and expresses them as motions of the digital elements and the non-finger elements through the sign language delivery avatar. It also provides the effect of improving

더 나아가 본 발명은 셋 탑 박스와 같은 방송신호 수신장치에 적용 가능하기 때문에 실시간 자막방송은 물론 폐쇄자막 방송에 대해 자막 내용을 수화전달 아바타를 통해 청각 장애인에게 전달해 줄 수 있는 효과도 있다.Furthermore, since the present invention can be applied to a broadcast signal receiving device such as a set-top box, there is an effect of delivering caption contents to the hearing impaired through a sign language delivery avatar for closed caption broadcasting as well as real-time closed caption broadcasting.

도 1은 본 발명의 일 실시예에 따른 수화통역 시스템의 구성 예시도.
도 2는 도 1에 도시한 수화통역 시스템의 동작 흐름 예시도.
도 3은 본 발명의 실시예에 따른 수화사전 예시도.
도 4는 도 1에 도시한 수화통역 시스템이 적용 가능한 시스템 구성 예시도.
도 5는 도 1에 도시한 수화통역 시스템의 또 다른 적용 가능 시스템 구성 예시도.
도 6은 도 5에 도시한 공공기관 서버(400)에 구축 가능한 수화통역 시스템의 구성 예시도.
도 7은 도 6에 도시한 수화통역 시스템의 동작 흐름 예시도.
1 is an exemplary configuration diagram of a sign language interpretation system according to an embodiment of the present invention.
FIG. 2 is an exemplary operation flow diagram of the sign language interpretation system shown in FIG. 1. FIG.
3 is an exemplary view of a sign language dictionary according to an embodiment of the present invention.
4 is an exemplary system configuration to which the sign language interpretation system shown in FIG. 1 is applicable.
Figure 5 is another applicable system configuration diagram of the sign language interpretation system shown in Figure 1;
6 is an exemplary configuration diagram of a sign language interpretation system that can be built in the public institution server 400 shown in FIG.
7 is an exemplary operation flow diagram of the sign language interpretation system shown in FIG.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

또한 본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.In addition, since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

이하 첨부 도면을 참조하여 본 발명의 실시예를 보다 구체적으로 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

우선 도 1은 본 발명의 일 실시예에 따른 수화통역 시스템(100)의 구성도를 예시한 것이다. 본 발명의 실시예에 따른 수화통역 시스템(100)은 컴퓨터 시스템을 구성하는 마이크로 프로세서에 의해 실행 가능한 제어 프로그램 데이터의 집합체로서, 도 1에 도시한 바와 같이 형태소 분석기(110), 수화문장 생성기(115), 모션 데이터 추출부(120) 및 아바타 모션 표시부(125)와 같은 다수의 기능 블럭들로 모듈화될 수 있다.First, FIG. 1 illustrates a configuration diagram of a sign language interpretation system 100 according to an embodiment of the present invention. A sign language interpretation system 100 according to an embodiment of the present invention is a collection of control program data executable by a microprocessor constituting a computer system, and as shown in FIG. 1 , a morpheme analyzer 110 and a sign language sentence generator 115 ), the motion data extraction unit 120 and the avatar motion display unit 125 may be modularized into a plurality of functional blocks.

보다 구체적으로 수화통역 시스템(100)은 입력 문장에 대해 형태소를 구분하기 위한 형태소 분석기(110)와, 상기 구분된 각 형태소에 대하여 후술할 사전들과 비교해 번역할 수화문장을 생성하는 수화문장 생성기(115)와, 생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 수화사전에서 추출하는 모션 데이터 추출부(120)와, 추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 표시부상에 표시 제어하는 아바타 모션 표시부(125)를 포함한다.More specifically, the sign language interpretation system 100 includes a morpheme analyzer 110 for classifying morphemes with respect to an input sentence, and a sign language sentence generator for generating a sign language sentence to be translated by comparing the divided morphemes with dictionaries to be described later. 115), a motion data extraction unit 120 that extracts each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence from a sign language dictionary, and a sign language delivery avatar according to the extracted motion data. and an avatar motion display unit 125 for displaying and controlling the motion on the display unit.

더 나아가 본 발명의 실시예에 따른 수화통역 시스템(100)은 수화통역을 위해 필요한 여러 사전 데이터가 저장되는 사전 저장부(130)를 더 포함한다.Furthermore, the sign language interpretation system 100 according to the embodiment of the present invention further includes a dictionary storage unit 130 for storing various dictionary data necessary for sign language interpretation.

상기 사전은 도 1에 도시한 바와 같이 같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전,The dictionary is a circular dictionary in which words derived from the same word are defined as one word as shown in FIG. 1;

같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전,A thesaurus that defines words with the same or similar meaning as a single word;

형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전,A stopword processing dictionary that defines stopwords that are not used in sign language translation among the morpheme-analyzed sentences;

각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전을 일컫는 것이며, 경우에 따라서는 이름, 지명과 같은 고유명사에 대한 처리 규칙을 정의해 놓은 개체인식 사전을 더 포함한다.It refers to a homonym dictionary in which different identification information is set for each homonym, and in some cases, further includes an individual recognition dictionary defining processing rules for proper nouns such as names and places.

참고적으로, 상기 원형 사전은 예를 들어 "..하고, ..해서, ..한다, ..하다"는 모두 "하다"라는 단어에서 파생된 단어들을 의미하므로 이들을 '하다'와 같이 하나의 단어로 정의해 놓은 사전을 말하며,For reference, in the original dictionary, for example, “..do, ..do, ..do, ..do” all mean words derived from the word “do”, so they can be combined into one single word like “do”. A dictionary that defines words

동의어처리 사전은 "파랗다. 푸르스름하다, 시퍼렇다"와 같이 비슷한 뜻을 가진 단어들을 "파랗다"라는 하나의 단어로 정의해 놓은 사전을 말하며,Thesaurus is a dictionary in which words with similar meanings, such as "blue, bluish, blue", are defined as one word, "blue."

불용어처리 사전은 형태소 구분된 문장 중 수화번역에 사용되지 않는 용어를 정의해 놓은 사전을,The stopword processing dictionary is a dictionary that defines terms that are not used in sign language translation among morpheme-separated sentences.

동음이의어 사전은 '떨어지다'와 같이 음이 동일하나 "시험에서 떨어지다"와 "옥상에서 떨어지다"와 같이 뜻이 다르게 해석되는 경우(다른 형태의 수화로 표현되어야 함)의 단어들에 대해 품사 혹은(및) 형태소 설명과 같은 서로 다른 식별정보를 대응시켜 구축한 사전이다. 동음이의어에 해당하는 단어는 그 앞뒤 단어를 인식하여 어떤 의미의 단어인지를 해석할 수 있다.The homonym dictionary describes words that have the same sound, such as 'fall', but have different meanings, such as "fall from the test" and "fall off the roof" (which must be expressed in different sign language). and) a dictionary constructed by matching different identification information such as morpheme descriptions. A word corresponding to a homophone can be interpreted as a word by recognizing the words before and after it.

참고적으로 수화문장 생성기(115)는 구분된 하나의 형태소가 동음이의어일 경우 AI에 기반하여 전후 단어를 인식해 동음이의어중 하나의 형태소를 선택해 상기 수화문장에 포함시키되, 선택된 형태소의 식별정보(품사)를 함께 포함시켜 후술할 수화단어코드 탐색에 이용토록 하는 것이 바람직하다.For reference, when one divided morpheme is a homonym, the sign language sentence generator 115 recognizes the preceding and following words based on AI, selects one morpheme among the homonyms, and includes the morpheme in the sign language sentence, but the identification information of the selected morpheme ( It is desirable to include parts of speech) together so that it can be used to search for sign language word codes, which will be described later.

또한 수화문장 생성기(115)는 구분된 각 형태소에 대하여 원형사전 비교, 동의어처리, 개체인식 검토, 동음이의어 처리를 순차적으로 수행하여 수화문장을 생성하는데 이에 대해서는 후술하기로 한다.In addition, the sign language sentence generator 115 sequentially performs archetype dictionary comparison, synonym processing, individual recognition review, and homonym processing for each divided morpheme to generate a sign language sentence, which will be described later.

참고적으로 형태소 분석기(110)로 입력되는 입력 문장은 시스템(100) 사용자로부터 UI를 통해 지정 혹은 입력되는 문장일 수 있으며, 시스템(100)이 방송신호 수신기에 탑재되어 운영될 경우 수신된 방송신호에서 분리되어 디코딩 처리된 자막 방송의 문장일 수 있으며, 통신망을 통해 연동 가능한 타 컴퓨터 혹은 서버 시스템에서 전송되는 수화통역 요청 문장일 수 있다.For reference, the input sentence input to the morpheme analyzer 110 may be a sentence specified or input by the user of the system 100 through the UI, and when the system 100 is mounted and operated in the broadcasting signal receiver, the received broadcasting signal It may be a sentence of closed caption broadcasting separated from and decoded, or it may be a sign language interpretation request sentence transmitted from another computer or server system that can be linked through a communication network.

한편, 상술한 구성 외에 본 발명의 실시예에 따른 수화통역 시스템(100)은 마이크를 통해 입력되는 음성신호를 문장으로 변환하여 상기 형태소 분석기(110)로 전달하기 위한 음성인식 문자 변환부와, 수화단어코드가 지시하는 모션 데이터들 저장하는 저장부를 더 포함할 수도 있다. 수화단어코드가 지시하는 모션 데이터는 구현 방법에 따라서 수화사전에 수화단어코드와 함께 매칭되어 저장될 수도 있다.Meanwhile, in addition to the above-described configuration, the sign language interpretation system 100 according to an embodiment of the present invention includes a voice recognition character converter for converting a voice signal input through a microphone into a sentence and transmitting it to the morpheme analyzer 110 , and sign language. It may further include a storage unit for storing motion data indicated by the word code. The motion data indicated by the sign language word code may be matched with the sign language word code and stored in the sign language dictionary according to an implementation method.

이하 상술한 구성을 가지는 수화통역 시스템(100)의 동작을 도 1 내지 도 3을 참조하여 상세히 설명하기로 한다.Hereinafter, the operation of the sign language interpretation system 100 having the above-described configuration will be described in detail with reference to FIGS. 1 to 3 .

도 2는 도 1에 도시한 수화통역 시스템(100)의 동작 흐름을 예시한 것이며, 도 3은 본 발명의 실시예에 따른 수화사전을 예시한 것이다. 도 3에 도시된 수화사전은 수화문장을 구성하는 '형태소', 상기 형태소의 '품사', 그리고 형태소를 식별하고 모션 데이터를 추출하기 위해 사용되는 '수화단어코드' 및 각 '형태소 설명'의 구분자를 포함한다. 경우에 따라서는 '모션 데이터' 구분자를 더 포함할 수도 있다.2 illustrates an operation flow of the sign language interpretation system 100 shown in FIG. 1, and FIG. 3 illustrates a sign language dictionary according to an embodiment of the present invention. The sign language dictionary shown in FIG. 3 is a delimiter of 'morpheme' constituting a sign language sentence, 'part of speech' of the morpheme, 'sign language word code' used to identify morphemes and extract motion data, and each 'description of morpheme'. includes In some cases, the 'motion data' delimiter may be further included.

이하 도 2를 참조하면, 본 발명의 실시예에 따른 수화통역 시스템(100)의 형태소 분석기(110)는 UI를 통해 시스템(100) 사용자로부터 혹은 통신망을 통해 연동 가능한 타 컴퓨터 혹은 서버 시스템으로부터 전송되어 입력된 문장(S10단계)에 대해 형태소를 구분(S20단계)한다.2, the morpheme analyzer 110 of the sign language interpretation system 100 according to the embodiment of the present invention is transmitted from the user of the system 100 through the UI or from another computer or server system that can be linked through the communication network. For the input sentence (step S10), morphemes are divided (step S20).

참고적으로, 한국어 형태소 분석기는 Bidirectional LSTM(Long Short-Term Memory) 방식의 형태소 분석기를 활용하여 한국어 문장상의 구문을 분석하여 의미를 이해하고 그에 맞는 최적의 단어를 선택하도록 설계할 수 있다. 이러한 형태소 분석기에서는 단어를 구성하고 있는 각 형태소의 기본형을 인식할 수 있으며 수화통역에 필요 없는 조사 등은 제거할 수 있다.For reference, the Korean morpheme analyzer can be designed to understand the meaning of Korean sentences by using the bidirectional LSTM (Long Short-Term Memory) type morpheme analyzer to understand the meaning of the Korean sentence and select an optimal word accordingly. Such a morpheme analyzer can recognize the basic form of each morpheme constituting a word, and can remove investigations that are not necessary for sign language interpretation.

형태소 분석기(110)에 의해 조사 등이 제거되고 각 형태소의 기본형이 구분 인식되면 수화문장 생성기(115)는 구분된 각 형태소에 대하여 사전 저장부(130)에 저장된 사전들과 비교해 번역할 수화문장을 생성(S30단계)한다.When the research and the like are removed by the morpheme analyzer 110 and the basic form of each morpheme is recognized separately, the sign language sentence generator 115 compares the divided morphemes with the dictionaries stored in the dictionary storage 130 to create a sign language sentence to be translated. generated (step S30).

구분된 각 형태소에 대해 원형사전 비교, 동의어 처리, 개체인식 검토(선택적), 동음이의어 처리를 순차적으로 적용하여 번역할 수화문장을 생성한다.Sign language sentences to be translated are generated by sequentially applying archetype dictionary comparison, synonym processing, individual recognition review (optional), and homonym processing for each divided morpheme.

예를 들어 입력된 문장이 "나는 학교에 간다"라면 "나+학교+간다"라는 수화문장을 생성하고, "공모전에 신청한 사람이 백 명이 넘는다"라는 문장이면 "공모전+신청하다+사람+백+넘다"라는 수화문장을 생성하며, 입력 문장이 "너희 아버지 집에 계시니?"라면 "너+아버지+집+있다+?"라는 수화문장을 생성한다.For example, if the input sentence is “I am going to school”, a sign language sentence “I + school + going” is created, and if the sentence is “more than 100 people applied for the contest”, “contest + apply + person + It generates a sign language sentence of "one hundred + more", and if the input sentence is "Are you at your father's house?", a sign language sentence of "you + father + house + are you +?" is generated.

수화문장이 생성되면 모션 데이터 추출부(120)는 생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부 혹은 모션 데이터까지 매칭되어 있는 수화사전에서 모션 데이터를 추출(S40단계)한다.When the sign language sentence is generated, the motion data extraction unit 120 stores each of the motion data indicated by the sign language word code matching each morpheme constituting the generated sign language sentence, or the motion data from the sign language dictionary that matches the motion data. Extraction (step S40).

만약 수화문장을 구성하는 형태소가 도 3에 도시한 바와 같이 동음이의어에 해당하는 "자"라면 모션 데이터 추출부(120)는 수화문장에 포함된 형태소의 식별정보, 예를 들면 "품사"정보를 활용해 형태소를 식별하고 그에 대응하는 수화단어코드가 지시하는 모션 데이터를 추출하면 된다.If the morpheme constituting the sign language sentence is “a” corresponding to the homonym as shown in FIG. 3 , the motion data extraction unit 120 retrieves identification information of the morpheme included in the sign language sentence, for example, “part of speech” information. It can be used to identify morphemes and extract the motion data indicated by the corresponding sign language word code.

모션 데이터는 표현 가능한 모든 형태소에 대해 수형, 수위, 수동, 수향과 같은 수지적 요소는 물론 사용자(아바타)의 얼굴 표정, 상체의 방향과 움직임 등 비수지적 요소까지 결합하여 모션 캡쳐된 데이터로서, 수화 전달 아바타의 수지적 요소와 비수지적 요소를 제어하기 위한 데이터로 활용된다.Motion data is motion-captured data for all morphemes that can be expressed by combining not only the numerical elements such as number, water level, manual, and direction, but also non-digital elements such as the user's (avatar) facial expression and upper body direction and movement. It is used as data to control the positive and non-financial elements of the delivery avatar.

모션 데이터가 추출되면, 아바타 모션 표시부(125)는 추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 표시부상에 표시 제어(S50단계)함으로써, 청각 장애인은 수화문장에 대한 수어를 아바타의 동작으로 전달받게 되고, 이로써 입력 문장에 대한 의미를 정상적으로 이해할 수 있게 되는 것이다.When the motion data is extracted, the avatar motion display unit 125 displays and controls the motion of the sign language transmission avatar on the display unit according to the extracted motion data (step S50). received, so that the meaning of the input sentence can be normally understood.

따라서 본 발명은 한국어 문장의 의미 분석을 통하여 청각 장애인에게 가장 적합한 한국수어 기반의 수화를 통역 제공할 수 있는 효과가 있다.Therefore, the present invention has the effect of providing an interpretation of the most suitable Korean sign language-based sign language for the hearing impaired through semantic analysis of Korean sentences.

이상의 실시 예에서는 UI를 통해 시스템(100) 사용자로부터 혹은 통신망을 통해 연동 가능한 타 컴퓨터 혹은 서버 시스템으로부터 전송되어 입력(클라우드 서비스 기반)된 문장에 대해 한국수어 기반의 수화를 통역해 주는 실시예를 설명하였지만 셋 탑 박스와 같은 방송신호 수신장치에도 본 발명의 수화통역 시스템을 적용하여 실시간 자막 방송은 물론 폐쇄자막에 대해 수화 통역이 이루어지도록 할 수도 있다. 이를 4를 참조하여 부연 설명하면,In the above embodiment, an embodiment of interpreting a Korean sign language-based sign language for a sentence input (cloud service-based) transmitted from a user of the system 100 through the UI or from another computer or server system that can be linked through a communication network is described. However, by applying the sign language interpretation system of the present invention to a broadcast signal receiving device such as a set-top box, sign language interpretation for closed captions as well as real-time closed captions can be performed. To explain this further with reference to 4,

우선 도 4는 도 1에 도시한 수화통역 시스템(100)이 적용 가능한 방송신호 수신장치로서, 보다 구체적으로는 셋 탑 박스의 일부 구성도를 예시한 것이다.First, FIG. 4 is a broadcast signal receiving apparatus to which the sign language interpretation system 100 shown in FIG. 1 is applicable, and more specifically, illustrates a partial configuration diagram of a set-top box.

도 4를 참조하면, 방송신호 분리 및 디코딩 처리부(220)는 튜너(210)를 통해 선국된 채널의 방송신호를 영상 데이터, 음성 데이터 및 자막 데이터로 분리하여 영상 신호, 음성 신호 및 자막 신호로 디코딩 처리한다.Referring to FIG. 4 , the broadcast signal separation and decoding processing unit 220 separates the broadcast signal of the channel selected through the tuner 210 into video data, audio data, and caption data, and decodes the video signal, audio signal, and caption signal. handle

보다 구체적으로 방송신호의 분리는 Demux에 의해 영상, 음성, 자막 신호가 분리되며, 분리된 각각의 영상, 음성 및 자막(부가 데이터에 해당함) 데이터는 영상 디코더, 음성 디코더, 데이터 디코더에 의해 각각 영상 신호와 음성 신호 및 자막 신호로 디코딩 처리된다.More specifically, in the separation of the broadcast signal, the video, audio, and subtitle signals are separated by the Demux, and each of the separated video, audio, and subtitle (corresponding to additional data) data is imaged by the video decoder, audio decoder, and data decoder, respectively. It is decoded into a signal, an audio signal, and a subtitle signal.

디코딩 처리된 자막 신호(도 2에서 입력된 문장에 해당함)는 수화통역 시스템(100)으로 전달되어 도 2에서 설명한 프로세스에 의해 수화 전달 아바타의 모션으로 변환되어 신호 처리부(230)로 전달된다.The decoded caption signal (corresponding to the sentence input in FIG. 2 ) is transmitted to the sign language interpretation system 100 , is converted into a motion of the sign language delivery avatar by the process described in FIG. 2 , and transmitted to the signal processing unit 230 .

신호 처리부(230)는 디코딩 처리된 영상 신호와 수화 전달 아바타의 모션 영상을 합성 처리하여 음성 신호와 동기화시켜 출력한다. 이러한 신호 처리부(230)는 원칩 IC인 AV 프로세서로 구현 가능하다.The signal processing unit 230 synthesizes the decoded image signal and the motion image of the sign language delivery avatar, synchronizes it with the audio signal, and outputs it. The signal processing unit 230 may be implemented as an AV processor that is a one-chip IC.

한편 제어부(240)는 선국된 채널정보를 자막방송 프로그램 관리 서버로 전송하여 자막이 영상에 비해 지연 송출되고 있는 실시간 자막방송인지를 질의하고, 그 질의 결과 실시간 자막방송이면 상기 디코딩 처리된 영상 및 음성 신호를 일정 시간 지연(실시간 자막방송에서 자막이 지연출력되는 시간에 맞춰)시킨 후 상기 영상 신호를 수화 전달 아바타의 모션 영상과 합성 처리하여 음성 신호와 동기화 출력되도록 신호 처리부(230)를 제어한다.Meanwhile, the control unit 240 transmits the selected channel information to the closed captioning program management server to inquire whether the caption is real-time captioning broadcast that is delayed compared to the video, and if the query result is real-time captioning broadcast, the decoded video and audio After delaying the signal for a certain period of time (to match the delay output time of subtitles in real-time closed caption broadcasting), the video signal is synthesized with the motion image of the sign language delivered avatar, and the signal processing unit 230 is controlled so that the signal is output in synchronization with the audio signal.

변형 가능한 방법으로, 상기 제어부(250)는 구현 방식에 따라 미리 설정된 시간 지연값, 예를 들면 2 내지 6초 구간 내에서 어느 하나의 시간 값으로 상기 디코딩 처리된 영상 및 음성 신호를 지연시켜 수화전달 아바타의 모션 영상과 함께 출력되도록 신호 처리부(230)를 제어할 수도 있다.As a deformable method, the control unit 250 delays the decoded video and audio signals with a preset time delay value according to an implementation method, for example, any one time value within a period of 2 to 6 seconds to deliver sign language. The signal processing unit 230 may be controlled to be output together with the motion image of the avatar.

실시간 자막 방송이 아닌 폐쇄자막이라면 단순히 폐쇄자막을 입력하여 도 2에서와 같은 프로세스에 따라 수화 전달 아바타의 모션 영상을 생성해 영상과 함께 출력 표시하면 된다.If the closed caption is not real-time caption broadcasting, simply input the closed caption and follow the same process as in FIG. 2 to generate a motion video of the sign language delivery avatar and display it together with the video.

이와 같이 본 발명의 실시예에 따른 수화통역 시스템은 실시간 자막방송은 물론 폐쇄자막 방송을 수신하여 표시하는 셋 탑 박스와 같은 방송신호 수신장치에 적용되어 한국수어 기반의 수화를 통역 제공할 수 있는 효과가 있다.As described above, the sign language interpretation system according to an embodiment of the present invention is applied to a broadcast signal receiving device such as a set-top box that receives and displays closed caption broadcasting as well as real-time closed caption broadcasting, thereby providing an interpretation of Korean sign language-based sign language. there is

이하 정부기관, 지자체, 공공 기관 등의 민원 서비스 내용뿐만 아니라 웹콘텐츠 내용을 수화로 번역하여 서비스할 수 있는 AI 기반의 또 다른 수화통역 시스템에 대해 부연 설명하면,Hereinafter, another AI-based sign language interpretation system that can translate web content as well as civil service content from government agencies, local governments, and public institutions to sign language will be explained further.

도 5는 도 1에 도시한 수화통역 시스템의 또 다른 적용 가능 시스템의 구성도를 예시한 것으로, 본 발명의 실시예에 따른 수화통역 시스템은 일 예로 공공기관 서버(400) 시스템에 구축 가능하다. 이에 하기에서는 참조번호 400을 공공기관 서버와 수화통역 시스템의 참조번호로 공통 사용하기로 한다. 도 5에서 여러 형태의 청각 장애인 단말(300)은 통신망을 통해 공공기관 서버(400)에 접속 가능한 단말을 도시한 것이며, 공공기관 서버(400)는 수화통역 요청한 청각 장애인 단말(300)로 한국수어 기반의 수화를 통역해 주는 서비스를 제공해 준다.FIG. 5 exemplifies the configuration of another applicable system of the sign language interpretation system shown in FIG. 1, and the sign language interpretation system according to an embodiment of the present invention can be built, for example, in the public institution server 400 system. Therefore, in the following, reference number 400 will be commonly used as a reference number for a public institution server and a sign language interpretation system. In FIG. 5 , various types of terminals 300 for the hearing impaired are terminals that can be connected to the public institution server 400 through a communication network, and the public institution server 400 is the terminal 300 for the hearing impaired that requested sign language interpretation. It provides a sign language interpretation service.

한편 도 6은 도 5에 도시한 공공기관 서버(400)에 구축 가능한 수화통역 시스템의 구성도를 예시한 것으로, 도 6에 도시한 수화통역 시스템(400) 역시,Meanwhile, FIG. 6 exemplifies the configuration of a sign language interpretation system that can be built in the public institution server 400 shown in FIG. 5 , and the sign language interpretation system 400 shown in FIG.

같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전이 저장된 사전 저장부(430)와,Defines a prototype dictionary that defines words derived from the same word as a single word, a thesaurus that defines words with the same or similar meaning as a single word, and defines stopwords that are not used in sign language translation among morphologically analyzed sentences A dictionary storage unit 430 for storing a disambiguation dictionary, a homonym dictionary in which different identification information is set for each homonym;

공공기관의 웹 사이트 방문자에 의해 웹 사이트에서 지정된 수화통역 희망 문장에 대해 형태소를 분석하여 구분하기 위한 형태소 분석기(410)와,a morpheme analyzer 410 for analyzing and classifying morphemes for a sign language interpretation desired sentence specified on the website by a website visitor of a public institution;

상기 구분된 각 형태소에 대하여 상기 사전들과 비교해 번역할 수화문장을 생성하는 수화문장 생성기(415)와,a sign language sentence generator 415 for generating a sign language sentence to be translated by comparing it with the dictionaries for each of the divided morphemes;

생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부 혹은 수화사전에서 추출하는 모션 데이터 추출부(420)와,A motion data extraction unit 420 for extracting each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence from a storage unit or a sign language dictionary;

추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 상기 웹 사이트상에 표시 제어하는 아바타 모션 표시부(425)를 포함한다.and an avatar motion display unit 425 for displaying and controlling the motion of the sign language transmission avatar on the website according to the extracted motion data.

상술한 구성의 수화통역 시스템(400)에 있어서도 수화문장 생성기(415)는,Also in the sign language interpretation system 400 having the above configuration, the sign language sentence generator 415 is

구분된 하나의 형태소가 동음이의어일 경우 전후 단어를 인식해 동음이의어중 하나의 형태소를 선택해 상기 수화문장에 포함시킴을 또 다른 특징으로 하며,Another feature is that, when one divided morpheme is a homonym, it recognizes the words before and after and selects one of the morphemes from the homonym and includes it in the sign language sentence,

더 나아가 수화문장 생성기(415)는 상기 선택된 형태소의 식별정보(예를 들면 품사)를 상기 수화문장에 포함시켜 수화단어코드 탐색에 이용토록 함을 또 다른 특징으로 한다.Furthermore, another feature of the sign language sentence generator 415 is to include identification information (eg, part-of-speech) of the selected morpheme in the sign language sentence and use it to search for a sign language word code.

한편 사전 저장부(430)는 이름, 지명과 같은 고유명사에 대한 처리 규칙을 정의해 놓은 개체인식 사전을 더 저장하며, 이러한 경우 수화문장 생성기(415)는 상기 구분된 각 형태소에 대하여 원형사전 비교, 동의어처리, 개체인식 검토, 동음이의어 처리를 순차적으로 수행하여 상기 수화문장을 생성함을 또 다른 특징으로 한다.Meanwhile, the dictionary storage unit 430 further stores an individual recognition dictionary in which processing rules for proper nouns such as names and place names are defined. In this case, the sign language sentence generator 415 compares the original dictionary for each of the divided morphemes , synonym processing, individual recognition review, and homonym processing are sequentially performed to generate the sign language sentence.

이하 공공기관 서버(400)에 구축 가능한 수화통역 시스템의 동작 흐름을 도시한 도 7을 참조하면,Referring to FIG. 7 showing the operation flow of the sign language interpretation system that can be built in the public institution server 400 below,

우선 청각 장애인은 자신의 단말(300)을 통해 공공기관 서버(400)의 웹 사이트에 접속(방문)(S100단계)한다. 이어 청각 장애인은 방문한 웹 사이트에 기재된 내용을 파악하기 위해 수화통역을 희망하는 문장(이하 '수화통역 희망문장'이라 함)을 지정(S110단계)한다.First, the deaf person accesses (visits) the website of the public institution server 400 through his/her terminal 300 (step S100). Next, the deaf person designates a sentence for which sign language interpretation is desired (hereinafter referred to as 'sign language interpretation hope sentence') in order to understand the contents written on the visited website (step S110).

이어 청각 장애인은 지정한 수화통역 희망문장에 대해 수화통역을 요청(S120단계)한다. 수화통역 요청에 따라 형태소 분석기(410)는 지정된 수화통역 희망문장에 대해 형태소를 구분(S130단계)한다.Then, the deaf person requests sign language interpretation for the designated sign language interpretation request (step S120). In response to the sign language interpretation request, the morpheme analyzer 410 classifies morphemes for the designated sign language interpretation desired sentence (step S130).

앞서 설명한 바와 같이 형태소 분석기(410)에 의해 조사 등이 제거되고 각 형태소의 기본형이 구분 인식되면 수화문장 생성기(415)는 구분된 각 형태소에 대하여 사전 저장부(430)에 저장된 사전들과 비교해 번역할 수화문장을 생성(S140단계)한다.As described above, when the morphemes are removed by the morpheme analyzer 410 and the basic form of each morpheme is recognized separately, the sign language sentence generator 415 translates each divided morpheme by comparing it with the dictionaries stored in the dictionary storage unit 430 . A sign language sentence is generated (step S140).

구분된 각 형태소에 대해 원형사전 비교, 동의어 처리, 개체인식 검토(선택적), 동음이의어 처리를 순차적으로 적용하여 번역할 수화문장을 생성한다.Sign language sentences to be translated are generated by sequentially applying original dictionary comparison, synonym processing, individual recognition review (optional), and homonym processing for each divided morpheme.

앞서 예를 든 바와 같이 수화통역 희망문장이 "나는 학교에 간다"라면 "나+학교+간다"라는 수화문장을 생성한다.As in the previous example, if the desired sentence for sign language interpretation is “I am going to school”, a sign language sentence of “I + school + going” is created.

수화문장이 생성되면 모션 데이터 추출부(420)는 생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부 혹은 모션 데이터까지 매칭되어 있는 수화사전에서 모션 데이터를 추출(S150단계)한다.When the sign language sentence is generated, the motion data extraction unit 420 stores each of the motion data indicated by the sign language word code matching each morpheme constituting the generated sign language sentence, or the motion data from the sign language dictionary that matches the motion data. extraction (step S150).

모션 데이터가 추출되면, 아바타 모션 표시부(425)는 추출된 모션 데이터에 따라 모션 동작하는 수화 전달 아바타의 수화 동영상을 생성(S160단계)해 이를 재생(S170단계)해 줌으로써, 청각 장애인 단말(300)에는 수화통역 희망문장에 대한 수화 동영상이 표시(S180단계)된다. 구현 방식에 따라 수화 전달 아바타가 수화통역 요청시에 청각 장애인 단말(300)에 표시되고, 공공기관 서버(400)로부터 전달되는 모션 데이터에 따라 수화 전달 아바타의 모션이 순차적으로 변경되도록 할 수도 있다.When the motion data is extracted, the avatar motion display unit 425 generates a sign language video of the sign language delivery avatar that moves according to the extracted motion data (step S160) and plays it back (step S170), so that the hearing impaired terminal 300 A sign language video for the desired sentence for sign language interpretation is displayed (step S180). Depending on the implementation method, the sign language delivery avatar may be displayed on the deaf terminal 300 when a sign language interpretation is requested, and the motion of the sign language delivery avatar may be sequentially changed according to motion data transmitted from the public institution server 400 .

이상에서 설명한 본 발명의 또 다른 실시예에서도 청각 장애인이 웹 사이트에서 지정한 문장에 대해 한국수어 기반의 수화로 통역되어 제공되기 때문에, 청각 장애인은 공공기관, 지자체 혹은 포털 사이트에서 제공하는 웹 사이트의 게시정보를 한국수어 기반의 수화로 제공받을 수 있다.In another embodiment of the present invention described above, since the sentences designated by the deaf person on the website are interpreted and provided in Korean sign language-based sign language, the deaf person can post on a website provided by a public institution, local government, or portal site. Information can be provided in sign language based on Korean sign language.

따라서 본 발명은 청각 장애인의 미디어 접근성을 강화시킴은 물론 민원 서비스를 향상시킬 수 있는 효과를 제공한다.Therefore, the present invention provides the effect of enhancing the media accessibility of the hearing impaired as well as improving the civil service.

참고적으로 상기 실시예에 따른 수화통역 시스템은 웹 서버 혹은 웹 서버와 연동 가능한 별도의 서버에 탑재되어 수화통역 서비스를 제공할 수 있다.For reference, the sign language interpretation system according to the embodiment may be mounted on a web server or a separate server capable of interworking with the web server to provide a sign language interpretation service.

이상은 도면에 도시된 실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 예를 들면 본 발명의 실시예에 따른 수화통역 시스템은 클라우드 기반 혹은 웹 사이트 기반 혹은 방송신호 수신장치를 기반으로 하는 여러 시스템들에 적용 가능한 수화통역 시스템이라 할 수 있다. 이에 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.The above has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. For example, the sign language interpretation system according to the embodiment of the present invention can be said to be a sign language interpretation system applicable to various systems based on a cloud-based, website-based, or broadcast signal receiving device. Accordingly, the true technical protection scope of the present invention should be defined only by the appended claims.

Claims (12)

같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전, 이름, 지명과 같은 고유명사에 대한 처리 규칙을 정의해 놓은 개체인식 사전이 저장된 사전 저장부와;
입력 문장에 대해 형태소를 구분하기 위한 형태소 분석기와;
상기 구분된 각 형태소에 대하여 원형사전 비교, 동의어처리, 개체인식 검토, 동음이의어 처리를 수행하여 번역할 수화문장을 생성하는 수화문장 생성기와;
생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부에서 추출하는 모션 데이터 추출부와;
추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 표시부상에 표시 제어하는 아바타 모션 표시부;를 포함함을 특징으로 하는 수화통역 시스템.
Defines a prototype dictionary that defines words derived from the same word as a single word, a thesaurus that defines words with the same or similar meaning as a single word, and defines stopwords that are not used in sign language translation among morphologically analyzed sentences a dictionary storage unit storing a set stop word processing dictionary, a homonym dictionary in which different identification information is set for each homonym, and an individual recognition dictionary in which processing rules for proper nouns such as names and place names are defined;
a morpheme analyzer for classifying morphemes with respect to the input sentence;
a sign language sentence generator for generating a sign language sentence to be translated by performing archetype dictionary comparison, synonym processing, individual recognition review, and homonym processing for each of the divided morphemes;
a motion data extraction unit for extracting from the storage unit each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence;
and an avatar motion display unit configured to display and control the motion of the sign language transmission avatar on the display unit according to the extracted motion data.
청구항 1에 있어서, 마이크를 통해 입력되는 음성신호를 문장으로 변환하여 상기 형태소 분석기로 전달하기 위한 음성인식 문자 변환부;를 더 포함함을 특징으로 하는 수화통역 시스템.The sign language interpretation system according to claim 1, further comprising a voice recognition text converter for converting a voice signal input through a microphone into a sentence and transmitting it to the morpheme analyzer. 청구항 1 또는 청구항 2에 있어서, 상기 입력 문장은 방송신호에서 분리되어 디코딩 처리된 자막 방송의 문장임을 특징으로 하는 수화통역 시스템.The sign language interpretation system according to claim 1 or 2, wherein the input sentence is a subtitle broadcasting sentence that is decoded and separated from a broadcast signal. 청구항 1 또는 청구항 2에 있어서, 상기 입력 문장은 통신망을 통해 외부 컴퓨터 시스템으로부터 수화통역 요청된 문장임을 특징으로 하는 수화통역 시스템.The sign language interpretation system according to claim 1 or 2, wherein the input sentence is a sentence requested for sign language interpretation from an external computer system through a communication network. 청구항 1 또는 청구항 2에 있어서, 상기 수화문장 생성기는,
상기 구분된 하나의 형태소가 동음이의어일 경우 전후 단어를 인식해 동음이의어중 하나의 형태소를 선택해 상기 수화문장에 포함시킴을 특징으로 하는 수화통역 시스템.
The method according to claim 1 or 2, wherein the sign language sentence generator,
Sign language interpretation system, characterized in that when the divided one morpheme is a homonym, the preceding and following words are recognized, and one morpheme from among the homonyms is selected and included in the sign language sentence.
청구항 5에 있어서, 상기 수화문장 생성기는,
상기 선택된 형태소의 식별정보를 상기 수화문장에 포함시켜 상기 수화단어코드 탐색에 이용토록 함을 특징으로 하는 수화통역 시스템.
The method according to claim 5, The sign language sentence generator,
The sign language interpretation system, characterized in that the identification information of the selected morpheme is included in the sign language sentence to be used for the sign language word code search.
삭제delete 청구항 1 또는 청구항 2에 있어서, 상기 입력 문장이 방송신호에서 분리되어 디코딩 처리된 자막 방송의 문장이고 그 자막 방송이 실시간 방송이면, 디코딩 처리된 영상 및 음성 신호를 일정 시간 지연시킨 후 상기 수화 전달 아바타의 모션과 함께 동기화 출력 제어하는 방송신호 출력 제어부;를 더 포함함을 특징으로 하는 수화통역 시스템.The sign language delivery avatar according to claim 1 or 2, wherein if the input sentence is a sentence of closed caption broadcasting separated from the broadcast signal and decoded, and the closed caption broadcasting is a real-time broadcast, the decoded video and audio signals are delayed for a certain period of time Sign language interpretation system, characterized in that it further comprises; a broadcast signal output control unit for controlling the synchronization output with the motion of. 서버에서 실행 가능한 수화통역 시스템에 있어서,
같은 단어에서 파생된 단어들을 하나의 단어로 정의해 놓은 원형 사전, 같거나 비슷한 뜻을 가지는 단어들을 하나의 단어로 정의해 놓은 동의어처리 사전, 형태소 분석된 문장중 수화번역에 사용되지 않는 불용어를 정의해 놓은 불용어처리 사전, 각 동음이의어에 대해 서로 다른 식별정보가 설정되어 있는 동음이의어 사전, 이름 지명과 같은 고유명사에 대한 처리 규칙을 정의해 놓은 개체인식 사전이 저장된 사전 저장부와;
웹 사이트 방문자에 의해 웹 사이트에서 지정된 수화통역 희망 문장에 대해 형태소를 구분하기 위한 형태소 분석기와;
상기 구분된 각 형태소에 대하여 원형사전 비교, 동의어처리, 개체인식 검토, 동음이의어 처리를 수행하여 번역할 수화문장을 생성하는 수화문장 생성기와;
생성된 수화문장을 구성하는 각 형태소에 매칭되는 수화단어코드가 지시하는 모션 데이터 각각을 저장부에서 추출하는 모션 데이터 추출부와;
추출된 모션 데이터에 따라 수화 전달 아바타의 모션을 상기 웹 사이트상에 표시 제어하는 아바타 모션 표시부;를 포함함을 특징으로 하는 수화통역 시스템.
In the sign language interpretation system executable on the server,
Defines a prototype dictionary that defines words derived from the same word as a single word, a thesaurus that defines words with the same or similar meaning as a single word, and defines stopwords that are not used in sign language translation among morphologically analyzed sentences a dictionary storage unit storing a set stop word processing dictionary, a homonym dictionary in which different identification information is set for each homonym, and an entity recognition dictionary in which processing rules for proper nouns such as name and place are defined;
a morpheme analyzer for classifying morphemes for a sign language interpretation desired sentence specified on the website by the website visitor;
a sign language sentence generator for generating a sign language sentence to be translated by performing archetype dictionary comparison, synonym processing, individual recognition review, and homonym processing for each of the divided morphemes;
a motion data extraction unit for extracting from the storage unit each motion data indicated by a sign language word code matching each morpheme constituting the generated sign language sentence;
and an avatar motion display unit configured to display and control the motion of the sign language delivery avatar on the website according to the extracted motion data.
청구항 9에 있어서, 상기 수화문장 생성기는,
상기 구분된 하나의 형태소가 동음이의어일 경우 전후 단어를 인식해 동음이의어중 하나의 형태소를 선택해 상기 수화문장에 포함시킴을 특징으로 하는 수화통역 시스템.
The method according to claim 9, wherein the sign language sentence generator,
Sign language interpretation system, characterized in that when the divided one morpheme is a homonym, the preceding and following words are recognized, and one morpheme from among the homonyms is selected and included in the sign language sentence.
청구항 10에 있어서, 상기 수화문장 생성기는,
상기 선택된 형태소의 식별정보를 상기 수화문장에 포함시켜 상기 수화단어코드 탐색에 이용토록 함을 특징으로 하는 수화통역 시스템.
The method according to claim 10, The sign language sentence generator,
The sign language interpretation system, characterized in that the identification information of the selected morpheme is included in the sign language sentence to be used for the sign language word code search.
삭제delete
KR1020190158245A 2019-12-02 2019-12-02 Sign language interpretation system KR102300589B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158245A KR102300589B1 (en) 2019-12-02 2019-12-02 Sign language interpretation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158245A KR102300589B1 (en) 2019-12-02 2019-12-02 Sign language interpretation system

Publications (2)

Publication Number Publication Date
KR20210068790A KR20210068790A (en) 2021-06-10
KR102300589B1 true KR102300589B1 (en) 2021-09-10

Family

ID=76378125

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158245A KR102300589B1 (en) 2019-12-02 2019-12-02 Sign language interpretation system

Country Status (1)

Country Link
KR (1) KR102300589B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102428677B1 (en) 2021-12-10 2022-08-08 주식회사 위아프렌즈 System of adding subtitles to sign language videos
KR102440894B1 (en) 2021-12-10 2022-09-06 주식회사 위아프렌즈 A method of establishing a database of system to add subtitles to sign language videos and the database using thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953979B1 (en) * 2009-02-10 2010-04-21 김재현 Sign language learning system
KR101899588B1 (en) * 2018-03-05 2018-09-17 주식회사 이큐포올 System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2793992B2 (en) * 1991-03-27 1998-09-03 エヌ・ティ・ティ・アドバンステクノロジ株式会社 Homonym recognition device
KR20110087742A (en) * 2010-01-27 2011-08-03 김종남 System and apparatus into talking with the hands for handicapped person, and method therefor
KR101612873B1 (en) 2014-02-27 2016-04-18 김조웅 Sign language interpreting system of based on web contents and method for sign language interpreting system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100953979B1 (en) * 2009-02-10 2010-04-21 김재현 Sign language learning system
KR101899588B1 (en) * 2018-03-05 2018-09-17 주식회사 이큐포올 System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102428677B1 (en) 2021-12-10 2022-08-08 주식회사 위아프렌즈 System of adding subtitles to sign language videos
KR102440894B1 (en) 2021-12-10 2022-09-06 주식회사 위아프렌즈 A method of establishing a database of system to add subtitles to sign language videos and the database using thereof

Also Published As

Publication number Publication date
KR20210068790A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP6675463B2 (en) Bidirectional stochastic rewriting and selection of natural language
TWI233026B (en) Multi-lingual transcription system
KR101990023B1 (en) Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof
US8478578B2 (en) Mobile speech-to-speech interpretation system
WO2001045088A1 (en) Electronic translator for assisting communications
US20160147744A1 (en) On-line voice translation method and device
US20040111272A1 (en) Multimodal speech-to-speech language translation and display
CN110853615B (en) Data processing method, device and storage medium
CN103167360A (en) Method for achieving multilingual subtitle translation
CN109256133A (en) A kind of voice interactive method, device, equipment and storage medium
US20170372695A1 (en) Information providing system
KR102300589B1 (en) Sign language interpretation system
KR20190041147A (en) User-customized interpretation apparatus and method
CN109600681A (en) Caption presentation method, device, terminal and storage medium
KR101130276B1 (en) System and method for interpreting sign language
KR102345625B1 (en) Caption generation method and apparatus for performing the same
US20220237379A1 (en) Text reconstruction system and method thereof
US20230326369A1 (en) Method and apparatus for generating sign language video, computer device, and storage medium
US20040012643A1 (en) Systems and methods for visually communicating the meaning of information to the hearing impaired
JP7058052B2 (en) Computer system, screen sharing method and program
KR102098377B1 (en) Method for providing foreign language education service learning grammar using puzzle game
JP2006317548A (en) Educational content generating device
KR20190141891A (en) Method and Apparatus for Sentence Translation based on Word Sense Disambiguation and Word Translation Knowledge
WO2021161856A1 (en) Information processing device and information processing method
WO2021161908A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant