KR102110445B1 - Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system - Google Patents

Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system Download PDF

Info

Publication number
KR102110445B1
KR102110445B1 KR1020190095391A KR20190095391A KR102110445B1 KR 102110445 B1 KR102110445 B1 KR 102110445B1 KR 1020190095391 A KR1020190095391 A KR 1020190095391A KR 20190095391 A KR20190095391 A KR 20190095391A KR 102110445 B1 KR102110445 B1 KR 102110445B1
Authority
KR
South Korea
Prior art keywords
text
animation
animation data
standard
information
Prior art date
Application number
KR1020190095391A
Other languages
Korean (ko)
Inventor
고승용
이인구
Original Assignee
주식회사 이큐포올
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이큐포올 filed Critical 주식회사 이큐포올
Application granted granted Critical
Publication of KR102110445B1 publication Critical patent/KR102110445B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Child & Adolescent Psychology (AREA)
  • Operations Research (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Alarm Systems (AREA)

Abstract

Disclosed is a standard draft based sign language translation system that can be suitably used in a disaster/emergency broadcasting system of high-speed trains such as SRT and KTX, subways, and light rails, and can be useful for other disaster text message transmission systems. The standard draft based sign language translation system comprises: an original text analysis module that automatically analyzes approved text information and extracts information on a standard draft identifier and characters in a variable text part; and an animation data generation module that retrieves the information output from the original text analysis module in a database, extracts fixed text part animation data and finger language animation data, and generates animation data corresponding to combined and approved standard draft.

Description

표준문안 기반 수어번역시스템과 이를 이용한 재난/응급방송시스템, 수어번역 전송방법과 시스템 및 재난문자 발송시스템{Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system}Standard text-based sign language translation system, disaster / emergency broadcasting system using the same, transmission method and system for disaster translation, and disaster text sending system {Standard text-based sign language translation system, disaster / emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system}

본 발명은 재난/응급방송이나 긴급재난문자와 같은 브로드캐스팅(broadcasting) 기반의 음성 및/또는 문자를 수어로 번역하여 발송하거나 방송하는 데 적합하게 사용될 수 있는 표준문안 기반 수어번역시스템과 이를 이용한 재난/응급방송시스템, 수어번역 전송방법과 시스템 및 재난문자 발송시스템의 개선에 관련된 것이다.The present invention is a standard sentence-based slang translation system that can be suitably used to translate or send voice or / or texts based on broadcasting, such as disaster / emergency broadcasting or emergency disaster texts, into words, and disasters using the same / It is related to the improvement of the emergency broadcasting system, the method and transmission system for utterance translation, and the system for sending disaster messages.

긴급 재난/응급방송, 긴급 재난문자의 전송, 문자를 통한 공지사항 통지 등은 국민의 안전을 위해 꼭 필요한 정보이므로, 정부의 관련 기관에서 재난/응급상황을 인지하여 신속하게 관련자 및 해당 국민들에게 재난문자를 발송하거나 방송을 내보내야 한다.Emergency disaster / emergency broadcasting, transmission of emergency disaster texts, and notification of notices through texts are essential information for the safety of the people, so government agencies are aware of the disaster / emergency situation and promptly inform the relevant people and their people. Disaster texts must be sent or broadcasts sent.

일반적으로, 에스알티(SRT)나 케이티엑스(KTX) 등의 고속열차, 전철, 경전철, 일반 철도 등에서 운행하는 열차나 항공기에서의 긴급 재난/응급방송은 일반인을 대상으로 하여 음성으로 방송하고, 열차나 항공기 내에 설치된 디스플레이에 문자로 재난 또는 응급상황을 알릴 수 있도록 되어 있다. 이에 따라 열차 등에서 재난 또는 응급상황이 발생하는 경우, 청각 장애인은 재난 또는 응급상황을 빨리 그리고 정확하게 파악하기 어려운 실정이다.Generally, emergency disaster / emergency broadcasts on trains or airplanes operating on high-speed trains such as SRT or KTX, trains, light rail, and general railroads are broadcast to the public by voice, The display installed in the aircraft can be used to inform disasters or emergencies by text. Accordingly, when a disaster or emergency occurs in a train or the like, it is difficult for the hearing impaired to quickly and accurately grasp the disaster or emergency.

또한, 일반 재난문자 발송과정은 국토교통부 산하 각각의 강의 홍수통제소에서 홍수 예보(주의보, 경보) 발령문 및 홍수정보제공시스템 발령문을 등록하고 있다가 홍수 상황이 인지되면 국민안전처 등에 통보한다. 이에 따라 국민안전처 등에 있는 재난정보공동이용시스템에서 홍수예보 긴급 재난문자 전파문구와 전파 대상지역을 자동생성하고, 중앙재난안전상황실에서 긴급재난문자 발송을 승인하면 자동상황전파시스템의 긴급재난문자 발송시스템에서 자동으로 이동통신사로 보내고, 이동통신사의 긴급 재난문자 시스템에서 기지국을 통해 대상 국민의 휴대전화 등으로 재난문자를 발송하도록 한다.In addition, the general disaster texting process registers the flood forecast (warning, warning) and flood information provision system announcements at the flood control stations of each river under the Ministry of Land, Infrastructure and Transport, and notifies the National Security Agency when the flood situation is recognized. Accordingly, the disaster information joint use system in the Ministry of National Safety, etc. automatically generates a flood-predictive emergency text message and a target area, and when the central disaster safety situation office approves the dispatch of the emergency text message, it sends an emergency text message from the automatic situation propagation system. The system automatically sends the message to the mobile operator, and the emergency message system of the mobile operator sends the disaster message to the mobile phone of the target people through the base station.

재난관련 방송의 경우, 소방방재청(태풍, 호우 등)이나 기상청(지진)으로부터 재난관련 내용이 재난방송온라인시스템으로 전달되면 재난관련 자막을 자동으로 생성하여 각 방송사에 재난관련 자막방송을 요청하여 재난문자가 자막으로 방송되도록 한다.In the case of disaster-related broadcasts, when disaster-related content is delivered to the disaster broadcasting online system from the Fire and Disaster Prevention Agency (typhoon, heavy rain, etc.) or the Meteorological Administration (earthquake), disaster-related subtitles are automatically generated to request each broadcaster for disaster-related subtitle broadcasting. Allow text to be broadcast in subtitles.

하지만, 이러한 재난문자는 한글을 통해서만 공지되는 바, 많은 청각 장애인들의 빠른 이해와 대처에 어려움이 있는 실정이다.However, these disaster texts are only known through Hangeul, so it is difficult for many hearing-impaired people to understand and deal with them quickly.

이를 해결하기 위해 애니메이션 캐릭터를 이용하여 음성이나 문자를 수어로 번역하는 시스템, 예를 들면, 공개번호 특2001-0107877호의 공개특허공보(발명의 명칭: 음성인식을 통한 쓰리디 애니메이션 수화표현 시스템, 발명자: 이창선)에 개시된 것과 같은 것을 활용하는 것을 생각해볼 수 있으나 재난문자를 애니메이션 캐릭터의 수어로 번역하는 데에는 시간이 많이 걸리고 수어번역의 정확도 보장이 어려우므로 긴급 재난문자를 수어로 번역하여 휴대 단말기나 방송국으로 발송하거나 재난/응급방송에 사용하는 것이 어렵다.In order to solve this, a system for translating voice or text into a number using animation characters, for example, Publication No. 2001-0107877 (Patent name: 3D animation sign language expression system through voice recognition, inventor) : You can think of using the same as disclosed in Lee Chang-sun), but it takes a lot of time to translate the disaster characters into the characters of the anime characters, and it is difficult to guarantee the accuracy of the translation of the words. It is difficult to send to or use for disaster / emergency broadcasting.

그 외에 일본 특개평9-274428호(발명의 명칭: 수화 애니메이션 생성장치, 발명자: 이께다 하사시 외 4)에 재해나 사고 등의 긴급 시의 정보를 수화에 의하여 청각 장애자에게도 알기 쉽게 제공하기 위해 수화에 관한 지식을 가지지 않는 자라도 수화 애니메이션을 작성할 수 있게 하는 수화애니메이션 생성장치로서, 문자와 음성 외에 수화에 의하여 청각 장애인에게도 알기 쉽게 정보를 제공하는 수화 애니메이션 생성장치에 있어서, 자주 이용되는 수화문마다 가변부분을 갖는 수화문 템플릿을 준비하고, 가변부분에 대입하는 수화 단어를 선택하는 수단과, 필요한 수화 단어에 대한 CG 데이터가 준비되어 있지 않으면, 그 표제의 일본어 읽기 가나사전으로부터 지화문자에 의한 수화 애니메이션을 생성하는 수단을 갖는 것에 의하여 수화를 모르는 사람이라도 수화 애니메이션을 빨리 작성하여 송출할 수 있도록 하는 수화 애니메이션 생성장치가 개시되어 있다.In addition, in order to provide information to people with hearing impairments by sign language, emergency information such as disasters or accidents in Japanese Patent Publication No. 9-274428 (invention name: sign language animation generator, inventor: Haseda Ishida 4) A sign language animation generation device that allows even those who do not have knowledge of sign language to create sign language animations.In addition to text and voice, sign language animation generation devices that provide information to the hearing-impaired by sign language are easy to understand. Meaning of preparing sign language sentence templates with variable parts, selecting sign language words to substitute for the variable parts, and, if CG data for the necessary sign language words are not available, sign language by sign language from the Japanese reading kana dictionary of the title By having a means to create animation, a person who does not know sign language There is also a sign language animation generation unit, which is disclosed to be sent by creating a sign language animation soon.

위 이께다 하사시 등의 발명은 수화문을 생성하는 사람이 수작업으로 수화문 템플릿을 검색하여 선택하고, 가변 부분을 선택하여 조회하는 등의 과정으로 수화 애니메이션 데이터를 생성하기 때문에 사람이 항상 대기하고 있어야 하고, 그 생성과정이 느리고, 재난문자 발송시스템 등으로부터 인가되는 문자정보를 실시간으로 자동으로 번역하여 여타 시스템으로 전송할 수 없다. 그 뿐만 아니라 이께다 하사시 등의 발명은 음성방송 또는 문자방송에서 출력되는 음성이나 문자를 자동으로 수어로 번역하여 디스플레이에 표시하도록 하거나 휴대단말기로 전송할 수 없다.In the invention of Ishida Hasashi and others, the person who always generates sign language animation data generates the sign language animation data by searching and selecting the sign language template by hand, and selecting and querying the variable part. It should be, its creation process is slow, and it is not possible to automatically translate text information from the disaster message sending system, etc. in real time and transmit it to other systems. In addition, inventions such as Ikeda Hasashi cannot automatically translate voices or texts output from voice broadcasts or text broadcasts into sign language and display them on a display or transmit them to a mobile terminal.

또한, 병렬 말뭉치를 통해 학습한 인공지능 기반 기계 번역으로 이종 언어 간 자동 번역의 성능이 크게 향상되고 있기는 하지만 기계번역에 의한 한국어-수어 자동 번역은 학습에 필요한 병렬 말뭉치 데이터가 충분치 않고, 오역에 의한 심각한 문제 발생의 우려가 있어서 이러한 방식의 자동 번역을 재난문자 발송이나 재난문자 방송에 이용하기 어렵다는 문제점이 있다. 이는 한국어-수어 자동번역뿐만 아니라 영어 등 여타의 언어의 자동번역에서도 마찬가지이다.In addition, although the performance of automatic translation between heterogeneous languages is greatly improved by artificial intelligence-based machine translation learned through parallel corpus, the automatic translation of Korean-Seo language by machine translation does not have sufficient parallel corpus data for learning, There is a concern that a serious problem may occur due to the difficulty in using the automatic translation of this method for sending a disaster message or broadcasting a disaster message. This applies not only to the automatic translation of Korean to Suomi, but also to the automatic translation of other languages such as English.

본 발명의 목적은 입력되는 문자정보를 수어로 자동으로 번역할 수 있어서 청각장애인을 위한 재난/응급방송시스템이나 재난문자 발송시스템에 적합하게 활용될 수 있는 표준문안 기반 수어번역시스템을 제공하는 데 있다.An object of the present invention is to provide a standard text-based sign language translation system that can be automatically used to translate the input text information into a number so that it can be suitably used in a disaster / emergency broadcasting system or a disaster text sending system for the hearing impaired. .

본 발명의 다른 목적은 재난/응급방송의 내용을 수어로 자동으로 번역할 수 있는 표준문안 기반 수어번역시스템을 제공하는 데 있다.Another object of the present invention is to provide a standard text-based slang translation system that can automatically translate the content of a disaster / emergency broadcast into a slang.

본 발명의 또 다른 목적은 재난/응급방송의 내용을 수어로 자동으로 번역하여 방송할 수 있도록 해주는 재난/응급 방송시스템을 제공하는 데 있다.Another object of the present invention is to provide a disaster / emergency broadcasting system that automatically translates and broadcasts the content of a disaster / emergency broadcast into a number.

본 발명의 또 다른 목적은 재난문자를 수어로 자동으로 번역하여 필요한 곳으로 전송할 수 있는 수어번역 전송방법과 시스템을 제공하는 데 있다.Still another object of the present invention is to provide a method and system for transmitting a translation of a language that can automatically translate a disaster text into a language and transmit it to a required place.

본 발명의 또 다른 목적은 고속열차나 경전철 또는 지하철의 열차에서 재난/응급상황 발생 시 청각 장애인에게 재난/응급 상황에 대한 방송내용을 수어로 번역하여 열차에 설치된 디스플레이 또는 청각 장애인의 휴대단말기 등으로 제공할 수 있는 재난/응급 방송시스템을 제공하는 데 있다.Another object of the present invention is a display installed on a train or a portable terminal of a hearing impaired person by translating the broadcast information on the disaster / emergency situation to a hearing impaired person in the event of a disaster / emergency situation on a high-speed train or a light rail or subway train. The aim is to provide a disaster / emergency broadcasting system that can be provided.

본 발명의 또 다른 목적은 휴대단말기에 수신된 재난문자에 대한 신속한 수어번역 서비스를 제공할 수 있는 수어번역 전송시스템을 제공하는 데 있다.Another object of the present invention is to provide a language translation transmission system capable of providing a rapid language translation service for disaster texts received on a mobile terminal.

본 발명의 또 다른 목적은 방송시스템에 수신된 재난문자에 대한 신속한 수어번역 서비스를 제공할 수 있는 수어번역 전송시스템을 제공하는 데 있다.Another object of the present invention is to provide a language translation transmission system capable of providing a rapid language translation service for a disaster text received in a broadcast system.

본 발명의 또 다른 목적은 재난문자를 신속하게 번역하여 필요한 곳으로 전송할 수 있으면서도 오역의 우려가 없는 수어번역 전송시스템을 제공하는 데 있다.Another object of the present invention is to provide a language translation transmission system that is capable of quickly translating disaster texts and transmitting them where necessary, but without fear of misinterpretation.

본 발명에 따른 표준문안 기반 수어번역시스템은 가변문자부와 고정문자부를 가지는 복수의 표준문안과 복수의 상기 표준문안에 각각 대응하는 복수의 식별자에 대한 정보가 저장된 표준문안 데이터 저장부; 복수의 상기 식별자와 복수의 상기 식별자에 각각 대응하는 상기 고정문자부에 대한 애니메이션 데이터를 각각 저장하고 있는 고정문자부 애니메이션 데이터베이스; 지화에 대한 애니메이션 데이터를 저장하고 있는 지화 애니메이션 데이터베이스; 인가되는 문자정보를 분석하여 상기 표준문안에 대한 상기 식별자와 상기 가변문자부의 문자에 대한 정보를 추출하는 원문분석모듈; 추출된 상기 식별자를 상기 고정문자부 애니메이션 데이터베이스로 제공하여 추출된 상기 식별자에 대응하는 고정문자부 애니메이션 데이터를 조회하는 고정문자부 애니메이션 데이터 조회부; 추출된 상기 문자에 대한 정보를 상기 지화 애니메이션 데이터베이스에 제공하여 추출된 상기 문자에 대응하는 지화 애니메이션 데이터를 검색하는 지화 애니메이션 데이터 검색부; 및 상기 고정문자부 애니메이션 데이터베이스에서 출력되는 상기 고정문자부 애니메이션 데이터와 상기 지화 애니메이션 데이터베이스에서 출력되는 상기 지화 애니메이션 데이터를 조합하여 인가되는 상기 표준문안에 대응하는 애니메이션 데이터를 생성하는 애니메이션 데이터 생성모듈을 포함하고,
상기 가변문자부에 해당될 수 있는 지명, 단위, 시간표현 중 적어도 하나를 포함하는 기초가변문자와 상기 기초가변문자 외의 지화로 번역해야할 지화가변문자에 대한 데이터를 저장하고 있는 기초/지화가변문자 데이터베이스; 상기 기초가변문자에 대한 애니메이션 데이터를 저장하고 있는 기초가변문자 애니메이션 데이터베이스; 및 추출된 상기 문자 중 상기 기초가변문자에 해당하는 정보를 상기 기초가변문자 애니메이션 데이터베이스에 제공하여 추출된 상기 문자에 포함된 상기 기초가변문자에 대응하는 기초가변문자 애니메이션 데이터를 검색하는 기초가변문자 애니메이션 데이터 검색부를 더 포함하고,
상기 원문분석모듈은 상기 기초가변문자와 상기 지화가변문자를 구분하여 추출하고, 상기 지화 애니메이션 데이터 검색부는 상기 지화가변문자를 상기 지화 애니메이션 데이터베이스에 제공하여 상기 지화가변문자에 대응하는 상기 지화 애니메이션 데이터를 검색하고, 상기 애니메이션 데이터 생성모듈은 상기 고정문자부 애니메이션 데이터, 상기 기초가변문자에 대한 애니메이션 데이터 및 상기 지화 애니메이션 데이터를 조합하여 인가되는 상기 문자정보에 대응하는 애니메이션 데이터를 생성하는 것을 포함하고,
상기 원문분석모듈은, 인가되는 상기 문자정보에 대해 형태소 분석을 하기 위한 형태소 분석기; 분석된 상기 문자정보의 각 형태소에 대해 의미역 분석을 하기 위한 의미역 분석기; 인가되는 상기 문자정보에 대해 개체명 분석을 하기 위한 개체명 분석기; 및 상기 형태소 분석기에서 분석된 형태소 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 형태소 정보와 비교하여 동사 또는 명사가 일치하는 경우 부사 또는 형용사가 일치할 때보다 상대적으로 높은 점수를 부여하고, 상기 의미역 분석기에서 분석된 의미역 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 의미역 정보와 비교하여 의미역이 일치하는 단어가 많을수록 높은 점수를 부여하고, 상기 개체명 분석기에서 분석된 개체명 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 개체명 정보와 비교하여 일치하는 것이 많을수록 높은 점수를 부여하고, 부여된 합산 점수가 가장 높은 표준문안을 인가되는 문자정보에 대응하는 표준문안으로 선택하고, 선택된 표준문안의 상기 식별자와 선택된 표준문안에 기반한 상기 가변문자부의 문자에 해당하는 정보를 추출하는 표준문안 비교분석기를 구비하여 구성되고,
상기 고정문자부는 복수개의 분할고정문자부로 분할되고, 분할된 각각의 상기 분할고정문자부에 상기 표준문안에 부여된 상기 식별자의 하위식별자들이 부여되고, 상기 원문분석모듈은 비교의 결과에 따라 선택된 표준문안의 점수가 기준 점수 이하인 경우, 선택되지 않은 표준문안의 상기 분할고정문자부들 중 일부를 선택된 표준문안의 상기 분할고정문자부들 중 일부와 교체할 수 있도록 구성된다.
The standard sentence-based word translation system according to the present invention includes a standard sentence data storage unit in which information on a plurality of standard sentences having a variable character unit and a fixed character unit and a plurality of identifiers respectively corresponding to the plurality of standard sentences is stored; A fixed character portion animation database that stores animation data for the plurality of identifiers and the fixed character portions respectively corresponding to the plurality of identifiers; A jihwa animation database that stores animation data for jihwa; A text analysis module for extracting information on the identifier and the text of the variable character portion of the standard text by analyzing the applied text information; A fixed character unit animation data query unit that searches the fixed character unit animation data corresponding to the extracted identifier by providing the extracted identifier to the fixed character unit animation database; A localization animation data search unit that searches for localized animation data corresponding to the extracted text by providing information on the extracted text to the localized animation database; And an animation data generation module for generating animation data corresponding to the standard text that is applied by combining the fixed character animation data output from the fixed character animation database and the animation animation data output from the animation animation database. and,
A basic / local variable character database that stores data on basic variable characters including at least one of a geographical name, unit, and time expression that can be applied to the variable character unit, and local variable characters to be translated into other than the basic variable character. ; A basic variable character animation database that stores animation data for the basic variable character; And the basic variable character animation searching for basic variable character animation data corresponding to the basic variable character included in the extracted character by providing information corresponding to the basic variable character among the extracted characters to the basic variable character animation database. Further comprising a data search unit,
The original text analysis module classifies and extracts the basic variable characters and the local variable characters, and the animation animation data search unit provides the local variable characters to the local animation database to receive the localized animation data corresponding to the local variable characters. Searching, and the animation data generation module includes generating animation data corresponding to the applied character information by combining the fixed character animation data, animation data for the basic variable character, and the animation animation data,
The original text analysis module may include: a morpheme analyzer for morpheme analysis on the applied text information; A semantic analyzer for semantic domain analysis for each morpheme of the analyzed character information; An object name analyzer for analyzing an object name with respect to the applied text information; And comparing the morpheme information analyzed by the morpheme analyzer with the morpheme information of the standard sentences stored in the standard sentence data storage unit to give a relatively higher score when the verb or noun matches, when the adverb or adjective matches, The semantic information analyzed by the semantic analyzer is compared with the semantic information of the standard text stored in the standard sentence data storage unit, and the more words that match the semantic domain, the higher the score, and analyzed by the entity name analyzer The standard that corresponds to the character information to which the standard text with the highest sum is given is given the higher score as more matches are obtained by comparing the object name information with the object name information of the standard text stored in the standard text data storage unit. Selected as text, the identifier of the selected standard text and selected Is configured by having a comparison standard text analyzer for extracting information corresponding to said variable character portion based on the standard text characters,
The fixed character portion is divided into a plurality of divided fixed character portions, and each of the divided fixed character portions is assigned sub-identifiers of the identifier assigned to the standard text, and the original text analysis module is a standard selected according to the result of the comparison. When the score of the text is less than or equal to the reference score, it is configured to replace some of the divided fixed text sections of the unselected standard text with some of the divided fixed text sections of the selected standard text.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따른 재난/응급 방송시스템은 음성방송부: 상기 음성방송부에서 출력되는 음성신호를 문자정보로 변환하는 음성/문자변환서버; 상기 음성/문자변환서버로부터 인가되는 상기 문자정보를 수어 애니메이션으로 번역하여 상기 문자정보에 대응하는 수어 애니메이션 데이터를 생성하는 본 발명에 따른 표준문안 기반 수어번역시스템; 디스플레이; 및 상기 표준문안 기반 수어번역시스템에서 인가되는 상기 수어 애니메이션 데이터에 따른 영상이 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 디스플레이 제어부를 포함하는 구성을 한다.Disaster / emergency broadcasting system according to the present invention includes a voice broadcasting unit: a voice / text conversion server for converting a voice signal output from the voice broadcasting unit into text information; A standard text-based utterance translation system according to the present invention that generates utterance animation data corresponding to the character information by translating the character information applied from the voice / text conversion server into utterance animation; display; And a display control unit controlling the display such that an image according to the utterance animation data applied from the standard text-based utterance translation system is displayed on the display.

상기 표준문안 기반 수어번역시스템은 상기 디스플레이 제어부로 상기 문자정보를 인가하고, 상기 디스플레이 제어부는 상기 수어 애니메이션 데이터에 따른 영상과 함께 상기 문자정보가 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 것이 바람직하다.Preferably, the standard text-based word translation system applies the text information to the display control unit, and the display control unit controls the display such that the text information is displayed on the display together with the image according to the sign animation data.

상기 음성방송부는 열차에 설치되고, 상기 열차에 설치되고 청각장애인용 앱이 설치된 단말기와 페어링신호를 교환하여 상기 청각장애인용 앱이 설치된 단말기의 소유자가 상기 열차에 탑승했는지 여부를 확인하고 상기 청각장애인용 앱이 설치된 단말기와 통신을 하는데 필요한 정보를 얻기 위한 페어링 서버; 상기 표준문안 기반 수어번역시스템으로부터 상기 열차에 탑승한 것으로 확인된 소유자의 상기 청각장애인용 앱이 설치된 단말기로 상기 표준문안 기반 수어번역시스템에서 번역된 상기 수어 애니메이션 데이터의 유알엘 정보를 푸시하기 위한 에프씨엠서버; 상기 표준문안 기반 수어번역시스템으로부터 상기 열차에 탑승한 것으로 확인된 소유자의 상기 청각장애인용 앱이 설치된 단말기로 상기 수어 애니메이션 데이터의 유알엘 정보를 푸시할 것을 요청받아서 이를 상기 에프씨엠서버로 전달하는 앱서버; 및 상기 표준문안 기반 수어번역시스템에서 번역한 상기 수어 애니메이션 데이터를 저장하고 있다가 상기 청각장애인용 앱이 설치된 단말기로부터의 상기 수어 애니메이션 데이터에 대한 전송요청에 따라 상기 수어 애니메이션 데이터를 상기 청각장애인용 앱이 설치된 단말기로 전송하는 애니메이션 데이터서버를 포함하는 것이 바람직하다.The voice broadcasting unit is installed on the train, and is installed on the train and exchanges a pairing signal with a terminal on which the app for the hearing impaired is installed to check whether the owner of the terminal on which the app for the hearing impaired is on board the train and the hearing impaired A pairing server for obtaining information necessary to communicate with a terminal on which the app is installed; From the standard text-based word translation system to the terminal on which the app for the hearing impaired person who has been confirmed to have boarded the train is installed, FCM for pushing the information of the L animation of the word animation data translated from the standard text-based word translation system server; An app server that receives a request from the standard text-based utterance translation system to push the information of the utterance animation data to the terminal installed with the app for the hearing impaired by the owner who is confirmed to have boarded the train, and delivers it to the FMC server. ; And storing the utterance animation data translated by the standard sentence-based utterance translation system, and then transmitting the utterance animation data to the hearing impaired app according to a request for transmission of the utterance animation data from a terminal in which the app for the hearing impaired is installed. It is preferable to include an animation data server that is transmitted to the installed terminal.

단문문자메시지를 발송하기 위한 에스엠에스 전송서버를 더 포함하고, 상기 앱서버에 상기 청각장애인용 앱이 설치된 단말기 소유자 가족의 전화번호에 대한 정보가 저장되어 있고, 상기 앱서버는 상기 에스엠에스 전송서버에 상기 청각장애인용 앱이 설치된 단말기 소유자 가족의 전화번호로 상기 청각장애인용 앱이 설치된 단말기 소유자의 열차 탑승사실 또는 상기 열차에서 발생한 응급상황을 알려주는 문자메시지를 발송하도록 요청할 수 있도록 구성된 것이 바람직하다.Further comprising a sms transmission server for sending a short text message, the app server stores information about the phone number of the family of the owner of the terminal where the app for the hearing impaired is installed, and the app server is the sms transmission server It is preferable that the phone number of the family of the terminal owner where the app for the hearing impaired is installed is configured to request to send a text message informing the boarding of the train of the terminal owner where the app for the hearing impaired is installed or an emergency occurred in the train. .

때에 따라, 본 발명에 따른 재난/응급 방송시스템은 문자방송부; 상기 문자방송부로부터 인가되는 문자정보를 수어 애니메이션으로 번역하여 상기 문자정보에 대응하는 수어 애니메이션 데이터를 생성하는 본 발명에 따른 표준문안 기반 수어번역시스템; 디스플레이; 및 상기 표준문안 기반 수어번역시스템에서 인가되는 상기 수어 애니메이션 데이터에 따른 영상이 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 디스플레이 제어부를 포함하는 구성을 한다.Sometimes, the disaster / emergency broadcasting system according to the present invention includes a text broadcasting unit; A standard text-based utterance translation system according to the present invention for generating utterance animation data corresponding to the character information by translating the character information applied from the character broadcasting unit into utterance animation; display; And a display control unit controlling the display such that an image according to the utterance animation data applied from the standard text-based utterance translation system is displayed on the display.

표준문안 기반 수어번역 전송방법은 휴대단말기에 수신된 재난과 관련한 표준문안에 포함된 수어 링크부를 상기 휴대단말기의 사용자가 클릭하도록 하여, 본 발명에 따른 표준문안 기반 수어번역시스템에서 상기 휴대단말기로부터 상기 표준문안에 대한 정보를 수신하는 과정; 상기 표준문안 기반 수어번역시스템에서 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하는 과정; 및 생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기에 설치된 수어동영상 재생기 또는 웹브라우저에서 재생할 수 있도록 생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기로 전송하는 과정을 포함하는 구성을 한다.The standard text-based word translation transmission method allows the user of the mobile terminal to click on the word link part included in the standard text related to the disaster received by the mobile terminal, and from the mobile terminal in the standard text-based word translation system according to the present invention. Receiving information about the standard text; Generating utterance animation data corresponding to the standard sentence in the standard sentence based utterance translation system; And transmitting the generated utterance animation data to the portable terminal so that the generated utterance animation data can be played in a fisher video player or a web browser installed on the portable terminal.

때에 따라, 본 발명에 따른 표준문안 기반 수어번역 전송방법은 본 발명에 따른 표준문안 기반 수어번역시스템이 수어동영상 오버레이기가 설치된 방송시스템으로부터 재난과 관련한 표준문안을 수신하는 과정; 상기 표준문안 기반 수어번역시스템이 수신된 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하는 과정; 생성된 상기 수어 애니메이션 데이터를 상기 방송시스템의 방송내용과 동기화하는 과정; 및 동기화된 상기 수어 애니메이션 데이터가 방송되는 티브이 화면에 오버레이 되어 재생될 수 있게 동기화된 상기 수어 애니메이션 데이터를 상기 방송시스템으로 전송하는 과정을 포함하는 구성을 할 수 있다.In some cases, the standard text-based utterance translation transmission method according to the present invention includes the steps of the standard text-based utterance translation system receiving a standard text related to a disaster from a broadcast system in which a utterance video overlay is installed; A process in which the standard text-based sign language translation system generates sign language animation data corresponding to the received standard text; Synchronizing the generated utterance animation data with broadcast content of the broadcast system; And transmitting the synchronized animation animation data to the broadcasting system so that the synchronized animation animation data is overlaid and reproduced on a TV screen broadcasted.

본 발명에 따른 표준문안 기반 수어번역 전송시스템은 수어동영상 재생기 또는 웹브라우저가 설치된 휴대단말기로 접속 가능한 인터넷에 연결되어 설치된 본 발명에 따른 표준문안 기반 수어번역시스템을 포함하여 구성되고, 상기 표준문안 기반 수어번역시스템은, 상기 휴대단말기에 수신된 재난과 관련한 표준문안과 함께 수신된 수어 링크부를 상기 휴대단말기의 사용자가 클릭하는 것에 의해 상기 휴대단말기로부터 상기 표준문안에 대한 정보를 수신하고, 수신된 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하고, 생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기로 전송함으로써 생성된 상기 수어 애니메이션 데이터를 상기 수어동영상 재생기 또는 웹브라우저에서 재생할 수 있도록 하는 구성을 할 수 있다.The standard text-based utterance translation transmission system according to the present invention comprises a standard text-based utterance translation system according to the present invention connected to the Internet that can be connected to a portable terminal equipped with a utterance video player or a web browser, and based on the standard text The utterance translation system receives information on the standard text from the mobile terminal by a user of the mobile terminal clicking the utterance link part received along with the standard text related to the disaster received on the mobile terminal, and receiving the received It may be configured to generate the utterance animation data corresponding to the standard text, and transmit the generated utterance animation data to the portable terminal, so that the generated utterance animation data can be played in the utterance video player or the web browser.

때에 따라, 본 발명에 따른 표준문안 기반 수어번역 전송시스템은 수어동영상 오버레이기가 설치된 방송시스템에서 접속할 수 있는 인터넷에 연결되어 설치되고, 상기 방송시스템으로부터 자막송출 시간정보를 인가받아서 생성된 수어 애니메이션 데이터를 동기화하기 위한 동기화기와 동기화된 수어 애니메이션을 생성하기 위한 애니메이션 생성기를 더 가지는 본 발명에 따른 표준문안 기반 수어번역시스템을 포함하여 구성되고, 상기 방송시스템으로부터 표준문안에 대한 정보가 수신되면, 수신된 상기 표준문안에 대응하고 상기 방송시스템의 방송내용과 동기화된 상기 수어 애니메이션 데이터를 상기 방송시스템으로 전송하여 동기화된 상기 수어 애니메이션 데이터가 방송되는 티브이 화면에 오버레이 되어 재생될 수 있게 하는 구성을 할 수 있다.Sometimes, the standard text-based utterance translation transmission system according to the present invention is installed connected to the Internet that can be accessed from a broadcast system in which a utterance video overlay is installed, and receives utterance animation data generated by receiving subtitle transmission time information from the broadcast system. It comprises a standard text-based sign language translation system according to the present invention further comprising an animation generator for generating a synchronized animation with a synchronizer for synchronizing, and when information about a standard sentence is received from the broadcasting system, the received It is possible to configure such that the utterance animation data synchronized with the broadcast contents of the broadcast system and synchronized with the broadcast contents of the broadcast system is transmitted to the broadcast system so that the synchronized utterance animation data can be reproduced by being overlaid on the broadcast TV screen. The.

본 발명에 따른 재난물자 발송시스템은 본 발명에 따른 표준문안 기반 수어번역시스템을 포함하는 구성을 한다.Disaster goods delivery system according to the present invention is configured to include a standard text-based word translation system according to the present invention.

본 발명에 따르면, 앞에서 설명한 이께다 하사시 등의 발명과는 달리 입력되는 문자정보를 원문분석모듈에서 형태소분석, 의미역분석 등을 통해 자동으로 분석하여 표준문안을 자동으로 선택하고, 자동으로 선택된 표준문안의 고정문자부로부터 가변문자부를 찾아서 가변문자부의 애니메이션 데이터를 생성하여 고정문자부의 애니메이션 데이터와 조합함으로써 입력되는 문자정보에 대응되는 애니메이션 데이터를 신속하게 생성할 수 있어서 에스알티(SRT), 케이티엑스(KTX) 등의 고속열차, 지하철, 경전철 등 열차의 재난/응급방송시스템에 적합하게 활용할 수 있고, 여타 재난문자 발송시스템 등에도 유용하게 활용될 수 있다.According to the present invention, unlike the previous inventions such as Ikeda Hasashi described above, the input text information is automatically analyzed in the original text analysis module through morpheme analysis, semantic analysis, etc., to automatically select the standard text and automatically select it. By finding the variable character part from the fixed character part of the standard text and generating the animation data of the variable character part and combining it with the animation data of the fixed character part, it is possible to quickly generate the animation data corresponding to the inputted character information, so SRT and KT It can be suitably used for disaster / emergency broadcasting systems of high-speed trains such as (KTX), subway, light rail, etc., and can also be useful for other disaster texting systems.

본 발명에 따르면 원문분석모듈의 형태소분석기, 의미역분석기 등에서 분석된 내용을 토대로 표준문반 비교분석기에서 표준문안 데이터 저장부에 저장된 표준문안 데이터와 대비하여 점수화하여 높은 점수의 표준문안을 입력되는 문자정보에 대응하는 표준문안으로 선택할 수 있도록 하는 구성이므로, 반복학습을 통해 에러가 거의 발생하지 않도록 할 수 있다.According to the present invention, based on the contents analyzed by the morpheme analyzer, semantic inverse analyzer, etc. of the original text analysis module, the text information input the high score standard text by scoring it against the standard text data stored in the standard text data storage unit in the standard text comparison analyzer Since it is a structure that can be selected as a standard text corresponding to, it is possible to prevent errors from occurring through repeated learning.

본 발명에 따르면 가변문자부에 해당될 수 있는 지명, 단위, 시간표현 등을 기초가변문자에 대해서도 미리 애니메이션데이터를 생성하여 활용함으로써 기초가변문자 외의 지화(Finger Spell)로 번역해야할 지화가변문자를 최소화함으로써 입력되는 문자정보에 대응되는 애니메이션 데이터를 더욱 신속하게 생성할 수 있다.According to the present invention, by using animation data for the basic variable characters in advance by using the names, units, time expressions, etc., which can be applied to the variable character unit, minimizing the local variable characters that need to be translated into the fingerprints other than the basic variable characters (Finger Spell) By doing so, it is possible to generate animation data corresponding to inputted text information more quickly.

본 발명에 따르면 가변문자부의 문자를 정확한 번역이 가능한 지화로 번역하여 생성한 지화 애니메이션 데이터를 기 번역되어 있는 대응 고정문자부 애니메이션 데이터를 조회하여 서로 조합하므로 오역 없이 정확하게 번역할 수 있다.According to the present invention, since the animation data generated by translating the characters of the variable character portion into an image capable of accurate translation is inquired and combined with each other, the corresponding fixed character portion animation data is pre-translated, so that it can be accurately translated without a mistake.

본 발명에 따르면 재난문자 등을 오역 없이 정확하고 신속하게 번역하여 필요한 곳으로 제공할 수 있다.According to the present invention, it is possible to accurately and quickly translate disaster characters, etc., without misinterpretation, and provide them where necessary.

도 1은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 일례를 설명하기 위한 블록도,
도 2는 표준문안의 데이터 구조를 설명하기 위한 도면,
도 3은 휴대단말기로 발생된 표준문안의 재난문자를 확인하는 상태를 나타낸 도면,
도 4는 휴대단말기에서 표준문안의 재난문자에 대한 수어 애니메이션이 화면에 디스플레이 되는 상태를 나타낸 도면,
도 5는 본 발명에 따른 표준문안 기반 수어번역시스템이 휴대단말기에 설치된 예를 나타낸 블록도,
도 6은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 다른 예를 나타낸 블록도,
도 7은 재난관련 자막이 표시되는 티브이 방송화면에 표준문안에 대한 수어 애니메이션이 오버레이 되어 재생되는 예를 나타낸 도면,
도 8은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 또 다른 예를 나타낸 블록도,
도 9와 10은 휴대단말기에서 재생되는 수어 애니메이션의 예를 각각 나타낸 도면,
도 11은 본 발명에 따른 재난/응급방송시스템의 일례를 나타낸 블록도,
도 12는 고속열차의 재난/응급방송시스템에 적용된 본 발명의 일례를 나타낸 도면,
도 13 내지 도 15는 열차의 객차 내, 플랫폼 및 대합실에 설치된 디스플레이에 재난/응급방송의 수어 애니메이션이 재생되는 상태를 각각 나타낸 도면,
도 16은 본 발명에 따른 표준문안 구성의 변형 예를 설명하기 위한 도면이다.
1 is a block diagram for explaining an example of a standard text-based word translation transmission system according to the present invention;
2 is a view for explaining the data structure of the standard text,
3 is a view showing a state of confirming the disaster text of the standard text generated by the mobile terminal,
Figure 4 is a diagram showing a state in which a handwriting animation for a disaster text in a standard text is displayed on a screen in a mobile terminal,
5 is a block diagram showing an example in which a standard text-based word translation system according to the present invention is installed in a portable terminal;
6 is a block diagram showing another example of a standard text-based word translation transmission system according to the present invention;
FIG. 7 is a diagram showing an example in which a narration animation for a standard text is overlaid on a TV broadcast screen displaying a disaster-related subtitle;
8 is a block diagram showing another example of a standard text-based word translation transmission system according to the present invention;
9 and 10 are diagrams respectively showing examples of utterance animations played on a mobile terminal,
11 is a block diagram showing an example of a disaster / emergency broadcasting system according to the present invention;
12 is a view showing an example of the present invention applied to a disaster / emergency broadcasting system of a high-speed train,
13 to 15 are views showing a state in which a disaster / emergency broadcast word animation is played on a display installed in a platform and a waiting room of a train, respectively,
16 is a view for explaining a modified example of the composition of the standard text according to the present invention.

이하, 첨부된 도면을 참고하여 본 발명의 바람직한 실시 예를 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 일례를 설명하기 위한 블록도, 도 2는 표준문안의 데이터 구조를 설명하기 위한 도면, 도 3은 휴대단말기로 발송된 표준문안의 재난문자를 확인하는 상태를 나타낸 도면, 도 4는 휴대단말기에서 표준문안의 재난문자에 대한 수어 애니메이션이 화면에 디스플레이 되는 상태를 나타낸 도면이다.1 is a block diagram for explaining an example of a standard text-based word translation transmission system according to the present invention, FIG. 2 is a diagram for explaining a data structure of a standard text, and FIG. 3 is a disaster character for a standard text sent to a mobile terminal 4 is a view showing a state in which a sign language animation for a disaster text in a standard text is displayed on a screen in a mobile terminal.

도 1을 참고하면, 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)은 표준문안 기반 수어번역시스템(102)을 가진다.Referring to FIG. 1, the standard text-based word translation transmission system 100 according to the present invention has a standard text-based word translation system 102.

표준문안 기반 수어번역시스템(102)은 표준문안 데이터 저장부(110)를 갖춘다. 이 표준문안 데이터 저장부(110)에는 도 2에 나타낸 바와 같은 가변문자부(202)와 고정문자부(206)를 가지는 복수의 표준문안(200)과 복수의 표준문안(200)에 대응하는 복수의 식별자(210)에 대한 정보가 저장되어 있다.The standard text-based word translation system 102 includes a standard text data storage unit 110. The standard text data storage unit 110 includes a plurality of standard texts 200 and a plurality of standard texts 200 having a variable text section 202 and a fixed text section 206 as shown in FIG. 2. Information about the identifier 210 of is stored.

본 발명에 따른 표준문안 기반 수어번역시스템(102)은 고정문자부 애니메이션 데이터베이스(120)와 지화 애니메이션 데이터베이스(130)를 함께 가진다.The standard sentence-based word translation system 102 according to the present invention has a fixed character animation database 120 and a jihwa animation database 130 together.

고정문자부 애니메이션 데이터베이스(120)는 복수의 식별자(210)와 복수의 식별자(210)에 대응하는 고정문자부(206)에 대한 애니메이션 데이터를 각각 저장하고 있고, 지화 애니메이션 데이터베이스(130)는 자음, 모음, 숫자 등의 지화에 대한 애니메이션 데이터를 저장하고 있다.The fixed character animation database 120 stores animation data for a plurality of identifiers 210 and a fixed character unit 206 corresponding to the plurality of identifiers 210, and the jihwa animation database 130 is a consonant, It stores animation data for papers such as vowels and numbers.

즉, 본 발명에서는 내용이 변하는 가변문자부(202)와 내용이 변하지 않는 고정문자부(206)를 가지는 복수의 표준문안(200)의 고정문자부(206)에 대한 애니메이션 데이터와 예를 들어, 한글 자음, 모음, 숫자 등의 지화에 대한 애니메이션 데이터가 별도로 구분되어 저장된다. 한글이 아닌 영어 등의 여타 언어에 대한 지화에도 본 발명이 그대로 적용될 수 있다.That is, in the present invention, for example, animation data for a fixed character portion 206 of a plurality of standard texts 200 having a variable character portion 202 whose contents change and a fixed character portion 206 whose contents do not change, for example, Animation data for Korean consonants, vowels, numbers, etc. are stored separately. The present invention may also be applied to other languages such as English, not Korean.

각각의 표준문안(200)의 고정문자부(206)에 대한 애니메이션 데이터는, 바람직하게, 모션 캡쳐 수트(Motion Capture Suit) 등의 동작 인식 툴을 통해 각 표준문안에 대한 수어 애니메이션을 녹화하고, 이를 제작된 아바타에 리타겟팅(Retargeting) 하여 생성한다. 이렇게 생성한 애니메이션 데이터는 고정문자부 애니메이션 데이터베이스(120)에 저장된다.Animation data for the fixed character unit 206 of each standard text 200 is preferably recorded in a semantic animation for each standard text through a motion recognition tool such as a Motion Capture Suit, and It is created by retargeting the created avatar. The animation data thus generated is stored in the fixed character animation database 120.

바람직하게, 고정문자부(206)의 애니메이션 파일은 표준 문안의 내용에 따라 2~5개로 나뉘어 저장된다. 예를 들어, "OO지역에 폭염경보. 기온이 OO도까지 올라갑니다."인 경우, "지역에 폭염경보", "기온이", "올라갑니다"의 3개 구문으로 나뉘어 저장된다.Preferably, the animation files of the fixed character unit 206 are divided into 2 to 5 according to the contents of the standard text and stored. For example, in the case of "The heat wave alarm in the OO area. The temperature rises to OO degrees.", It is stored in three phrases: "heat wave alarm in the area", "air temperature", and "rise".

모바일 문자(긴급 재난 방송 문자 포함)의 경우, 두 가지 방식으로 운영이 가능하다. 전용 앱을 사용하는 경우, 모바일 문자의 경우, 전송 시 농인을 위한 링크가 함께 전송되며, 링크를 클릭하게 되면, 수어번역 서비스 제공자의 수어 문자 번역 앱이 구동되고, 번역 앱이 설치되어 있지 않은 경우 각 앱 마켓에서 다운로드 받아 설치하여 재생하게 된다. 수어번역 앱이 구동되면 해당 문자열에 해당하는 수어 애니메이션을 서버에 요청하게 되며, 서버는 표준문안의 고정문자부와 가변문자부를 합성한 애니메이션 파일을 모바일 앱에 전송한다. 모바일 앱은 이 애니메이션 파일을 받아 재생하게 된다. 이러한 애니메이션 파일은 클라이언트(모바일 앱)에 미리 설치해 두고 네트워크 전송량을 줄일 수도 있다.In the case of mobile texts (including emergency disaster broadcast texts), it can be operated in two ways. When using a dedicated app, in the case of mobile text, a link for a farmer is sent along with the transmission. When a link is clicked, the sign language translation app of the sign language translation service is started, and the translation app is not installed. It is downloaded from each app market, installed, and played. When the sign language translation app is started, the sign language animation corresponding to the string is requested from the server, and the server sends an animation file that combines the fixed and variable character parts of the standard text to the mobile app. The mobile app receives this animation file and plays it. These animation files can be installed in the client (mobile app) in advance, and the network traffic can be reduced.

웹을 활용하는 경우, 모바일 문자 전송 시, 수어번역 서비스 제공자의 서버에서 생성된 링크가 함께 전송되며, 이 링크를 클릭하면 수어번역 서비스 제공자의 웹서버에 접속하여 해당 내용의 수어 애니메이션을 호출하게 되고 이 애니메이션은 모바일 기기의 웹 브라우저를 통해 재생된다.When using the web, when a mobile text is transmitted, a link generated by the server of the utterance translation service is transmitted together. When this link is clicked, the utterance animation of the corresponding content is called by accessing the web server of the utterance translation service provider. This animation is played through the mobile device's web browser.

상기의 애니메이션에 적절한 배경 이미지 또는 이모티콘 등을 삽입함으로써, 의미 전달을 더 명확하게 할 수 있다.By inserting an appropriate background image or emoticon or the like into the animation, the meaning transmission can be made more clear.

각각의 표준문안(200)의 가변문자부(202)의 문자는 다양하게 변경될 수 있는 부분이므로, 기본이 될 수 있는 정확한 지화(Finger Spelling)별 동작을 모션 캡쳐 수트(Motion Capture Suit) 등의 동작 인식 툴이나 여타의 3차원 애니메이션 툴을 통하여 한글 등의 자음과 모음 및 숫자 등에 대한 지화 애니메이션 파일을 생성한다.Since the characters of the variable character unit 202 of each standard text 200 can be variously changed, the correct motions for each of the basic fingerprints (Finger Spelling), such as a motion capture suit, etc. Through the motion recognition tool or other 3D animation tools, a localized animation file for consonants such as Hangeul, vowels, and numbers is generated.

생성된 애니메이션 파일은 수어 전문가가 감수할 수 있어 정확도를 높일 수 있다. 이렇게 생성된 고정문자부(206)에 대한 애니메이션 데이터와 지화 애니메이션 데이터는 고정문자부 애니메이션 데이터베이스(120)와 지화 애니메이션 데이터베이스(130)에 저장된다.The generated animation file can be supervised by a fish expert, thereby improving accuracy. The animation data and the localized animation data for the fixed character unit 206 thus generated are stored in the fixed character unit animation database 120 and the localized animation database 130.

본 발명에 따른 표준문안 기반 수어번역시스템(102)은 인가되는 표준문안 기반 문자정보(200a)를 분석하여 그에 대응하는 표준문안(200)을 선택하고, 선택된 표준문안(200)의 식별자(210) 및 선택된 표준문안(200)에 기초한 가변문자부(202)의 문자에 대한 정보를 추출하는 원문분석모듈(140), 추출된 식별자(210)를 고정문자부 애니메이션 데이터베이스(120)로 제공하여 추출된 식별자(210)에 대응하는 고정문자부 애니메이션 데이터를 조회하는 고정문자부 애니메이션 데이터 조회부(125)와 추출된 가변문자부(202)의 문자에 대한 정보를 지화 애니메이션 데이터베이스(130)에 제공하여 추출된 문자의 자음과 모음 또는 숫자에 대응하는 지화 애니메이션 데이터를 검색하는 지화 애니메이션 데이터 검색부(135)를 가진다.The standard sentence-based word translation system 102 according to the present invention analyzes the approved standard sentence-based text information 200a, selects the corresponding standard sentence 200, and identifies the identifier 210 of the selected standard sentence 200 And the original text analysis module 140 for extracting information on the characters of the variable character unit 202 based on the selected standard text 200, and the extracted identifier 210 to the fixed character animation database 120 for extraction. Provides information on the characters of the fixed character animation data search unit 125 and the variable variable character unit 202 for querying the fixed character unit animation data corresponding to the identifier 210 to the localized animation database 130 for extraction. It has a localized animation data search unit 135 for searching for localized animation data corresponding to consonants and vowels or numbers of characters.

원문분석모듈(140)은 입력되는 문자정보, 바람직하게 미리 정해둔 표준문안(200)에 기반하여 입력되는 문자정보(200a)에 대해 형태소 분석을 하기 위한 형태소 분석기(141)를 가진다. 형태소 분석기(141)는 입력되는 문자정보(200a)를 이루는 문장성분을 명사, 동사, 형용사, 부사, 조사와 같이 품사별로 분리한다.The original text analysis module 140 has a morpheme analyzer 141 for morphological analysis of the input text information, preferably the input text information 200a based on the predetermined standard text 200. The morpheme analyzer 141 separates sentence components constituting the input text information 200a into parts of speech such as nouns, verbs, adjectives, adverbs, and investigations.

원문분석모듈(140)은 표준문안 비교분석기(142)를 가진다. 표준문안 비교분석기(142)는 위와 같은 형태소 분석기(141)에서 분석된 형태소 정보를 표준문안 데이터 저장부(110)에 저장된 표준문안(200)들의 형태소 정보와 비교하여 동사 또는 명사가 일치하는 경우 부사 또는 형용사가 일치할 때보다 상대적으로 높은 점수를 부여한다. 그 이유는 문장을 대비하여 동일하거나 유사한 문장을 찾는데 있어서 명사와 동사가 형용사나 부사보다 더 중요한 결과를 보여주기 때문이다. 그리고 조사에 대해서는 재난/응급방송을 하는 사람에 따라 변동될 가능성이 크고 문장을 대비하여 동일하거나 유사한 문장을 찾는데 있어서 명사, 동사, 형용사, 부사보다 덜 중요한 결과를 보여주어 가장 낮은 점수를 부여하거나 점수를 부여하지 않고, 분석에서 제외시킨다.The original text analysis module 140 has a standard text comparison analyzer 142. The standard sentence comparison analyzer 142 compares the morpheme information analyzed by the morpheme analyzer 141 as described above with the morpheme information of the standard sentences 200 stored in the standard sentence data storage unit 110, and if the verb or noun matches, the adverb Or, the adjectives are given higher scores than when they match. This is because nouns and verbs show more important results than adjectives or adverbs in finding the same or similar sentences in preparation for sentences. In addition, the survey is likely to vary depending on the person who broadcasts the disaster / emergency, and shows less important results than nouns, verbs, adjectives, adverbs in finding the same or similar sentences in preparation for sentences, giving the lowest score or scoring. Do not assign, exclude from analysis.

표준문안 비교분석기(142)는 부여된 합산 점수가 가장 높은 표준문안(200)을 인가되는 표준문안에 기초한 문자정보(200a)에 가장 가까운 표준문안(200)으로 선택하고, 선택된 표준문안(200)의 식별자(210)와 선택된 표준문안(200)에 기초한 가변문자부(202)의 문자에 해당하는 정보를 추출하여 고정문자부 애니메이션 데이터 조회부(125)와 지화 애니메이션 데이터 검색부(135)로 그 정보를 인가하는 역할을 한다.The standard text comparison analyzer 142 selects the standard text 200 having the highest total score as the standard text 200 that is closest to the text information 200a based on the approved standard text, and selects the selected standard text 200 Extract the information corresponding to the character of the variable character unit 202 based on the identifier 210 and the selected standard sentence 200, and then enter the fixed character unit animation data search unit 125 and the local animation data search unit 135. It serves to authorize information.

바람직하게, 표준문안 비교분석기(142)에서 더 정확한 표준문안(142)을 찾을 수 있도록 더 많은 정보를 제공하기 위해, 원문분석모듈(140)은 의미역 분석기(143)를 더 가질 수 있다. 의미역 분석기(143)는 입력되는 문자정보(200a)에 대해, 바람직하게, 분석된 문자정보의 각 형태소에 대해 의미역 분석을 하여, 주어, 보어, 목적어, 관형어, 서술어 등으로 구분한다.Preferably, in order to provide more information so that the standard text comparison analyzer 142 can find the more accurate standard text 142, the original text analysis module 140 may further have a semantic domain analyzer 143. The semantic domain analyzer 143 analyzes the semantic domain for the input text information 200a, preferably for each morpheme of the analyzed text information, and divides it into a subject, a bore, an object, a tubular language, and a predicate.

이에 따라 표준문안 비교분석기(142)는 형태소 분석기(141)에서 분석된 형태소 정보를 표준문안 데이터 저장부(110)에 저장된 표준문안(200)들의 형태소 정보와 비교하여 동사 또는 명사가 일치하는 경우 부사 또는 형용사가 일치할 때보다 상대적으로 높은 점수를 부여함과 아울러, 의미역 분석기(143)에서 분석된 의미역 정보를 표준문안 데이터 저장부(110)에 저장된 표준문안(200)들의 의미역 정보와 비교하여 의미역이 일치하는 단어가 많을수록 높은 점수를 부여하고, 부여된 합산 점수가 가장 높은 표준문안(200)을 인가되는 문자정보(200a)에 대응하는 표준문안(200)으로 선택하고, 선택된 표준문안(200)의 식별자(210)와 선택된 표준문안(200)에 기초한 가변문자부(202)의 문자에 해당하는 정보를 추출하여 고정문자부 애니메이션 데이터 조회부(125)와 지화 애니메이션 데이터 검색부(135)로 인가한다. 바람직하게, 번역 전의 또는 변환 전의 대응 문자정보와 함께 인가한다. 문자정보의 데이터량은 애니메이션 데이터에 비해 월등하게 작으므로, 대응 문자정보(200a)를 수어동영상 재생기(310)나 뒤에서 설명되는 디스플레이 제어부로 함께 실어 보내는 것은 아무런 문제가 되지 않는다. 때에 따라 대응 문자정보(200a)는 동기화에 필요한 정보와 함께 애니메이션 데이터로 번역되는 경로와는 별도의 경로로 보내질 수 있음은 물론이다. 이는 이하에서 설명되는 수어로의 번역과정에서도 마찬가지이다.Accordingly, the standard text comparison analyzer 142 compares the morpheme information analyzed by the morpheme analyzer 141 with the morpheme information of the standard text 200 stored in the standard text data storage unit 110, and if the verb or noun matches, the adverb Alternatively, the adjectives are given a relatively higher score than when they match, and the semantic information analyzed by the semantic analyzer 143 is compared with the semantic information of the standard sentences 200 stored in the standard sentence data storage unit 110. Compared, the more words the semantic domain matches, the higher the score is given, and the standard sentence 200 having the highest added sum is selected as the standard sentence 200 corresponding to the applied character information 200a, and the selected standard Extracting the information corresponding to the characters of the variable character unit 202 based on the identifier 210 of the text 200 and the selected standard text 200, the fixed character unit animation data query unit 125 and paper animation It is applied to the application data search unit (135). Preferably, it is applied together with the corresponding text information before or before translation. Since the data amount of the text information is significantly smaller than the animation data, it is not a problem to send the corresponding text information 200a together to the fish video player 310 or the display control unit described later. Of course, the corresponding character information 200a may be sent in a separate path from the path translated into animation data along with information necessary for synchronization. This also applies to the translation process to the language described below.

더 나아가 원문분석모듈(140)은 바람직하게, 표준문안의 형태로 입력되는 문자정보(200a)에 대해 개체명 분석을 하여 고유명사를 찾기 위한 개체명 분석기(144)를 더 구비할 수 있다. 이 경우, 표준문안 비교분석기(142)는 개체명 분석기(144)에서 분석된 개체명 정보를 표준문안 데이터 저장부(110)에 저장된 표준문안(200)들의 개체명 정보와 비교하여 일치하는 것이 많을수록 높은 점수를 부여하도록 구성되며, 형태소 분석 및 의미역 분석을 기반으로 한 점수와 개체명 분석을 통해 부여한 점수를 모두 합한 합산점수가 가장 높은 표준문안(200)을 입력되는 문자정보(200a)에 대응하는 표준문안(200)으로 선택하고, 선택된 표준문안(200)의 식별자(210)와 선택된 표준문안(200)을 기준으로 가변문자부(202)의 문자에 해당하는 정보를 추출하여 고정문자부 애니메이션 데이터 조회부(125)와 지화 애니메이션 데이터 검색부(135)로 인가한다.Furthermore, the original text analysis module 140 may further include an object name analyzer 144 for searching for a proper noun by analyzing an object name for the text information 200a input in the form of a standard text. In this case, the more the standard text comparison analyzer 142 compares the object name information analyzed by the object name analyzer 144 with the object name information of the standard text 200 stored in the standard text data storage unit 110, the more It is configured to give high scores, and it responds to character information (200a) that inputs the standard text (200) with the highest total score, which combines both scores based on morphological analysis and semantic analysis and scores given through object name analysis. The selected standard text 200 is selected, and the information corresponding to the characters of the variable character section 202 is extracted based on the identifier 210 of the selected standard text 200 and the selected standard text 200 to fix the animation of the fixed text section. The data search unit 125 and the animation animation data search unit 135 are applied.

즉, 본 발명은 인가되는 표준문안(200)에 대한 식별자(210)와 가변문자부(202)의 문자에 대한 정보를 추출하는 과정과 추출된 식별자(210)에 대한 애니메이션 데이터를 얻는 과정 및 추출된 문자에 대응하는 지화 애니메이션 데이터를 얻는 과정을 가진다.That is, the present invention extracts information on the characters of the identifier 210 and the variable character unit 202 for the standard text 200 to be applied, and the process of obtaining and extracting animation data for the extracted identifier 210 It has the process of obtaining the animation animation data corresponding to the text.

여기에서, 고정문자부 애니메이션 데이터 조회부(125)와 지화 애니메이션 데이터 검색부(135)의 기능은 원문분석모듈(140)에 통합되어 구성될 수 있다.Here, the functions of the fixed text portion animation data inquiry unit 125 and the localized animation data search unit 135 may be integrated and configured in the original text analysis module 140.

본 발명에 따른 표준문안 기반 수어번역시스템(102)은 고정문자부 애니메이션 데이터베이스(120)에서 출력되는 고정문자부 애니메이션 데이터와 지화 애니메이션 데이터베이스(130)에서 출력되는 지화 애니메이션 데이터를 조합하여 인가되는 표준문안(200)에 대응하는 애니메이션 데이터를 생성하는 애니메이션 데이터 생성모듈(150)을 구비한다.The standard text-based word translation system 102 according to the present invention is a standard text approved by combining fixed text animation data output from the fixed text animation database 120 and paper animation animation data output from the animation animation database 130. It has an animation data generation module 150 for generating animation data corresponding to (200).

위와 같은 본 발명에 따른 표준문안 기반 수어번역시스템(102)은 바람직하게 인터넷 상의 클라우드에 또는 인터넷 상의 관련 서버에 설치되어 수어동영상 재생기(310)가 설치된 휴대단말기(300)로 접속할 수 있게 구성되어 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)을 구성할 수 있다.The standard text-based utterance translation system 102 according to the present invention as described above is preferably installed in a cloud on the Internet or a related server on the Internet to be connected to a mobile terminal 300 in which the utterance video player 310 is installed. It is possible to construct a standard text-based word translation transmission system 100 according to the invention.

한편, 재난문자 발송시스템(400)에서는 휴대단말기(300)로 바람직하게, 재난과 관련한 표준문안(200)에 기반한 문자정보(200a)와 함께 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)과 접속할 수 있는 도 3에 나타낸 바와 같은 수어 링크부(208)를 표시하여 발송한다. 휴대단말기(300) 사용자가 재난문자를 받고 수어 링크부(208)를 클릭하면 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)은 휴대단말기(300)로부터 표준문안 기반 문자정보(200a)에 대한 정보를 수신하고, 수신된 문자정보(200a)에 대응하는 표준문안(200)을 찾고 그 식별자(210)와 가변문자부(200)의 문자를 확인하고 이에 대한 정보를 고정문자부 애니메이션 데이터베이스(120)와 지화 애니메이션 데이터베이스(130)에 조회한다.On the other hand, in the disaster message sending system 400, preferably as a mobile terminal 300, along with the text information 200a based on the standard text 200 related to the disaster, the standard text based word translation transmission system 100 according to the present invention The male link unit 208 as shown in FIG. 3 that can be connected to the server is displayed and sent. When the user of the mobile terminal 300 receives the disaster text and clicks the sign link unit 208, the standard text-based word translation transmission system 100 according to the present invention is transmitted from the mobile terminal 300 to the standard text-based text information 200a. Receives information about, finds the standard text 200 corresponding to the received text information 200a, checks the identifier 210 and the characters of the variable text section 200, and displays the information about the fixed text section animation database ( 120) and the jihwa animation database 130.

고정문자부 애니메이션 데이터는 식별자별로 미리 번역되어 고정문자부 애니메이션 데이터베이스(120)에 저장되어 있으므로 식별자(210)를 비교하는 것만으로 신속하게 추출할 수 있다. 추출된 가변문자부(202)의 문자에 대응하는 애니메이션 데이터는 지화로만 번역하면 되므로 지화 애니메이션 데이터베이스(130)로부터 신속하게 조합할 수 있다. 이렇게 하여 생성된 고정문자부(206)의 고정문자부 애니메이션 데이터와 가변문자부(202)의 지화 애니메이션 데이터는 애니메이션 데이터 생성모듈(150)에서 신속하게 수어 애니메이션 데이터로 조합된다. 이와 같이 번역하는 경우 가변문자부(202)의 몇몇 문자를 지화로 번역하는 데 걸리는 아주 짧은 시간에 표준문안(200)을 수어로 번역한 수어 애니메이션 데이터를 생성할 수 있다. 이렇게 생성된 수어 애니메이션 데이터는 인터넷(IN)을 통해 휴대단말기(300)로 전송된다. Since the fixed character portion animation data is pre-translated for each identifier and stored in the fixed character portion animation database 120, it can be quickly extracted only by comparing the identifier 210. Since the animation data corresponding to the extracted characters of the variable character unit 202 need only be translated into paper, it can be quickly combined from the paper animation database 130. The generated fixed character portion animation data of the fixed character portion 206 and the localized animation data of the variable character portion 202 are quickly combined into the number animation data in the animation data generation module 150. In this way, in the very short time it takes to translate some characters of the variable character unit 202 into paper, the translation of the standard text 200 into the number can be generated. The generated animation animation data is transmitted to the mobile terminal 300 through the Internet (IN).

휴대단말기(300)는 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)으로부터 생성된 수어 애니메이션 데이터를 수신하여 수어동영상 재생기(310)에서 도 4에 나타낸 바와 같이 캐릭터(205)를 통해 수어 애니메이션 데이터를 재생한다. 이에 따라 휴대단말기(300) 사용자는 신속하게 표준문안(200)에 대응하는 수어 애니메이션을 휴대단말기(300)의 화면을 통해 볼 수 있다.The mobile terminal 300 receives the utterance animation data generated from the standard text-based utterance translation transmission system 100 according to the present invention, and the utterance video player 310 shows the utterance animation through the character 205 as shown in FIG. 4. Play data. Accordingly, the user of the mobile terminal 300 can quickly view the utterance animation corresponding to the standard text 200 through the screen of the mobile terminal 300.

휴대단말기(300)에 수어동영상 재생기(310)가 설치되어 있지 않은 경우 휴대단말기(300) 사용자가 수어 링크부(208)를 클릭하면 구글 플레이 스토어, 애플 앱스토어, 삼성 앱스토어나 번역서비스 제공자의 웹사이트 등으로 접속되게 하는 앱이 구동되도록 하여 수어동영상 재생기(310) 프로그램을 다운로드 받게 하여 수어동영상 재생기(310)가 휴대단말기(300)에서 구동될 수 있도록 한 다음 표준문안(200)에 대한 애니메이션을 재생할 수 있게 한다.When the mobile video player 310 is not installed on the mobile terminal 300, when the mobile terminal 300 user clicks the word link 208, the Google Play Store, Apple App Store, Samsung App Store or translation service provider An animation for the standard text 200 is made by allowing the app to be connected to a website or the like to be driven so that the program for downloading the fish video player 310 is downloaded so that the fish video player 310 can be driven by the mobile terminal 300. Makes it playable.

도 5는 본 발명에 따른 표준문안 기반 수어번역시스템이 휴대단말기에 설치된 예를 나타낸 블록도이다.5 is a block diagram showing an example in which a standard text-based word translation system according to the present invention is installed in a portable terminal.

때에 따라 본 발명에 따른 표준문안 기반 수어번역시스템(102)은 수어 동영상 재생기(310)가 설치된 휴대단말기(300)에 설치될 수 있다. 이 실시 예에서, 원문분석모듈(140)은 도 1에서보다 간략하게 나타내었지만, 그 구성은 앞에서 도 1을 통해 설명한 것과 같다.In some cases, the standard text-based utterance translation system 102 according to the present invention may be installed in the mobile terminal 300 in which the utterance video player 310 is installed. In this embodiment, the original text analysis module 140 is shown more briefly in FIG. 1, but its configuration is the same as that described with reference to FIG. 1 above.

이 경우, 휴대단말기(300)에 설치된 표준문안 기반 수어번역시스템(102)은 인터넷(IN)에 연결된 관리서버(500)를 통해 표준문안 기반 수어번역시스템(102)의 업데이트에 필요한 데이터를 제공받는다. 관리서버(500)는 마스터 표준문안 정보 저장부(510), 마스터 고정문자부 애니메이션 데이터베이스(520), 마스터 지화 애니메이션 데이터베이스(530)를 관리하며 새로운 업데이트 사항이 생길 때 마다 관리서버(500)와 휴대단말기(300)에 설치된 어플리케이션 업데이트 모듈(503, 303)을 통해 업데이트가 이루어질 수 있도록 한다.In this case, the standard text-based utterance translation system 102 installed in the mobile terminal 300 receives data necessary for updating the standard grammar-based utterance translation system 102 through the management server 500 connected to the Internet (IN). . The management server 500 manages the master standard text information storage unit 510, the master fixed character animation database 520, and the master jihwa animation database 530, and carries it with the management server 500 whenever new updates are made. The update can be performed through the application update modules 503 and 303 installed in the terminal 300.

이 실시 예의 경우, 수어동영상 재생기(310)가 설치된 휴대단말기(300)에 도 3에 나타낸 바와 같이 표준문안 기반 문자정보(200a)와 함께 수신된 수어 링크부(208)를 휴대단말기(300) 사용자가 클릭하면, 휴대단말기(300)에 설치된 표준문안 기반 수어번역시스템(102)이 표준문안기반 문자정보(200a)에 대응하는 수어 애니메이션 데이터를 생성하고 생성된 수어 애니메이션 데이터를 수어동영상 재생기(310)에서 재생한다.In this embodiment, as shown in FIG. 3 on the portable terminal 300 in which the sign language video player 310 is installed, the user of the portable terminal 300 receives the sign language link unit 208 received together with the standard text-based text information 200a. When is clicked, the standard text-based utterance translation system 102 installed in the mobile terminal 300 generates grammatical animation data corresponding to the standard text-based text information 200a, and the generated utterance animation data is the utterance video player 310. Play on.

이와 같이 하는 경우, 인터넷(IN)을 통해 애니메이션 데이터를 다운받는데 걸리는 시간을 줄일 수 있으므로 보다 신속하게 표준문안(200)에 대한 수어 애니메이션을 수어동영상 재생기(310)에서 재생할 수 있고, 휴대단말기(300) 사용자는 재난과 관련하여 수신된 표준문안(200)에 대한 수어 애니메이션을 신속하게 볼 수 있다.In this case, since it takes less time to download animation data through the Internet (IN), it is possible to more quickly play the utterance animation for the standard text 200 in the utterance video player 310, and the mobile terminal 300 ) The user can quickly view the sign animation for the standard text 200 received in relation to the disaster.

나머지는 도 1 내지 4를 통해 설명한 것과 같다. The rest is the same as described through FIGS. 1 to 4.

도 6은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 다른 예를 나타낸 블록도이고, 도 7은 재난관련 자막이 표시되는 티브이 방송화면에 표준문안에 대한 수어 애니메이션이 오버레이 되어 재생되는 예를 나타낸 도면이다. 앞의 도 2를 함께 참고하면서 설명한다.FIG. 6 is a block diagram showing another example of a standard text-based utterance translation transmission system according to the present invention, and FIG. 7 shows an example in which a utterance animation for a standard text is overlaid on a TV broadcast screen displaying disaster-related subtitles. It is a drawing. It will be described with reference to Figure 2 above.

때에 따라 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)은 수어동영상 오버레이기(610)가 설치된 방송시스템(600)에 접속할 수 있는 인터넷(IN)에 연결되어 설치될 수 있다.In some cases, the standard text-based utterance translation transmission system 100 according to the present invention may be installed connected to the Internet (IN) that can access the broadcast system 600 in which the utterance video overlay 610 is installed.

이 실시 예의 표준문안 기반 수어번역 전송시스템(100)은 도 1에서 설명한 바와 같은 표준문안 기반 수어번역시스템(102)을 구비함과 아울러 방송시스템(600)으로부터 재난관련 표준문안(자막) 송출 시간정보를 인가받아서 생성된 수어 애니메이션 데이터를 동기화하기 위한 동기화기(160)와 동기화된 수어 애니메이션 데이터를 생성하기 위한 애니메이션 생성기(170)를 더 가진다.The standard sentence-based utterance translation transmission system 100 of this embodiment includes a standard sentence-based utterance translation system 102 as described in FIG. 1 and time information related to disaster-related standard sentence (subtitle) transmission from the broadcast system 600. It further has a synchronizer 160 for synchronizing the generated utterance animation data obtained by obtaining and an animation generator 170 for generating the synchronized utterance animation data.

방송통신위원회 재난방송 온라인 시스템(700) 등으로부터 방송시스템(600)의 재난방송시스템(620)에 재난관련 특정 표준문안(재난문자)을 자막으로 방송하라는 명령이 인가되면, 방송시스템(600)의 재난방송시스템(620)은 재난관련 특정 표준문안을 생성하여 본 발명에 따른 표준문안 기반 수어번역 전송시스템(100)으로 보낸다.When an order to broadcast a specific standard text related to a disaster (disaster text) to the disaster broadcasting system 620 of the broadcasting system 600 from the disaster broadcasting online system 700 or the like of the Korea Communications Commission is authorized, the broadcasting system 600 The disaster broadcasting system 620 generates a specific standard text related to a disaster and sends it to the standard text-based word translation transmission system 100 according to the present invention.

이에 따라 표준문안 기반 수어번역시스템(102)은 방송시스템(600)으로부터 재난과 관련한 표준문안 또는 표준문안기반 문자정보(200a)를 수신하고, 도 1을 통해 앞에서 설명한 과정으로 애니메이션 데이터를 생성하고, 재난방송시스템(620)으로부터 수신한 재난관련 표준문안(자막) 송출 시간정보를 이용하여 방송내용과 동기화된 수어 애니메이션 데이터를 애니메이션 생성기(170)에서 생성하여 방송시스템(600)으로 전송한다.Accordingly, the standard text-based word translation system 102 receives the standard text or standard text-based text information 200a related to the disaster from the broadcast system 600, and generates animation data through the process described above with reference to FIG. 1, The animation generator 170 generates synchronic animation data synchronized with the broadcast content using the disaster-related standard text (subtitle) transmission time information received from the disaster broadcasting system 620 and transmits it to the broadcasting system 600.

동기화된 수어 애니메이션 데이터는 동영상 인코딩 및 스트리밍 또는 파일 다운로드부(180)를 통해 방송시스템(600)으로 보내지고, 방송시스템(600)의 동영상 오버레이기(610)를 거쳐 송출되어 애니메이션 캐릭터(205)를 통해 도 7에 나타낸 바와 같이 표준문안(200)으로 이루어진 재난문자가 표시되는 티브이(TV) 방송 화면에 오버레이 되어 수어 애니메이션으로 재생된다.Synchronized fish animation data is sent to the broadcast system 600 through a video encoding and streaming or a file download unit 180, and transmitted through a video overlay 610 of the broadcast system 600 to transmit the animation character 205. As shown in FIG. 7, the disaster text composed of the standard text 200 is overlaid on a TV broadcast screen and is reproduced as a narration animation.

도 8은 본 발명에 따른 표준문안 기반 수어번역 전송시스템의 또 다른 예를 나타낸 블록도이다. 도 1과 2를 함께 참고하면서 설명한다.8 is a block diagram showing another example of a standard text-based word translation transmission system according to the present invention. It will be described with reference to Figures 1 and 2.

가변문자부(202)에는 지명과 단위, 시간표현 등의 기초가변문자들이 많이 사용된다. 따라서 이들 기초가변문자들에 대해서도 고정문자부에서와 같이 동작인식 툴을 이용하여 미리 애니메이션을 제작하여 그 데이터를 기초가변문자 애니메이션 데이터베이스(132) 저장해두고, 기초가변문자 애니메이션 데이터 검색부(131)를 통해 표준문안(200)에 포함된 기초가변문자에 대한 애니메이션 데이터를 검색할 수 있도록 할 수 있다. 이 경우, 표준문안 데이터 저장부(110)에는 기초가변문자 또는 기초가변문자와 그에 대한 식별자를 더 저장해두는 것이 바람직하고, 원문분석모듈(140)은 도 1 내지 4를 통해 설명한 바와 같은 과정으로 고정문자부에 대한 식별자(210)와, 기초가변문자 및 지화로 번역해야할 문자나 숫자 등을 분석하여 고정문자부에 대한 식별자에 대한 정보는 고정문자부 애니메이션 데이터 조회부(125)로, 기초가변문자에 대한 정보는 기초가변문자 애니메이션 데이터 검색부(131)로, 지화로 번역해야할 문자나 숫자 등에 대한 정보는 지화 애니메이션 데이터 검색부(135)로 각각 인가하여 대응하는 애니메이션 데이터를 추출할 수 있게 하고, 이렇게 추출된 각각의 애니메이션 데이터는 애니메이션 데이터 생성모듈(150)로 인가하여 표준문안기반 문자정보(200a)에 대한 애니메이션 데이터를 생성한다. 때에 따라, 기초가변문자에 대해서도 별도의 식별자를 부여 식별자를 통해 애니메이션 데이터를 검색하도록 할 수 있음은 물론이다.In the variable character unit 202, basic variable characters such as place name, unit, and time expression are frequently used. Therefore, for these basic variable characters, an animation is previously produced using a motion recognition tool as in the fixed character unit, and the data is stored in the basic variable character animation database 132, and the basic variable character animation data search unit 131 is stored. Through this, it is possible to search animation data for the basic variable characters included in the standard text 200. In this case, it is preferable to further store the basic variable characters or the basic variable characters and the identifiers thereof in the standard text data storage unit 110, and the original text analysis module 140 is fixed in the process as described with reference to FIGS. 1 to 4. The identifier 210 for the character part and the information on the identifier for the fixed character part by analyzing characters or numbers to be translated into basic variable letters and papers are analyzed by the fixed character part animation data query part 125, and the basic variable letters Information about the basic variable character animation data search unit 131, and information about characters or numbers to be translated into paper images are applied to the animation data search unit 135, so that corresponding animation data can be extracted. Each animation data extracted in this way is applied to the animation data generation module 150 to animate the standard text-based character information 200a. Generation data. It is needless to say that animation data can be searched through a given identifier by assigning a separate identifier to the basic variable character.

즉, 이 실시 예에서, 가변문자부(202)에 대한 애니메이션 데이터는 가변문자부(202)에 사용될 가능성이 있는 기초가변문자들에 대한 애니메이션 데이터와 기초가변문자 외의 단어에 대한 애니메이션 데이터를 합성하기 위한 지화에 대한 애니메이션 데이터로 구분되어 저장된다. 기초가변문자 외의 문자에 대해서는 지화 애니메이션 데이터 검색부(135)를 통해 지화 애니메이션 데이터베이스(130)를 검색하여 가변문자부의 추출된 문자에 대한 애니메이션 데이터에 조합한다.That is, in this embodiment, the animation data for the variable character unit 202 is composed of animation data for basic variable characters that may be used in the variable character unit 202 and animation data for words other than the basic variable character. It is classified and stored as animation data for the paper. For characters other than the basic variable characters, the localized animation data search unit 135 searches the localized animation database 130 and combines it in the animation data for the extracted characters of the variable character unit.

지명의 경우, 시, 군, 구 단위까지 수어 단어가 있는 경우 해당 수어 단어를 기초가변문자로 하고, 기초가변문자에 포함되지 않은 것은 지화로 표현할 수 있게 한다. 예를 들어, "서울 강남구 대치동"의 경우, "서울"과 "강남구"는 대응 수어 단어가 존재하나 "대치동"의 경우는 없으므로 "대치동"은 "ㄷㅐㅊㅣㄷㅗㅇ"과 같이 지화로 애니메이션 데이터를 얻을 수 있도록 한다.In the case of a place name, if there are word words up to the unit of city, county, or phrase, the corresponding word word is regarded as a basic variable character, and what is not included in the basic variable character can be expressed as a local language. For example, in the case of "Daechi-dong, Gangnam-gu, Seoul", "Seoul" and "Gangnam-gu" have corresponding word words, but in the case of "Daechi-dong", "Daechi-dong" is animation data such as "ㄷ ㅐ ㅊ ㅣ ㄷㅗㅇ" Should be able to get

나머지는 도 1 내지 4를 통해 설명한 것과 같다.The rest is the same as described through FIGS. 1 to 4.

도 8의 실시 예의 가변문자부에 대한 예는 앞의 도 5와 6의 실시 예에도 그대로 적용될 수 있다.The example of the variable character unit of the embodiment of FIG. 8 can be applied to the embodiments of FIGS. 5 and 6 as described above.

도 9와 10은 휴대단말기에서 재생되는 수어 애니메이션의 예를 각각 나타낸 도면이다.9 and 10 are diagrams respectively showing examples of sign language animations played on a mobile terminal.

때에 따라, 본 발명의 번역 서비스가 웹서버를 통해 이루어지는 경우, 도 9에 나타낸 바와 같이 휴대단말기(300)의 웹브라우저를 통해 번역된 수어 애니메이션이 캐릭터(205)를 통해 재생되게 할 수 있다. 또한, 도 10에 나타낸 바와 같이, 재생되는 수어 애니메이션의 캐릭터(205) 뒤에 배경이미지(302)를 삽입하거나 표준문안(200)과 함께 이모티콘(304)을 표시하여 의미전달을 더 명확하게 할 수 있다. In some cases, when the translation service of the present invention is performed through a web server, as illustrated in FIG. 9, the utterance animation translated through the web browser of the mobile terminal 300 may be played through the character 205. In addition, as illustrated in FIG. 10, the background image 302 may be inserted after the character 205 of the replayed animation, or the emoticon 304 may be displayed together with the standard text 200 to further clarify meaning. .

도 11은 본 발명에 따른 재난/응급방송시스템의 일례를 나타낸 블록도이고, 도 12는 고속열차의 재난/응급방송시스템에 적용된 본 발명의 일례를 나타낸 도면이고, 도 13 내지 도 15는 열차의 객차 내, 플랫폼 및 대합실에 설치된 디스플레이에 재난/응급방송의 수어 애니메이션이 재생되는 상태를 각각 나타낸 도면이다. 앞의 도면들을 함께 참고하면서 설명한다.11 is a block diagram showing an example of a disaster / emergency broadcasting system according to the present invention, FIG. 12 is a view showing an example of the present invention applied to a disaster / emergency broadcasting system of a high-speed train, and FIGS. 13 to 15 are trains It is a diagram showing the state in which the fish animation of disaster / emergency broadcast is played on the display installed in the passenger car, the platform, and the waiting room, respectively. It will be described with reference to the preceding drawings.

도 11 내지 15을 참고하면, 본 발명은 재난/응급방송시스템(104, 106)으로 구현될 수 있다. 즉, 에스알티(SRT)나 케이티엑스(KTX) 등의 고속열차, 지하철, 경전철, 국철 등의 열차(T)에서 응급상황 또는 재난상황이 발생하여 음성방송부(630)에서 응급상황 등에 대한 방송을 하면, 음성/문자 변환서버(640)에서 방송되는 음성은 문자정보로 변환되어 앞의 도 1에서 설명한 본 발명에 따른 표준문안 기반 수어번역시스템(102)으로 인가된다. 도 11을 참고하면, 문자방송부(650)에서 입력되는 문자정보는 음성/문자 변환서버(640)를 거치지 않고 표준문안 기반 수어번역시스템(102)으로 인가된다.11 to 15, the present invention can be implemented by disaster / emergency broadcasting systems 104 and 106. In other words, when a high-speed train such as SRT or KTX, a train T such as subway, light rail, or national railway occurs in an emergency or disaster, the voice broadcasting unit 630 broadcasts an emergency. , The voice broadcast from the voice / text conversion server 640 is converted to text information and is applied to the standard text-based utterance translation system 102 according to the present invention described in FIG. 1 above. Referring to FIG. 11, text information input from the text broadcasting unit 650 is applied to the standard text-based word translation system 102 without going through the speech / text conversion server 640.

이에 따라 표준문안 기반 수어번역시스템(102)은 앞의 도 1 내지 4를 통해 설명한 과정으로 애니메이션 데이터를 생성한다. 더 자세하게는, 본 발명에 따른 표준문안 기반 수어번역시스템(102)의 원문분석모듈(140)은 형태소분석기(141), 의미역분석기(143), 개체명분석기(144)와 표준문안 비교분석기(142)를 통해 입력되는 문자정보(200a)를 분석하여 문자정보(200a)에 대응되는 표준문안(200)과 그 식별자(210) 및 가변문자부(202)의 문자를 자동으로 추출하고, 고정문자부 애니메이션데이터 조회부(125), 지화애니메이션 데이터검색부(135) 등으로 선택된 표준문안(200)의 식별자(210)를 포함한 관련정보를 바람직하게 변환 전의 대응 문자정보(200a)와 함께 보내어 입력되는 문자정보에 대응되는 애니메이션 데이터를 추출하도록 하고, 추출된 애니메이션 데이터들을 애니메이션데이터 생성모듈(150)에서 조합하여 바람직하게, 대응 문자정보(200a)와 함께 디스플레이 제어부(190)로 보낸다. 대응 문자정보(200a)는 동기화에 필요한 정보와 함께 별도의 경로로 디스플레이 제어부(190)로 제공될 수 있음은 물론이다.Accordingly, the standard text-based word translation system 102 generates animation data in the process described with reference to FIGS. 1 to 4 above. In more detail, the original text analysis module 140 of the standard text-based word translation system 102 according to the present invention includes a morpheme analyzer 141, a semantic domain analyzer 143, an individual name analyzer 144, and a standard text comparison analyzer ( 142) by analyzing the character information (200a) input through the standard text (200) corresponding to the character information (200a) and its identifier 210 and the variable character unit 202 automatically extracted characters, fixed characters The relevant information including the identifier 210 of the standard text 200 selected by the secondary animation data inquiry unit 125, the Jihwa animation data search unit 135, and the like is preferably sent together with the corresponding character information 200a before conversion to be input. The animation data corresponding to the text information is extracted, and the extracted animation data are combined in the animation data generation module 150 and preferably sent to the display control unit 190 together with the corresponding text information 200a. Of course, the corresponding text information 200a may be provided to the display controller 190 in a separate path along with information necessary for synchronization.

디스플레이 제어부(190)는 조합된 애니메이션 데이터와 문자정보, 동기화 정보 등에 따라 디스플레이(192)를 제어하여 애니메이션 데이터가 문자정보와 함께 화면상에 출력되도록 한다.The display controller 190 controls the display 192 according to the combined animation data, text information, synchronization information, and the like, so that the animation data is output on the screen together with the text information.

도 11에 나타낸 바와 같은 재난/응급 방송시스템(104)이 고속열차에 적용되는 구체적인 예는 도 12에 도시되어 있다.A specific example in which the disaster / emergency broadcasting system 104 as shown in FIG. 11 is applied to a high-speed train is illustrated in FIG. 12.

도 12에 나타낸 바와 같이 열차(T)에는 탑승객에게 안내방송을 위한 스피커(SP), 디스플레이(192), 음성방송부(630), 디스플레이(192)로 필요한 비디오 및 오디오 신호를 내보내고 음성방송부(630)에서 방송되는 음성신호를 처리하기 위한 오디오/비디오랙(632)이 구비된다. 그 외에 본 발명에 따른 표준문안기반 수어번역시스템(102)이 열차(T)에 직접 설치되지 않고, 인터넷(IN)으로 접속할 수 있는 클라우드 상에 설치된 경우, 각종 데이터를 송수신하기 위한 미디어 게이트웨이서버(633), 모바일 라우터(634) 및 열차 내에서의 무선 데이터 송수신을 위한 와이파이기구(635)가 구비된다.As shown in FIG. 12, a train (T) sends necessary video and audio signals to a passenger speaker (SP), a display 192, a voice broadcasting unit 630, and a display 192 for announcements, and the voice broadcasting unit 630 An audio / video rack 632 is provided to process the audio signal broadcast from. In addition, when the standard text-based word translation system 102 according to the present invention is not directly installed on the train T, but is installed on a cloud that can be accessed through the Internet (IN), a media gateway server for transmitting and receiving various data ( 633), a mobile router 634 and a Wi-Fi mechanism 635 for transmitting and receiving wireless data in the train are provided.

바람직하게, 도 12에 나타낸 본 발명에 따른 재난/응급방송시스템(106)은 청각장애인용 앱이 설치된 휴대단말기(300)를 휴대하고 열차에 탑승한 청각장애인(300a)을 확인하기 위한 페어링 서버(pairing server, 636)가 더 구비된다.Preferably, the disaster / emergency broadcasting system 106 according to the present invention shown in FIG. 12 carries a mobile terminal 300 in which an app for hearing impaired persons is installed and a pairing server for checking a hearing impaired person 300a boarding the train ( pairing server, 636) is further provided.

한편, 인터넷(IN)에 연결된 클라우드 상에는 본 발명에 따른 표준문안기반 수어번역시스템(102), 미디어게이트웨이 서버(633)로부터 입력되는 음성신호를 문자신호로 변환하여 표준문안기반 수어번역시스템(102)으로 출력하기 위한 음성/문자변환서버(640)가 구비된다. 때에 따라, 음성/문자변환서버(640)는 열차(T)에 설치되어 방송되는 음성신호를 미리 번역하여 인터넷(IN)을 통해 번역된 문자정보를 표준문안 기반 수어번역시스템(102)으로 보낼 수 있다.On the other hand, on the cloud connected to the Internet (IN), the standard text-based utterance translation system 102 and the standard text-based utterance translation system 102 by converting voice signals input from the media gateway server 633 into text signals. A voice / text conversion server 640 for outputting is provided. Sometimes, the voice / text conversion server 640 can pre-translate the voice signal installed and broadcast on the train T and send the translated text information through the Internet (IN) to the standard text-based word translation system 102. have.

이 실시 예의 표준문안 기반 수어번역 전송시스템(100)은 표준문안 기반 수어번역시스템(102)에 연결되고 번역한 수어애니메이션데이터를 저장해두는 웹서버(710), 청각장애인용 앱이 설치된 휴대단말기(300)와 청각장애인 보호자 등에 대한 정보와 앱에 대한 데이터를 저장하고 있는 앱서버(720), 앱서버(720) 관리를 위한 앱관리서버(730), 앱서버(720)의 요청에 따라 단문메시지 발송을 위한 에스엠에스서버(740)를 구비한다. 앱서버(720)는 에프씨엠서버(Firebase Colud Messaging Server, 750)에 접속할 수 있도록 구성된다.The standard sentence-based utterance translation transmission system 100 of this embodiment is connected to the standard sentence-based utterance translation system 102 and stores a translated utterance animation data in the web server 710, a mobile terminal 300 with a hearing impaired app installed. ) And the app server 720 that stores information about the guardians of the hearing impaired and the app, the app management server 730 for managing the app server 720, and a short message is sent at the request of the app server 720 It provides a sms server 740 for. The app server 720 is configured to access the FMC server (Firebase Colud Messaging Server, 750).

에프씨엠서버(750)는 인터넷(IN)에 연결된 클라우드 상에서 팝업(popup)신호 푸시(push) 및 번역된 수어 애니메이션데이터/자막 페이지의 유알엘 브로드캐스팅을 위한 것으로, 클라우드 상의 메시지 중계서버로서의 역할을 한다. 이러한 에프씨엠서버(750)는 별도의 전문서비스 제공자에 의해 운영된다.The FMC server 750 is for pushing the popup signal on the cloud connected to the Internet (IN) and broadcasting the translated utterance animation data / subtitle page, and serves as a message relay server in the cloud. . The MC server 750 is operated by a separate professional service provider.

위와 같은 구성의 본 발명에 따른 재난/응급방송시스템(106)의 동작과정을 설명한다.The operation process of the disaster / emergency broadcasting system 106 according to the present invention having the above configuration will be described.

청각장애인용 앱이 설치된 휴대단말기(300)를 소지한 청각장애인(300a)이 열차(T)에 탑승하면, 페어링서버(636)는 청각장애인용 앱이 설치된 휴대단말기(300)와 페어링신호를 교환하고 페어링하여 청각장애인용 앱이 설치된 휴대단말기(300)의 식별정보를 등록하고, 이 식별정보를 앱서버(720) 쪽으로 간단한 메시지를 푸시하거나 보호자 등에게 문자 등을 보내는데 필요한 정보와 함께 실어 보낸다. 페어링서버(636)를 통해 청각장애인용 앱이 설치된 휴대단말기(300)의 소유자가 열차(T)에 탑승한 것을 확인할 수 있다.When the hearing impaired person 300a carrying the mobile terminal 300 with the hearing impaired app installed on the train T, the pairing server 636 exchanges the pairing signal with the mobile terminal 300 with the hearing impaired app installed. And paired to register identification information of the mobile terminal 300 in which the app for the hearing impaired is installed, and push the identification information along with information necessary to push a simple message to the app server 720 or send a text message to the guardian. Through the pairing server 636, it can be seen that the owner of the mobile terminal 300 in which the app for the hearing impaired is installed has boarded the train T.

재난상황 또는 응급상황이 발생하는 경우, 열차(T) 승무원이 음성방송부(630)를 통해 정해진 매뉴얼에 따라, 바람직하게, 표준문안에 기반하여 정한 문구에 따라 재난상황 또는 응급상황이 발생한 사실을 방송하면, 방송된 음성정보는 오디오/비디오랙(632)을 거쳐 스피커(SP)로 출력되게 한다. 이와 함께, 방송된 음성정보는 미디어 게이트웨이서버(633), 모바일라우터(634)를 통해 인터넷(IN) 클라우드 상의 음성/문자변환서버(640)로 보낸다. 음성/문자변환서버(640)는 음성정보를 문자정보(200a)로 변환하여 본 발명에 따른 표준문안기반 수어번역시스템(102)으로 보내고, 표준문안기반 수어번역시스템(102)은 입력되는 문자정보(200a)를 수어로 번역하여 디스플레이 제어부(190, 190a)로 보내, 도 13에 나타낸 바와 같이 열차 내의 디스플레이(192) 또는 도 14와 도 15에 나타낸 바와 같이 역사의 디스플레이(192a) 또는 플랫폼의 디스플레이(192b)에 문자정보와 함께 번역된 수어애니메이션이 출력되도록 한다.In the event of a disaster or emergency, the train (T) crew broadcasts the fact that the disaster or emergency has occurred according to the manual determined based on the standard text, preferably according to the manual set through the voice broadcasting unit 630. If so, the broadcasted audio information is output to the speaker SP through the audio / video rack 632. In addition, the broadcasted voice information is transmitted to the voice / text conversion server 640 on the Internet (IN) cloud through the media gateway server 633 and the mobile router 634. The voice / text conversion server 640 converts the voice information into text information 200a and sends it to the standard text-based word translation system 102 according to the present invention, and the standard text-based word translation system 102 inputs text information. Translating (200a) into a number and sending it to the display control unit (190, 190a), the display 192 in the train as shown in FIG. 13 or the display of the history (192a) or platform as shown in FIGS. 14 and 15 In 192b, the translated word animation along with the text information is displayed.

때에 따라, 표준문안기반 수어번역시스템(102)이 입력되는 문자정보(200a)를 수어로 번역하여 인터넷(IN) 상의 웹서버(710) 또는 스트리밍서버 등의 애니메이션데이터서버에 저장해두고, 그 유알엘 정보를 디스플레이제어부(190, 190a)로 제공하여 웹서버(710) 또는 스트리밍서버로부터 번역된 수어애니메이션 데어터와 문자정보를 다운받아서 디스플레이(192, 192a, 192b)에 표시하도록 할 수 있다. 본 발명에서 디스플레이 제어부(190, 190a)는 디스플레이(192, 192a, 192b)를 전용으로 제어하기 위한 피씨 등의 컴퓨터일 수 있다.Sometimes, the standard text-based sign language translation system 102 translates the input text information 200a into a sign language and stores it in an animation data server such as a web server 710 or a streaming server on the Internet (IN), and the uL information It can be provided to the display control unit (190, 190a) to download the translated animation data and text information from the web server 710 or streaming server to display on the display (192, 192a, 192b). In the present invention, the display controllers 190 and 190a may be computers such as PCs for exclusively controlling the displays 192, 192a, and 192b.

바람직하게, 앱서버(720)는 페어링서버(636)로부터 확인된 청각장애인용 앱이 설치된 단말기(300)의 식별자 정보를 전달받아서 열차(T)에 탑승한 것으로 확인된 소유자의 청각장애인용 앱이 설치된 단말기(300)로 표준문안 기반 수어번역시스템(102)에서 번역된 수어 애니메이션 데이터의 유알엘 정보를 푸시 하도록 에프씨엠서버(750)로 보내고, 에프씨엠서버(750)는 청각장애인용 앱이 설치된 휴대단말기(300)로 팝업신호와 번역된 수어 애니메이션 데이터의 유알엘 정보를 브로드캐스팅 한다.Preferably, the app server 720 receives the identifier information of the terminal 300 in which the app for the hearing impaired from the pairing server 636 is installed, and the owner's app for the hearing impaired is confirmed to have boarded the train T. To the installed terminal 300, the standard text-based utterance translation system 102 sends the LF animation data of the translated utterance animation data to the FMC server 750, and the FCM server 750 is a mobile device with a hearing impaired app installed. The terminal 300 broadcasts the pop-up signal and the uL information of the translated word animation data.

이에 따라, 청각장애인용 앱이 설치된 휴대단말기(300)에 수어 애니메이션 데이터의 유알엘 정보의 팝업창(305)이 뜨고, 청각장애인(300a)은 팝업창(305)에 기재된 안내문에 따라 수어 및 자막 버튼(305a)을 터치하여 웹서버(710) 또는 스트리밍서버 등의 해당 유알엘에 접속하여 번역된 수어 애니메이션데이터와 문자정보를 다운받아서 휴대단말기(300)의 화면(306)에 수어 애니메이션데이터에 대한 영상을 출력하고, 바람직하게 문자정보를 함께 표시한다.Accordingly, a pop-up window 305 of the information of the singer animation data appears on the mobile terminal 300 in which the app for the hearing impaired is installed, and the hearing-impaired person 300a according to the instructions described in the pop-up window 305 has the word and subtitle button 305a. ) To access the web server 710 or a corresponding server such as a streaming server to download the translated sign language animation data and text information, and output an image of the sign language animation data on the screen 306 of the mobile terminal 300. , Preferably, the text information is displayed together.

한편, 앱서버(720)는 청각장애인(300a)과 관련된 정보를 확인하여 가족이나 청각장애인 보호자 등의 휴대전화(307)로 청각장애인(300a)의 열차(T) 탑승, 하차, 재난/응급상황에서의 상황을 설명하는 문자 메시지 등에 대한 정보를 보낸다.On the other hand, the app server 720 checks the information related to the hearing impaired (300a) and boards, disembarks, disasters / emergency situations of the train (T) of the hearing impaired (300a) with a mobile phone (307) such as a family member or a deaf guardian. Send information about text messages, etc. explaining the situation in Esau.

즉, 본 발명에 따른 재낸/응급방송시스템(104, 106)은 표준문안을 기반으로 하여 일반 방송뿐만 아니라 특히, 긴급을 요하는 재난/응급방송, 열차 내의 재난/응급방송, 재난관련 공지 문자나 자막방송에 대한 수어 애니메이션을 신속하게 생성하여 방송하고, 청각장애인의 휴대단말기로 관련정보를 수어로 번역하여 제공할 수 있게 해준다. 필요 시, 청각장애인의 보호자 등의 휴대단말기로도 청각장애인의 열차 탑승, 하차, 재난/응급상황에서의 상황을 설명하는 문자 메시지 등에 대한 정보를 보낼 수 있다.In other words, the disaster / emergency broadcasting system 104, 106 according to the present invention is not only general broadcasting based on standard text, but also disaster / emergency broadcasting requiring emergency, disaster / emergency broadcasting in a train, and texts related to disaster. It helps to quickly generate and broadcast a semantic animation for subtitled broadcasts, and to translate and provide related information in a portable language for the hearing impaired. If necessary, you can also send information about a deaf person's train ride, drop-off, text message explaining the situation in a disaster / emergency situation, even with a portable terminal such as a deaf guardian.

도 12는 음성/문자변환서버(640)와 본 발명에 따른 표준문안기반 수어번역시스템(102) 등이 인터넷(IN)을 통해 접속할 수 있는 클라우드 상에 설치된 것을 예시하였으나, 이들은 열차(T)에 직접 설치될 수 있고, 이 경우, 웹서버(710) 대신 인트라넷의 애니메이션 데이터서버 등으로 대체될 수 있다.12 illustrates that the voice / text conversion server 640 and the standard text-based utterance translation system 102 according to the present invention are installed on a cloud that can be accessed through the Internet (IN), but they are installed on the train T. It may be installed directly, and in this case, it may be replaced with an animation data server of an intranet instead of the web server 710.

도 16은 본 발명에 따른 표준문안 구성의 변형 예를 설명하기 위한 도면이다. 앞의 도면들을 함께 참고하면서 설명한다.16 is a view for explaining a modified example of the composition of the standard text according to the present invention. It will be described with reference to the preceding drawings.

때에 따라, 표준문안(200)의 고정문자부(206)를 복수개의 분할고정문자부(206a~206d)로 분할하되, 각 분할고정문자부(206a~206d)에 표준문안(200)에 부여된 식별자(210) "5-13"의 하위식별자를 "5-13-1", "5-13-2", "5-13-3", "5-13-4"과 같이 부여하고, 가변문자부(202)는 변수로 두어 변수에 해당하는 문자가 정해지면 그 문자를 지화로 또는 기초가변문자로 취급하여 번역하도록 할 수 있다.Sometimes, the fixed text portion 206 of the standard text 200 is divided into a plurality of divided fixed text portions 206a to 206d, but is given to the standard text 200 to each divided fixed text portion 206a to 206d. The sub-identifier of the identifier 210 "5-13" is assigned as "5-13-1", "5-13-2", "5-13-3", "5-13-4", and variable The character unit 202 may be set as a variable, and when a character corresponding to the variable is determined, the character is treated as a local language or a basic variable character to be translated.

이렇게 하는 경우, 원문분석모듈(140)에서 입력되는 문자정보(200a)와 대비하여 가장 높은 점수를 받은 표준문안(200)의 식별자 "5-13"하위의 분할고정문자부(206a~206d)들을 모두 불러오되, 가변문자부(202)의 문자만 지화 등으로 번역하여 조합하면 문자정보(200a)에 대응하는 애니메이션 데이터를 신속하게 생성할 수 있다.In this case, the divided fixed character parts 206a to 206d under the identifier "5-13" of the standard text 200 that received the highest score in comparison with the text information 200a input from the original text analysis module 140 When all of them are loaded, only the characters of the variable character unit 202 are translated and translated into paper or the like, and animation data corresponding to the character information 200a can be quickly generated.

또한, 위와 같이 하는 경우, 예를 들어, 고정문자부(206)가 100% 일치하지 않는 경우, 또는 일정 점수 이하인 경우, 예외 처리에 의해, 선택된 표준문안(200)의 분할고정문자부(206a~206d)들 중 점수가 가장 낮은 분할고정문자부(206a~206d) 등을 여타 고정문자부의 분할고정문자부에서 찾아서 대체할 수 있도록 구현하는 것도 가능하다. 나머지는 앞에서 설명한 것과 같다.Further, in the case of the above, for example, if the fixed character unit 206 does not match 100%, or if it is equal to or less than a certain score, by the exception processing, the divided fixed character unit 206a of the selected standard text 200 It is also possible to implement such that the fixed fixed character units 206a to 206d having the lowest score among 206d) can be found and replaced in the divided fixed character units of other fixed characters. The rest is as described above.

위 도 16에 나타낸 것과 관련한 표준문안 기반 방송매뉴얼의 표준문안 기반 방송문구는 예를 들면, 다음과 같이 준비된 것일 수 있다.The standard text-based broadcast text of the standard text-based broadcast manual related to that shown in FIG. 16 may be prepared as follows, for example.

"5-13: 작은 화재가 발생했을 때 조치 안내"5-13: What to do when a small fire occurs

『안내 말씀 드립니다. 지금 우리 열차 호차에 화재가 발생했습니다.『We will guide you. Our train now There was a fire in the door car.

호차의 승객께서는 승무원의 안내에 따라 이동하시기 바랍니다. Passengers in the door car should follow the crew's instructions.

다른 객차의 승객께서는 동요하지 말고 잠시 기다려 주시기 바랍니다.Passengers of other carriages, please do not agitate, please wait.

바로 조치하겠습니다.』"I will take action immediately. "

위에서 설명한 바와 같은, 본 발명은 한국어나 영어 등의 텍스트를 애니메이션 기술을 활용하여 아바타를 통해 신속하게 자동으로 수어로 번역하여 필요한 곳으로 전송하는 기술에 대한 것으로, 각 단어별 애니메이션을 부드럽게 연결하도록 계속 업데이트 해나가면 농인의 가독성을 더욱 높일 수 있다.As described above, the present invention relates to a technique for quickly and automatically translating texts such as Korean or English into a language through an avatar using animation techniques, and transmitting them to a required place. Updates can further improve the readability of farmers.

본 발명은 텍스트 표준문안의 고정문자부에 대한 수어 애니메이션을 제작하여 두고, 가변부 문자에 필요한 단어 등의 문자를 지화 애니메이션으로 추가할 수 있도록 하되, 입력되는 문자정보에 적합한 고정문자부를 원문분석모듈을 통해 자동으로 찾을 수 있도록 하여 재난/응급방송, 휴대단말기로의 전송, 자막방송 등에 추가할 수 있도록 하는 데 적합하게 활용될 수 있다.In the present invention, a text animation for a fixed character part of a text standard text is produced, and characters such as words required for a variable part character can be added as a local animation, but a fixed character part suitable for input text information is a text analysis module. Through this, it can be automatically used for disaster / emergency broadcasting, transmission to a mobile terminal, and subtitle broadcasting.

즉, 본 발명에서와 같이 표준문안이 존재하고 표준문안의 추가/변경/수정이 빈번히 일어나지 않는 긴급 재난/응급방송 및 문자의 경우, 표준문안의 고정문자부를 미리 번역하여 수어 애니메이션으로 저장해 두고, 원문분석모듈을 통해 입력되는 표준문안기반 문자정보를 자동으로 분석하여, 고정문자부와 가변문자부를 추출하고 변경이 필요한 가변문자부의 문자만을 지화로 신속하게 번역하여 고정문자부의 애니메이션 데이터에 추가하면 기계번역과 동일한 높은 수준의 번역이 자동으로 이루어질 수 있다.That is, in the case of an emergency disaster / emergency broadcast and a text in which a standard text exists and the addition / modification / modification of the standard text does not occur frequently as in the present invention, the fixed text portion of the standard text is pre-translated and stored as a sign language animation. By automatically analyzing standard text-based text information input through the analysis module, extracting the fixed text part and variable text part, and quickly converting only the text of the variable text part that needs to be changed into paper, add it to the animation data of the fixed text part to translate the machine. The same high level translation as can be done automatically.

본 발명은 재난/응급상황이 아닌 일반 방송, 문자메시지 등에도 그대로 활용될 수 있음은 물론이다.It is a matter of course that the present invention can be used as it is in general broadcasting, text messages, etc., not in a disaster / emergency situation.

본 발명에서, 가변문자부의 문자는 지화의 단순한 수지 신호만으로 번역이 이루어지므로, 의미 전달에 있어 비수지 신호와 수지 신호가 모두 필요한 복잡한 구조의 수어를 모두 번역하지 않으므로 정확하고 신속하게 가변문자부의 문자에 대응하는 지화 애니메이션을 생성할 수 있고, 이 지화 애니메이션을 원문분석모듈을 통해 고정문자부 애니메이션을 신속하게 찾아서 자동으로 삽입할 수 있다.In the present invention, since the characters of the variable letter portion are translated only with a simple resin signal of the paper, the characters of the variable letter portion are accurately and quickly because all of the complex structured words that require both a non-resin signal and a resin signal in meaning transmission are not translated. It is possible to generate a localized animation that corresponds to, and it is possible to quickly find and automatically insert a fixed character animation through the original text analysis module.

이러한 표준문안 방식의 한국어->수어번역은 다양한 환경에서 사용될 수 있는데, 음성만으로 긴급히 공지되는 사례들과 더불어, 마케팅 목적의 문자전송, 에이티엠(ATM)이나 포스(POS) 단말기에서의 정형화된 텍스트에 대한 번역 등에도 활용될 수 있다.This standard text-to-speech translation can be used in a variety of environments. In addition to cases that are urgently announced only by voice, text transmission for marketing purposes, or formal texts in ATM or POS terminals It can also be used for translation about.

또한, 본 발명은 한국어(한글)를 수어로 번역하는 데에만 이용될 수 있는 것은 아니고 영어나 독일어 등 여타 언어를 해당 언어의 수어로 번역하는 데에도 그대로 이용될 수 있다.In addition, the present invention may not only be used to translate Korean (Korean) into a Suo language, but may also be used as it is to translate other languages such as English or German into Suo of the corresponding language.

모바일 문자의 경우, 전송 시 농인을 위한 링크가 함께 전송되며, 링크를 클릭하게 되면, 앱 또는 응용프로그램의 형태로 구현되는 본 발명의 번역시스템이 구동되어 해당 표준문안에 맞는 수어 애니메이션 데이터를 신속하게 생성하고 필요한 곳으로 전송하여 수어 동영상 재생기에서 수어 애니메이션 파일을 재생할 수 있게 한다.In the case of mobile text, a link for the farmer is transmitted when the text is transmitted, and when the link is clicked, the translation system of the present invention implemented in the form of an app or application is driven to promptly display the sign language animation data corresponding to the standard text Create and send it where needed, so that you can play the utterance animation file in the utterance video player.

이러한 애니메이션 파일의 조합을 위한 고정문자부 애니메이션 파일과 지화 애니메이션 파일을 포함한 본 발명에 따른 번역시스템을 휴대단말기에 미리 설치해 두고 문자로 수신된 표준문안 기반 재난문자 등에 대한 수어 애니메이션은 재생하는 경우, 네트워크 전송량을 줄일 수 있고, 더 신속하게 번역된 수어 애니메이션을 재생할 수 있다.When the translation system according to the present invention is installed in a portable terminal in advance, including a fixed character animation file and a jihwa animation file for the combination of such animation files, when the standard text-based disaster text received by the text is played back, the network is played. The amount of transmission can be reduced, and translated language animation can be reproduced more quickly.

방송의 경우 재난관련 내용을 자막으로 송출하게 되는데, 자막과 함께 모바일과 동일하게 인터넷에 연결된 클라우드상이나 서버상에서 애니메이션 파일을 조합하여 생성한 수어 애니메이션 동영상을 지상파 방송사의 방송시스템에 전달함으로써, 방송 송출 시 자막이 표시되도록 함과 아울러 애니메이션 동영상이 티브이 화면에 오버레이 되어 표시되도록 송출할 수 있다.In the case of broadcasting, disaster-related contents are transmitted as subtitles. When subtitles are transmitted by broadcasting a utterance animation video created by combining animation files on a cloud or server connected to the Internet, as well as mobile, to the broadcasting system of terrestrial broadcasters. In addition to displaying the subtitles, the animation video can be transmitted to be displayed overlaid on the TV screen.

각종 교통수단이나 다중 공공시설에 있어서 응급 상황 등에 대한 안내는 음성으로 이뤄지는 것이 일반적이다. 이러한 음성 방송 내용에 대해 방송 매뉴얼에 근거한 표준문안 기반 수어번역 및 자막의 송출을 통해 청각장애인들의 방송 내용 인지에 도움을 줄 수 있다.It is common to provide voice guidance for emergency situations in various modes of transportation or multiple public facilities. For such broadcast contents, it is possible to help people with hearing impairments to recognize the contents of broadcasting through standard text-based word translation and subtitle transmission based on the broadcasting manual.

이러한 음성 방송은 보편화되고 있는 음성인식 엔진을 통해 문장(text)로 변환하고, 이러한 문장을 형태소 분석, 의미역 분석, 개체명 분석을 하여 바람직하게, 표준문안 기반으로 입력되는 문자정보에 대응하는 표준문안을 자동으로 찾고 그 식별자와 가변문자를 추출하고 이를 이용하여 고정문자부 애니메이션 데이터와 가변문자부 애니메이션 데이터를 추출하여 조합하여 표준문안 기반으로 입력되는 문자정보를 수어로 변역한다.These voice broadcasts are converted into texts through a voice recognition engine that is becoming common, and these sentences are morphologically analyzed, semantic domain analysis, and object name analysis. Preferably, standards corresponding to text information input based on standard text are used. It automatically finds the text, extracts the identifier and variable text, and uses it to extract and combine fixed text animation data and variable text animation data, and converts the text information input based on the standard text into a number.

본 발명에 따르면, 고정문자부에 해당하는 표준문안에는 식별자가 할당되어 고정문자부 애니메이션 데이터베이스에서 대응되는 애니메이션 데이터가 추출되고, 가변문자부에 해당하는 문자에 대해서는 변수로 할당되었다가 원문분석모듈에서 변수에 해당하는 문자가 추출되면 이를 지화애니메이션 데이터베이스 등의 가변문자부 애니메이션 데이터베이스에서 변수에 대응되는 문자에 대한 애니메이션 데이터가 추출되어 애니메이션 데이터 생성모듈(150)에서 표준문안 기반으로 입력되는 문자정보에 대응하는 애니메이션 데이터로 조합된다.According to the present invention, an identifier is assigned to the standard text corresponding to the fixed character section, and the corresponding animation data is extracted from the fixed character section animation database, and the text corresponding to the variable character section is assigned as a variable and then in the original text analysis module. When the character corresponding to the variable is extracted, animation data for the character corresponding to the variable is extracted from the variable character part animation database, such as the Jihwa animation database, and corresponds to the character information input based on the standard text in the animation data generation module 150 To be combined with animation data.

본 발명은 재난/응급방송, 재난문자 등 긴급을 요할 뿐만 아니라 상황에 따라 내용이 바뀌는 부분을 가지는 문안을 신속하게 분석하고 자동으로 번역하여 수어 애니메이션 데이터를 생성하여 열차 내의 안내 디스플레이, 역사 휴대단말기나 방송국으로 제공하여 수어 애니메이션으로 재생할 수 있게 함으로써 수어로 재난상황을 신속하게 전파하고 많은 청각 장애인이 수어를 통해 신속하게 재난상황을 파악할 수 있도록 하는 데 이용될 가능성이 있다.The present invention not only requires emergency such as disaster / emergency broadcasting, disaster texts, etc., but also quickly analyzes and automatically translates text that has a part that changes depending on the situation. It can be used to quickly disseminate disasters in fishery by providing them with broadcast stations to play them in animation, and it can be used to help many hearing impaired people quickly identify disasters through fishery.

100: 표준문안 기반 수어번역 전송시스템
102: 표준문안 기반 수어번역시스템 104, 106: 재난/응급방송시스템
110: 표준문안 데이터 저장부
120: 고정문자부 애니메이션 데이터베이스
125: 고정문자부 애니메이션 데이터 조회부
130: 지화 애니메이션 데이터베이스
135: 지화 애니메이션 데이터 검색부 140: 원문분석모듈
141: 형태소분석기 142: 표준문안 비교분석기
143: 의미역분석기 144: 개체명분석기
150: 애니메이션 데이터 생성모듈 160: 동기화기
170: 애니메이션 생성기
180: 동영상 인코딩 및 스트리밍 또는 다운로드부
190, 190a: 디스플레이 제어부 192, 192a, 192b: 디스플레이
200: 표준문안 200a: 문자정보
202: 가변문자부 205: 캐릭터
206: 고정문자부 208: 수어 링크부
210: 식별자 300, 307: 휴대단말기
400: 재난문자 발송시스템 500: 관리서버
600: 방송시스템 610: 동영상 오버레이기
630: 음성방송부 633: 미디어게이트웨이 서버
636: 페어링서버 640: 음성/문자 변환서버
650: 문자방송부 710: 웹서버
720: 앱서버 730: 앱관리서버
740: 에스엠에스 전송서버 750: 에프씨엠서버
100: standard text-based word translation transmission system
102: standard text-based word translation system 104, 106: disaster / emergency broadcasting system
110: standard text data storage unit
120: fixed character animation database
125: fixed character section animation data search section
130: Jihwa Animation Database
135: Jihwa animation data search unit 140: original text analysis module
141: Morphological analyzer 142: Standard text comparison analyzer
143: semantic domain analyzer 144: entity name analyzer
150: animation data generation module 160: synchronizer
170: Animation Generator
180: video encoding and streaming or download
190, 190a: display control unit 192, 192a, 192b: display
200: Standard text 200a: Text information
202: variable character unit 205: character
206: fixed character section 208: sign link section
210: identifier 300, 307: mobile terminal
400: disaster message sending system 500: management server
600: broadcasting system 610: video overlay
630: Voice broadcasting unit 633: Media gateway server
636: Pairing server 640: Voice / text conversion server
650: Text broadcasting unit 710: Web server
720: App server 730: App management server
740: SM S Transmission Server 750: FMS Server

Claims (16)

가변문자부와 고정문자부를 가지는 복수의 표준문안과 복수의 상기 표준문안에 각각 대응하는 복수의 식별자에 대한 정보가 저장된 표준문안 데이터 저장부;
복수의 상기 식별자와 복수의 상기 식별자에 각각 대응하는 상기 고정문자부에 대한 애니메이션 데이터를 각각 저장하고 있는 고정문자부 애니메이션 데이터베이스;
지화에 대한 애니메이션 데이터를 저장하고 있는 지화 애니메이션 데이터베이스;
인가되는 문자정보를 분석하여 상기 표준문안에 대한 상기 식별자와 상기 가변문자부의 문자에 대한 정보를 추출하는 원문분석모듈;
추출된 상기 식별자를 상기 고정문자부 애니메이션 데이터베이스로 제공하여 추출된 상기 식별자에 대응하는 고정문자부 애니메이션 데이터를 조회하는 고정문자부 애니메이션 데이터 조회부;
추출된 상기 문자에 대한 정보를 상기 지화 애니메이션 데이터베이스에 제공하여 추출된 상기 문자에 대응하는 지화 애니메이션 데이터를 검색하는 지화 애니메이션 데이터 검색부; 및
상기 고정문자부 애니메이션 데이터베이스에서 출력되는 상기 고정문자부 애니메이션 데이터와 상기 지화 애니메이션 데이터베이스에서 출력되는 상기 지화 애니메이션 데이터를 조합하여 인가되는 상기 표준문안에 대응하는 애니메이션 데이터를 생성하는 애니메이션 데이터 생성모듈을 포함하고,
상기 가변문자부에 해당될 수 있는 지명, 단위, 시간표현 중 적어도 하나를 포함하는 기초가변문자와 상기 기초가변문자 외의 지화로 번역해야할 지화가변문자에 대한 데이터를 저장하고 있는 기초/지화가변문자 데이터베이스;
상기 기초가변문자에 대한 애니메이션 데이터를 저장하고 있는 기초가변문자 애니메이션 데이터베이스; 및
추출된 상기 문자 중 상기 기초가변문자에 해당하는 정보를 상기 기초가변문자 애니메이션 데이터베이스에 제공하여 추출된 상기 문자에 포함된 상기 기초가변문자에 대응하는 기초가변문자 애니메이션 데이터를 검색하는 기초가변문자 애니메이션 데이터 검색부를 더 포함하고,
상기 원문분석모듈은 상기 기초가변문자와 상기 지화가변문자를 구분하여 추출하고,
상기 지화 애니메이션 데이터 검색부는 상기 지화가변문자를 상기 지화 애니메이션 데이터베이스에 제공하여 상기 지화가변문자에 대응하는 상기 지화 애니메이션 데이터를 검색하고,
상기 애니메이션 데이터 생성모듈은 상기 고정문자부 애니메이션 데이터, 상기 기초가변문자에 대한 애니메이션 데이터 및 상기 지화 애니메이션 데이터를 조합하여 인가되는 상기 문자정보에 대응하는 애니메이션 데이터를 생성하는 것을 포함하고,
상기 원문분석모듈은,
인가되는 상기 문자정보에 대해 형태소 분석을 하기 위한 형태소 분석기;
분석된 상기 문자정보의 각 형태소에 대해 의미역 분석을 하기 위한 의미역 분석기;
인가되는 상기 문자정보에 대해 개체명 분석을 하기 위한 개체명 분석기; 및
상기 형태소 분석기에서 분석된 형태소 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 형태소 정보와 비교하여 동사 또는 명사가 일치하는 경우 부사 또는 형용사가 일치할 때보다 상대적으로 높은 점수를 부여하고, 상기 의미역 분석기에서 분석된 의미역 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 의미역 정보와 비교하여 의미역이 일치하는 단어가 많을수록 높은 점수를 부여하고, 상기 개체명 분석기에서 분석된 개체명 정보를 상기 표준문안 데이터 저장부에 저장된 상기 표준문안들의 개체명 정보와 비교하여 일치하는 것이 많을수록 높은 점수를 부여하고, 부여된 합산 점수가 가장 높은 표준문안을 인가되는 문자정보에 대응하는 표준문안으로 선택하고, 선택된 표준문안의 상기 식별자와 선택된 표준문안에 기반한 상기 가변문자부의 문자에 해당하는 정보를 추출하는 표준문안 비교분석기를 구비하여 구성되고,
상기 고정문자부는 복수개의 분할고정문자부로 분할되고, 분할된 각각의 상기 분할고정문자부에 상기 표준문안에 부여된 상기 식별자의 하위식별자들이 부여되고, 상기 원문분석모듈은 비교의 결과에 따라 선택된 표준문안의 점수가 기준 점수 이하인 경우, 선택되지 않은 표준문안의 상기 분할고정문자부들 중 일부를 선택된 표준문안의 상기 분할고정문자부들 중 일부와 교체할 수 있도록 구성되는 것을 특징으로 하는 표준문안 기반 수어번역시스템.
A standard text data storage unit in which information on a plurality of standard texts having a variable text section and a fixed text section and a plurality of identifiers respectively corresponding to the plurality of standard texts is stored;
A fixed character portion animation database that stores animation data for the plurality of identifiers and the fixed character portions respectively corresponding to the plurality of identifiers;
A jihwa animation database that stores animation data for jihwa;
A text analysis module for extracting information on the identifier and the text of the variable character portion of the standard text by analyzing the applied text information;
A fixed character unit animation data query unit that searches the fixed character unit animation data corresponding to the extracted identifier by providing the extracted identifier to the fixed character unit animation database;
A localization animation data search unit that searches for localized animation data corresponding to the extracted text by providing information on the extracted text to the localized animation database; And
And an animation data generation module for generating animation data corresponding to the standard text that is applied by combining the fixed character animation data output from the fixed character animation database and the animation animation data output from the animation animation database. ,
A basic / local variable character database that stores data on basic variable characters including at least one of a geographical name, unit, and time expression that can be applied to the variable character unit, and local variable characters to be translated into other than the basic variable character. ;
A basic variable character animation database that stores animation data for the basic variable character; And
Basic variable character animation data for searching basic variable character animation data corresponding to the basic variable character included in the extracted character by providing information corresponding to the basic variable character among the extracted characters to the basic variable character animation database Further comprising a search unit,
The original text analysis module extracts the basic variable characters and the local variable characters, and extracts them.
The localized animation data search unit provides the localized variable characters to the localized animation database to search for the localized animation data corresponding to the localized variable characters,
The animation data generation module includes generating animation data corresponding to the character information applied by combining the fixed character part animation data, animation data for the basic variable characters, and the localized animation data,
The original text analysis module,
A morpheme analyzer for performing a morpheme analysis on the applied text information;
A semantic analyzer for semantic domain analysis for each morpheme of the analyzed character information;
An object name analyzer for analyzing an object name with respect to the applied text information; And
When the morpheme information analyzed by the morpheme analyzer is compared with the morpheme information of the standard sentences stored in the standard sentence data storage unit, if a verb or noun matches, a relatively higher score is given than when the adverb or adjective matches, and the The semantic domain information analyzed by the semantic domain analyzer is compared with the semantic domain information of the standard text stored in the standard text data storage unit, the higher the number of words matching the semantic domain, the higher the score, and the individual analyzed by the entity name analyzer Compare the name information with the object name information of the standard texts stored in the standard text data storage unit, and the more matches, the higher the score is given, and the standard text with the highest total score is the standard text corresponding to the approved text information. And select the above standard identifier and selected table Is configured by having a comparison standard text analyzer for extracting information corresponding to said variable character portion based on the text characters,
The fixed character portion is divided into a plurality of divided fixed character portions, and each of the divided fixed character portions is given sub-identifiers of the identifier assigned to the standard text, and the original text analysis module is a standard selected according to the result of the comparison. If the score of the text is less than or equal to the reference score, a standard text-based word translation is configured to replace some of the divided fixed text sections of the unselected standard text with some of the divided fixed text sections of the selected standard text. system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 음성방송부;
상기 음성방송부에서 출력되는 음성신호를 문자정보로 변환하는 음성/문자변환서버;
상기 음성/문자변환서버로부터 인가되는 상기 문자정보를 수어 애니메이션으로 번역하여 상기 문자정보에 대응하는 수어 애니메이션 데이터를 생성하는 제1항에 따른 표준문안 기반 수어번역시스템;
디스플레이; 및
상기 표준문안 기반 수어번역시스템에서 인가되는 상기 수어 애니메이션 데이터에 따른 영상이 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 디스플레이 제어부를 포함하는 것을 특징으로 하는 재난/응급방송시스템.
Voice broadcasting unit;
A voice / text conversion server that converts the voice signal output from the voice broadcasting unit into text information;
A standard text-based utterance translation system according to claim 1, which generates utterance animation data corresponding to the character information by translating the character information applied from the voice / text conversion server into utterance animation;
display; And
Disaster / emergency broadcasting system, characterized in that it comprises a display control unit for controlling the display so that the image according to the utterance animation data applied from the standard text-based utterance translation system is displayed on the display.
제7항에서, 상기 표준문안 기반 수어번역시스템은 상기 디스플레이 제어부로 상기 문자정보를 인가하고,
상기 디스플레이 제어부는 상기 수어 애니메이션 데이터에 따른 영상과 함께 상기 문자정보가 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 것을 특징으로 하는 재난/응급방송시스템.
In claim 7, the standard text-based word translation system approves the text information to the display control unit,
And the display control unit controls the display such that the text information is displayed on the display together with the image according to the sign animation data.
제7항에서, 상기 음성방송부는 열차에 설치되고,
상기 열차에 설치되고 청각장애인용 앱이 설치된 단말기와 페어링신호를 교환하여 상기 청각장애인용 앱이 설치된 단말기의 소유자가 상기 열차에 탑승했는지 여부를 확인하고 상기 청각장애인용 앱이 설치된 단말기와 통신을 하는데 필요한 정보를 얻기 위한 페어링 서버;
상기 표준문안 기반 수어번역시스템으로부터 상기 열차에 탑승한 것으로 확인된 소유자의 상기 청각장애인용 앱이 설치된 단말기로 상기 표준문안 기반 수어번역시스템에서 번역된 상기 수어 애니메이션 데이터의 유알엘 정보를 푸시하기 위한 에프씨엠서버;
상기 표준문안 기반 수어번역시스템으로부터 상기 열차에 탑승한 것으로 확인된 소유자의 상기 청각장애인용 앱이 설치된 단말기로 상기 수어 애니메이션 데이터의 유알엘 정보를 푸시할 것을 요청받아서 이를 상기 에프씨엠서버로 전달하는 앱서버; 및
상기 표준문안 기반 수어번역시스템에서 번역한 상기 수어 애니메이션 데이터를 저장하고 있다가 상기 청각장애인용 앱이 설치된 단말기로부터의 상기 수어 애니메이션 데이터에 대한 전송요청에 따라 상기 수어 애니메이션 데이터를 상기 청각장애인용 앱이 설치된 단말기로 전송하는 애니메이션 데이터서버를 포함하는 것을 특징으로 하는 재난/응급방송시스템.
In claim 7, the voice broadcasting unit is installed on the train,
Exchanging a pairing signal with a terminal installed on the train and equipped with a hearing-impaired app confirms whether the owner of the terminal equipped with the hearing-impaired app has boarded the train and communicates with the terminal on which the app for the hearing-impaired is installed. A pairing server to obtain necessary information;
From the standard text-based word translation system to the terminal on which the app for the hearing impaired person who has been confirmed to have boarded the train is installed, FCM for pushing the information of the L animation of the word animation data translated from the standard text-based word translation system server;
An app server that receives a request from the standard text-based utterance translation system to push the information of the utterance animation data to the terminal installed with the app for the hearing impaired by the owner who is confirmed to have boarded the train, and delivers it to the FMC server. ; And
After storing the utterance animation data translated by the standard text-based utterance translation system, the hearing impaired app is transmitted to the hearing impaired data according to a request for transmission of the utterance animation data from a terminal in which the app for the hearing impaired is installed. Disaster / emergency broadcast system, characterized in that it comprises an animation data server for transmitting to the installed terminal.
제9항에서, 단문문자메시지를 발송하기 위한 에스엠에스 전송서버를 더 포함하고,
상기 앱서버에 상기 청각장애인용 앱이 설치된 단말기 소유자 가족의 전화번호에 대한 정보가 저장되어 있고,
상기 앱서버는 상기 에스엠에스 전송서버에 상기 청각장애인용 앱이 설치된 단말기 소유자 가족의 전화번호로 상기 청각장애인용 앱이 설치된 단말기 소유자의 열차 탑승사실 또는 상기 열차에서 발생한 응급상황을 알려주는 문자메시지를 발송하도록 요청할 수 있도록 구성된 것을 특징으로 하는 재난/응급방송시스템.
In claim 9, further comprising a sms transmission server for sending a short text message,
Information on the phone number of the family of the terminal owner, where the app for the hearing impaired is installed, is stored in the app server,
The app server is a phone number of the family of the owner of the terminal where the app for the hearing impaired is installed on the SM server, a text message that informs the train owner of the terminal where the app for the hearing impaired is installed, or an emergency situation that occurred on the train. Disaster / emergency broadcasting system, characterized in that it is configured to be requested to be shipped.
문자방송부;
상기 문자방송부로부터 인가되는 문자정보를 수어 애니메이션으로 번역하여 상기 문자정보에 대응하는 수어 애니메이션 데이터를 생성하는 제1항에 따른 표준문안 기반 수어번역시스템;
디스플레이; 및
상기 표준문안 기반 수어번역시스템에서 인가되는 상기 수어 애니메이션 데이터에 따른 영상이 상기 디스플레이에 표시되도록 상기 디스플레이를 제어하는 디스플레이 제어부를 포함하는 것을 특징으로 하는 재난/응급방송시스템.
Text Broadcasting Department;
A standard text-based utterance translation system according to claim 1, which translates the character information applied from the character broadcasting unit into utterance animation to generate utterance animation data corresponding to the character information;
display; And
Disaster / emergency broadcasting system, characterized in that it comprises a display control unit for controlling the display so that the image according to the utterance animation data applied from the standard text-based utterance translation system is displayed on the display.
휴대단말기에 수신된 재난과 관련한 표준문안에 포함된 수어 링크부를 상기 휴대단말기의 사용자가 클릭하도록 하여, 제1항의 표준문안 기반 수어번역시스템에서 상기 휴대단말기로부터 상기 표준문안에 대한 정보를 수신하는 과정;
상기 표준문안 기반 수어번역시스템에서 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하는 과정; 및
생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기에 설치된 수어동영상 재생기 또는 웹브라우저에서 재생할 수 있도록 생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기로 전송하는 과정을 포함하는 것을 특징으로 하는 표준문안 기반 수어번역 전송방법.
A process of receiving information on the standard text from the mobile terminal in the standard text-based utterance translation system of claim 1 by allowing the user of the mobile terminal to click on the link word included in the standard text related to the disaster received in the mobile terminal. ;
Generating utterance animation data corresponding to the standard sentence in the standard sentence based utterance translation system; And
And transmitting the generated utterance animation data to the portable terminal for generating the utterance animation data to be played in a fisher video player or a web browser installed on the portable terminal. .
제1항의 표준문안 기반 수어번역시스템이 수어동영상 오버레이기가 설치된 방송시스템으로부터 재난과 관련한 표준문안을 수신하는 과정;
상기 표준문안 기반 수어번역시스템이 수신된 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하는 과정;
생성된 상기 수어 애니메이션 데이터를 상기 방송시스템의 방송내용과 동기화하는 과정; 및
동기화된 상기 수어 애니메이션 데이터가 방송되는 티브이 화면에 오버레이 되어 재생될 수 있게 동기화된 상기 수어 애니메이션 데이터를 상기 방송시스템으로 전송하는 과정을 포함하는 것을 특징으로 하는 표준문안 기반 수어번역 전송방법.
The process of receiving the standard text related to the disaster from the broadcast system in which the standard text-based sign language translation system of claim 1 is installed;
A process in which the standard text-based sign language translation system generates sign language animation data corresponding to the received standard text;
Synchronizing the generated utterance animation data with broadcast content of the broadcast system; And
And transmitting the synchronized animation animation data to the broadcasting system so that the synchronized animation animation data is overlaid and reproduced on a TV screen broadcasted.
수어동영상 재생기 또는 웹브라우저가 설치된 휴대단말기로 접속 가능한 인터넷에 연결되어 설치된 제1항의 표준문안 기반 수어번역시스템을 포함하여 구성되고,
상기 표준문안 기반 수어번역시스템은,
상기 휴대단말기에 수신된 재난과 관련한 표준문안과 함께 수신된 수어 링크부를 상기 휴대단말기의 사용자가 클릭하는 것에 의해 상기 휴대단말기로부터 상기 표준문안에 대한 정보를 수신하고, 수신된 상기 표준문안에 대응하는 수어 애니메이션 데이터를 생성하고, 생성된 상기 수어 애니메이션 데이터를 상기 휴대단말기로 전송함으로써 생성된 상기 수어 애니메이션 데이터를 상기 수어동영상 재생기 또는 웹브라우저에서 재생할 수 있도록 하는 것을 특징으로 하는 표준문안 기반 수어번역 전송시스템.
It consists of the standard text-based utterance translation system of claim 1 installed connected to the Internet that can be accessed by a utterance video player or a mobile terminal equipped with a web browser.
The standard text-based word translation system,
The user receives the information on the standard text from the mobile terminal by clicking on the received link part along with the standard text related to the disaster received on the mobile terminal, and corresponds to the received standard text. Standard sentence-based utterance translation transmission system characterized in that the utterance animation data generated by transmitting the utterance animation data and transmitting the generated utterance animation data to the mobile terminal can be reproduced in the utterance video player or a web browser. .
수어동영상 오버레이기가 설치된 방송시스템에서 접속할 수 있는 인터넷에 연결되어 설치되고,
상기 방송시스템으로부터 자막송출 시간정보를 인가받아서 생성된 수어 애니메이션 데이터를 동기화하기 위한 동기화기와 동기화된 수어 애니메이션을 생성하기 위한 애니메이션 생성기를 더 가지는 제1항의 표준문안 기반 수어번역시스템을 포함하여 구성되고,
상기 방송시스템으로부터 표준문안에 대한 정보가 수신되면, 수신된 상기 표준문안에 대응하고 상기 방송시스템의 방송내용과 동기화된 상기 수어 애니메이션 데이터를 상기 방송시스템으로 전송하여 동기화된 상기 수어 애니메이션 데이터가 방송되는 티브이 화면에 오버레이 되어 재생될 수 있게 하는 것을 특징으로 하는 표준문안 기반 수어번역 전송시스템.
It is installed by being connected to the Internet that can be accessed from the broadcast system where the Seo video overlay is installed.
It comprises a standard sentence-based utterance translation system of claim 1, further comprising a synchronization generator for synchronizing the utterance animation data generated by receiving subtitle transmission time information from the broadcasting system, and an animation generator for generating synchronized utterance animation,
When information about the standard text is received from the broadcast system, the synchronized animation data is broadcasted by transmitting the utterance animation data corresponding to the received standard text and synchronized with the broadcast content of the broadcast system to the broadcast system. Standard text-based word translation transmission system, characterized in that it can be reproduced by being overlaid on the TV screen.
제1항의 표준문안 기반 수어번역시스템을 포함하는 것을 특징으로 하는 재난문자 발송시스템.Disaster character dispatch system, characterized in that it comprises the standard text-based language translation system of claim 1.
KR1020190095391A 2018-11-09 2019-08-06 Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system KR102110445B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180137430 2018-11-09
KR20180137430 2018-11-09

Publications (1)

Publication Number Publication Date
KR102110445B1 true KR102110445B1 (en) 2020-05-13

Family

ID=70729637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190095391A KR102110445B1 (en) 2018-11-09 2019-08-06 Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system

Country Status (1)

Country Link
KR (1) KR102110445B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102167760B1 (en) 2020-07-24 2020-10-19 주식회사 멀틱스 Sign language analysis Algorithm System using Recognition of Sign Language Motion process and motion tracking pre-trained model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186430A (en) * 1999-12-22 2001-07-06 Mitsubishi Electric Corp Digital broadcast receiver
KR100639331B1 (en) * 2004-08-31 2006-10-30 엘지전자 주식회사 mobile communication terminal having a riding information transferring function and controlling method therefore
KR20150102148A (en) * 2014-02-27 2015-09-07 김조웅 Sign language interpreting system of based on web contents and method for sign language interpreting system
KR101899588B1 (en) * 2018-03-05 2018-09-17 주식회사 이큐포올 System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186430A (en) * 1999-12-22 2001-07-06 Mitsubishi Electric Corp Digital broadcast receiver
KR100639331B1 (en) * 2004-08-31 2006-10-30 엘지전자 주식회사 mobile communication terminal having a riding information transferring function and controlling method therefore
KR20150102148A (en) * 2014-02-27 2015-09-07 김조웅 Sign language interpreting system of based on web contents and method for sign language interpreting system
KR101899588B1 (en) * 2018-03-05 2018-09-17 주식회사 이큐포올 System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102167760B1 (en) 2020-07-24 2020-10-19 주식회사 멀틱스 Sign language analysis Algorithm System using Recognition of Sign Language Motion process and motion tracking pre-trained model

Similar Documents

Publication Publication Date Title
US11256882B1 (en) Translation training with cross-lingual multi-media support
JP6675463B2 (en) Bidirectional stochastic rewriting and selection of natural language
US20190272317A1 (en) System and method for detecting undesirable and potentially harmful online behavior
US20040111272A1 (en) Multimodal speech-to-speech language translation and display
KR20140130335A (en) Method and system for translating sign language and descriptive video service
CN103167360A (en) Method for achieving multilingual subtitle translation
Verdu Perez et al. A system to generate signwriting for video tracks enhancing accessibility of deaf people
KR102110445B1 (en) Standard text-based sign language translation system, disaster/emergency broadcasting system, sign language translation transmission method and system, and disaster text message sending system utilizing the translation system
Estremera Linguistic purpose and historical implications of malapropism and code-Switching in the Philippines
Bednarek Keyword analysis and the indexing of Aboriginal and Torres Strait Islander identity: A corpus linguistic analysis of the Australian Indigenous TV drama Redfern Now
Alaa et al. The analysis and quality assessment of translation strategies in subtitling culturally specific references: Feathers
Álvarez et al. Impact of automatic segmentation on the quality, productivity and self-reported post-editing effort of intralingual subtitles
KR102261539B1 (en) System for providing artificial intelligence based korean culture platform service
KR102300589B1 (en) Sign language interpretation system
KR20150104051A (en) Apparatus and method for providing translating chatting service
Nguyen et al. CanVEC-the canberra Vietnamese-English code-switching natural speech corpus
KR102402884B1 (en) System for providing auto translate based global online community service
Pinnis et al. Developing a neural machine translation service for the 2017-2018 european union presidency
KR101675049B1 (en) Global communication system
Tamura et al. Japanese EFL learners’ sentence processing of conceptual plurality: An analysis focusing on reciprocal verbs
Bednarek et al. Functions of dialogue in (television) drama: A case study of Indigenous-authored television narratives
KR101790293B1 (en) Method and apparatus for identification using captcha
Adikusuma et al. Investigating the Subtitle Errors Available on LayarKaca 21 Based on FAR Model
Pradeep et al. Smart IoT Assistant for Government Schemes and Policies Using Natural Language Processing
Akita et al. Automatic classification of usability of ASR result for real-time captioning of lectures

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant