KR102258991B1 - Sign-language service providing system - Google Patents

Sign-language service providing system Download PDF

Info

Publication number
KR102258991B1
KR102258991B1 KR1020200158967A KR20200158967A KR102258991B1 KR 102258991 B1 KR102258991 B1 KR 102258991B1 KR 1020200158967 A KR1020200158967 A KR 1020200158967A KR 20200158967 A KR20200158967 A KR 20200158967A KR 102258991 B1 KR102258991 B1 KR 102258991B1
Authority
KR
South Korea
Prior art keywords
sign language
broadcast
movie
image
unit
Prior art date
Application number
KR1020200158967A
Other languages
Korean (ko)
Inventor
이복은
Original Assignee
주식회사 에스씨크리에이티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스씨크리에이티브 filed Critical 주식회사 에스씨크리에이티브
Priority to KR1020200158967A priority Critical patent/KR102258991B1/en
Application granted granted Critical
Publication of KR102258991B1 publication Critical patent/KR102258991B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention relates to a sign language service providing system capable of providing sign language services by using augmented reality (AR) and application programs. According to the present invention, the sign language service providing system comprises: a wearable information display device expressing sign language broadcast including at least one of a sign language image using AR and a caption image; an application program module interlocked with the wearable information display device and outputting the sign language broadcast to the wearable information display device in real-time; and a sign language service providing server connected to the application program module, storing sign language broadcast prepared in advance corresponding to a broadcast program and a sign language broadcast schedule in which the previously produced sign language broadcast and the broadcast program are matched, searching for the stored sign language broadcast schedule when a sign language broadcast of a broadcast program is requested from the application program module, providing the corresponding sign language broadcast to the application program module when the sign language broadcast of the broadcast program exists, performing sync linkage between the broadcast program and the sign language broadcast, storing a sign language broadcast prepared in advance corresponding to a movie and a movie viewing schedule in which the sign language broadcast and the movie are matched, and providing the corresponding sign language broadcast by using the stored movie viewing schedule when the sign language broadcast corresponding to a movie is requested from the application program module. The application module is installed in at least one of a user terminal or wearable information display device using a sign language service.

Description

수어 서비스 제공 시스템 {SIGN-LANGUAGE SERVICE PROVIDING SYSTEM}Sign language service provision system {SIGN-LANGUAGE SERVICE PROVIDING SYSTEM}

본 발명은 수어 서비스 제공 시스템에 관한 것으로서, 특히, 증강현실 및 응용 프로그램을 이용하여 수어 서비스를 제공할 수 있는 수어 서비스 제공 시스템에 관한 것이다.The present invention relates to a sign language service providing system, and more particularly, to a sign language service providing system capable of providing a sign language service using augmented reality and an application program.

일반적으로, 수어는 주로 청각 장애인(농아인, 농인)들에 쓰이는 수화의 공용어로, 대한민국에서는, 1993년에 뉴스 프로그램이 처음 수어 방송을 시작하였으며 2019년 스마트 수어 방송의 정식 서비스를 시작하였고, 2020년 9월부터 지상파 방송에서 모든 메인 뉴스 프로그램에 수어 통역을 함께 제공하고 있다.In general, sign language is the official language of sign language mainly used for the hearing impaired (deaf and deaf). In Korea, a news program first started sign language broadcasting in 1993, and the official service of smart sign language broadcasting started in 2019, and in 2020 Sign language interpretation has been provided for all main news programs on terrestrial broadcasting since September.

2019년에 시작한 스마트 수어 방송 서비스는 수어 영상 크기와 폐쇄 자막의 위치를 자율롭게 조정할 수 있으며, 방송망과 인터넷망으로 송출하여 각 가정이나 관송서, 직장, 학교 등의 셋톱박스에 비치된 텔레비전 화면에 동시 표시하는 방식을 제공할 수 있는 서비스이다.The smart sign language broadcasting service, launched in 2019, can autonomously adjust the size of sign language and the position of closed captions, and it is transmitted through the broadcasting network and the Internet network and displayed on the TV screen provided in set-top boxes such as homes, government offices, workplaces, and schools. It is a service that can provide a simultaneous display method.

이러한 스마트 수어 방송 서비스는 기존 제공되었던 수어 방송 서비스가 크기도 작고 우측 하단에 고정되어 있어 방송 영상의 일부를 가릴 뿐만 아니라 수화 통역자의 표정이나 손짓을 보기가 어려워 시청의 불편한 점이 있었는데, 이를 개선하여 그 위치를 자유롭게 조정할 수 있으며, 크기 또한 조절이 가능하고 보고 싶지 않을 경우 끌 수도 있는 등 사용자 맞춤형으로 다양하게 설정할 수 있어 수어 방송의 시청 편의성을 높이고 있다.In this smart sign language broadcasting service, the existing sign language broadcasting service is small in size and fixed in the lower right corner, so it not only covers a part of the broadcasting image but also makes it difficult to see the sign language interpreter's expression or hand gestures. The position can be freely adjusted, the size can also be adjusted, and it can be turned off if you do not want to see it.

스마트 수어 방송 서비스는 방송 영상과 수어 방송 영상을 각각 방송망과 인터넷망으로 송출하되, 가정 내에 비치된 수신기에서 이를 합성하여 TV 화면에 동시에 표시하는 서비스를 말한다.The smart sign language broadcasting service refers to a service in which a broadcasting image and a sign language broadcasting image are transmitted to the broadcasting network and the Internet network, respectively, and the receiver installed in the home synthesizes them and displays them on the TV screen at the same time.

그런데 이러한 스마트 수어 방송 서비스는 현재 지정된 사업자에 의해서 제공되므로 스마트 수어 방송 서비스가 가능한 수신기로 교체하거나 서비스를 제공하지 않는 플랫폼에 가입되어 있다면 플랫폼을 갈아타야 하고, 플랫폼에 가입되어 있지 않은 지상파만을 직접수신하는 청각장애인들의 경우 서비스를 제공하는 플랫폼에 유료로 가입하여야 하므로 상용화하는데 어려움이 있다.However, since such smart sign language broadcasting service is currently provided by a designated operator, it is necessary to replace the receiver with a receiver capable of smart sign language broadcasting service or to change the platform if the user is subscribed to a platform that does not provide the service, and only receives terrestrial waves that are not subscribed to the platform directly. In the case of hearing impaired people, it is difficult to commercialize it because they have to subscribe to a platform that provides services for a fee.

또한, 현재 수어 방송은 뉴스나 시사성 있는 프로그램에 집중되어 제공되고 있는데, 수어 영상으로 인해 화면이 조금 가려지더라도 별다른 문제가 없는 프로그램을 대상으로 하고 있다. 즉, 청각장애인들은 드라마나 오락물 등을 즐길 수 있는 기회가 거의 없다.In addition, currently, sign language broadcasting is mainly provided on news or current programs, but it is aimed at programs that do not have any problems even if the screen is slightly obscured by sign language images. In other words, hearing impaired people rarely have the opportunity to enjoy dramas or entertainment.

따라서, 별도의 플랫폼이나 수신기 등의 기기 교체 없이도 수어 방송을 선택적으로 제공받을 수 있을 뿐 아니라, 청각장애인들의 보편적 방송 접근권을 제한하지 않는 수어 서비스가 요구되고 있다.Accordingly, there is a demand for a sign language service that can selectively receive sign language broadcasting without replacing devices such as a separate platform or receiver, and does not restrict universal broadcasting access rights of the hearing impaired.

특허문헌 1. KR 10-2013-0067639(수화방송 서비스 제공 방법 및 그 시스템)Patent Document 1. KR 10-2013-0067639 (Method for providing sign language broadcasting service and system therefor)

따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 청각장애인이 방송 시청시 별도의 착용형 정보 표출 장치 및 응용 프로그램을 구비하여 수어서비스를 제공받음으로써, 기존 방송 서비스의 별도 가입 및 기기의 변경 없이도 수어서비스를 제공받을 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.Accordingly, the present invention has been devised to solve the above problems, and an object of the present invention is to provide a sign language service by providing a wearable information display device and an application program for a hearing impaired person when watching a broadcast, thereby providing a sign language service. The purpose of the present invention is to provide a sign language service providing system in which sign language services can be provided without a separate subscription to the service or change of devices.

또한, 본 발명의 목적은, 별도의 착용형 정보 표출 장치 및 응용 프로그램을구비하여 수어방송을 TV 화면 상에 증강현실로 중첩하여 구현함으로써 수어방송을 용이하게 인지할 수 있을 뿐만 아니라 수화 통역이 불필요한 시청자들과의 동시 시청시 불편함을 해소할 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.In addition, an object of the present invention is to provide a separate wearable information display device and application program to superimpose sign language broadcasting on a TV screen in augmented reality, so that not only can sign language broadcasting be easily recognized, but also sign language interpretation is unnecessary An object of the present invention is to provide a sign language service providing system that can solve the inconvenience of simultaneous viewing with viewers.

또한, 본 발명의 목적은, 별도의 착용형 정보 표출 장치 및 응용 프로그램을구비하여 미리 제작된 수어방송뿐만 아니라 실시간 수어번역서비스를 제공함으로써 다양한 방송 프로그램의 선택적 수어방송 시청이 가능하고, 영화 관람시에도 수어서비스 제공이 가능하여 청각장애인들의 보편적 방송 접근권을 충족시킬 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.In addition, it is an object of the present invention to provide a real-time sign language translation service as well as pre-produced sign language broadcasting by providing a separate wearable information display device and application program, so that selective sign language broadcasting of various broadcasting programs is possible, and when watching a movie The goal is to provide a sign language service provision system that can provide a sign language service even in the world and can satisfy the universal broadcasting access rights of the hearing impaired.

먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의 일면에 따른 시스템은, 증강현실을 이용한 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 표출하는 착용형 정보 표출 장치; 상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및 상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고, 상기 응용 프로그램 모듈은, 수어서비스를 이용하는 사용자 단말 또는 상기 착용형 정보 표출 장치 중 적어도 하나에 설치되는 것을 특징으로 하는 수어방송 제공 시스템을 제공할 수 있다.First, to summarize the features of the present invention, the system according to one aspect of the present invention for achieving the above object is wearable information expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality. Device; an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and a sign language broadcast, which is connected to the application program module, and includes a pre-produced sign language broadcast corresponding to the broadcast program, and programming information that matches the pre-produced sign language broadcast and the broadcast program, respectively, and stores the application program When a sign language broadcast of a broadcast program is requested from the module, the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized and, respectively, store a sign language broadcast produced in advance corresponding to the movie and a movie viewing schedule matching the sign language broadcasting and the movie, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is stored A sign language service providing server that provides a corresponding sign language broadcasting using a sign language service, wherein the application program module is installed in at least one of a user terminal using a sign language service or the wearable information display device. system can be provided.

상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부; 상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부; 상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부; 상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부; 상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및 전원의 on/off를 제어하는 스위치부;를 적어도 포함하며, 상기 응용 프로그램 모듈은, 상기 착용형 정보 표출 장치에 구비되되, 상기 스위치부의 스위치 on 신호가 입력되면, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부; 상기 방송 시청모드가 실행되면, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널 정보에 매칭되는 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부; 상기 번역모드가 실행되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 및 상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부;를 포함하는 것을 특징으로 할 수 있다.The wearable information display device includes: a spectacle body made of a spectacle structure; a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal; an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof; a communication unit provided in the glasses body unit and performing data transmission/reception; a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and a switch unit for controlling the on/off of power, wherein the application program module is provided in the wearable information display device, and when a switch on signal of the switch unit is input, the pre-made sign language broadcast is reinforced. A service mode for executing at least one of a viewing mode including a broadcast viewing mode and a movie viewing mode and a service mode including a translation mode for generating and providing real-time sign language broadcasting when there is no pre-produced sign language broadcasting control unit; When the broadcast viewing mode is executed, the current broadcast channel is recognized by analyzing the motion of the currently watched broadcast screen from the video signal captured through the image acquisition unit, and a pre-made sign language broadcast matching the recognized current broadcast channel information is performed. A sign language broadcast requested by the sign language service providing server is controlled to be displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is retrieved. and, when the movie selection information is not input, screen tracking through the image acquisition unit is performed to recognize a currently playing movie, and a sign language broadcast matching the recognized currently playing movie is searched for in augmented reality on the display unit. a viewing mode execution unit that controls to be displayed; When the translation mode is executed, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; and a sign language broadcasting setting unit for adjusting at least one of a position, a size, and a transparency of a sign language broadcast displayed on the display unit.

상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부; 상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부; 상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부; 상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부; 상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및 전원의 on/off를 제어하는 스위치부;를 적어도 포함하며, 상기 응용 프로그램 모듈은, 사용자 단말에 구비되되, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부; 상기 방송 시청모드가 실행되면, 상기 사용자 단말의 사용자 인터페이스 화면을 통해 수어서비스가 가능한 방송 채널이 선택되면, 선택된 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 방송 채널의 선택이 없는 경우, 상기 영상획득부를 통해 촬영된 영상 신호로부터현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보의 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부; 상기 번역모드가 선택되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부; 및 수어방송의 송수신을 수행하는 통신부;를 포함하는 것을 특징으로 할 수 있다.The wearable information display device includes: a spectacle body made of a spectacle structure; a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal; an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof; a communication unit provided in the glasses body unit and performing data transmission/reception; a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and a switch unit for controlling on/off of the power source; at least, the application program module is provided in the user terminal, and provides a pre-made sign language broadcast in augmented reality, including a broadcast viewing mode and a movie viewing mode a service mode control unit executing at least one of a viewing mode and a service mode including a translation mode for generating and providing real-time sign language broadcasting when there is no pre-produced sign language broadcasting; When the broadcast viewing mode is executed, when a broadcast channel capable of sign language service is selected through the user interface screen of the user terminal, a pre-produced sign language broadcast of the selected broadcast channel is requested to the sign language service providing server, and the broadcast channel is selected In the absence of this, the current broadcasting channel is recognized by analyzing the movement of the currently viewed broadcasting screen from the image signal captured by the image acquisition unit, and a pre-fabricated sign language broadcast of the recognized current broadcasting channel is requested to the sign language service providing server. and control so that the received sign language broadcast is displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is searched, and the movie selection information When is not input, screen tracking is performed through the image acquisition unit to recognize a currently playing movie, and a sign language broadcast matching the recognized currently screened movie is searched for and controlled to be displayed in augmented reality on the display unit. executive department; When the translation mode is selected, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; a sign language broadcast setting unit for adjusting at least one of a position, size, and transparency of a sign language broadcast displayed on the display unit; and a communication unit for transmitting and receiving sign language broadcasting.

본 발명에 따른 시스템에 따르면, 별도의 구현장치 및 응용 프로그램 모듈을 통해 청각장애인에게만 수어서비스를 제공함으로써 수화통역이 필요하지 않는 일반 시청자들과 동시 시청시에도 일반 시청자들에게 전혀 시청의 불편을 주지 않고, 시청의 집중도를 높일 수 있다. According to the system according to the present invention, by providing a sign language service only to the hearing impaired through a separate implementation device and an application program module, even when viewing simultaneously with general viewers who do not need sign language interpretation, it does not cause inconvenience to general viewers at all, It can increase the concentration of the audience.

또한, 본 발명에 따른 시스템에 따르면, 별도의 구현장치 및 응용 프로그램 모듈을 통해 수어영상을 제공받거나 실시간 수화 번역을 통한 수어영상을 생성하여 제공함으로써 다양한 방송 프로그램에 대한 청각장애인들의 보편적 방송 접근권을 보장할 수 있을 뿐만 아니라, 수어로 제작된 수어 영화뿐만 아니라 일반 영화 관람이 가능하고 청각 장애인을 위한 영상 콘텐츠를 확대시키는 동시에 나아가 다양한 분야에서 문화 공유를 위한 매개체로 활용할 수 있는 효과가 있다.In addition, according to the system according to the present invention, a sign language image is provided through a separate implementation device and an application program module, or a sign language image is generated and provided through real-time sign language translation, thereby guaranteeing universal broadcasting access for the hearing impaired to various broadcasting programs. In addition to being able to do this, it is possible to watch not only sign language movies but also general movies, expand video content for the hearing impaired, and furthermore, it has the effect of being used as a medium for cultural sharing in various fields.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는 첨부 도면은, 본 발명에 대한 실시 예를 제공하고 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.
도 2는, 도 1에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.
도 3은, 본 발명의 다른 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.
도 4는, 도 3에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.
도 5는, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템을 활용한 수어서비스의 사용 예를 나타낸 도면이다.
The accompanying drawings, which are included as part of the detailed description to help the understanding of the present invention, provide embodiments for the present invention and explain the technical spirit of the present invention together with the detailed description.
1 is a diagram showing the overall configuration of a sign language service providing system according to an embodiment of the present invention.
FIG. 2 is a diagram showing a schematic configuration of the application program module shown in FIG. 1 .
3 is a diagram showing the overall configuration of a sign language service providing system according to another embodiment of the present invention.
FIG. 4 is a diagram showing a schematic configuration of the application program module shown in FIG. 3 .
5 is a diagram illustrating an example of use of a sign language service utilizing a sign language service providing system according to an embodiment of the present invention.

이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분을 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다. 또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In this case, the same components in each drawing are indicated by the same reference numerals as possible. In addition, detailed descriptions of already known functions and/or configurations will be omitted. In the following, a portion necessary for understanding an operation according to various embodiments will be mainly described, and descriptions of elements that may obscure the subject matter of the description will be omitted. In addition, some elements of the drawings may be exaggerated, omitted, or schematically illustrated. The size of each component does not entirely reflect the actual size, and therefore, the contents described herein are not limited by the relative size or spacing of the components drawn in each drawing.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시 예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다. In describing the embodiments of the present invention, when it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification. The terms used in the detailed description are only for describing the embodiments of the present invention, and should not be limiting. Unless explicitly used otherwise, expressions in the singular form include the meaning of the plural form. In the present description, expressions such as "comprising" or "feature" are intended to refer to certain features, numbers, steps, actions, elements, some or combination thereof, and one or more It should not be construed to exclude the presence or possibility of other features, numbers, steps, actions, elements, any part or combination thereof.

또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In addition, terms such as first and second may be used to describe various components, but the components are not limited by the terms, and the terms are used to distinguish one component from other components. Is only used.

이하, 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.1 is a diagram showing the overall configuration of a sign language service providing system according to an embodiment of the present invention.

도 2는, 도 1에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.FIG. 2 is a diagram showing a schematic configuration of the application program module shown in FIG. 1 .

먼저, 도 1을 참조하면, 본 발명의 수어 서비스 제공 시스템은, 수어서비스 제공을 실행하기 위한 응용 프로그램 모듈(200)을 구비하되, 수어영상 및 자막영상 중 적어도 하나의 영상을 포함하는 수어방송을 증강현실로 디스플레이부에 표출하는 착용형 정보 표출 장치(100)와, 미리 제작된 수어방송을 제공하는 수어 서비스 제공 서버(300)를 포함한다.First, referring to FIG. 1, the sign language service providing system of the present invention includes an application program module 200 for executing sign language service provision, and performs sign language broadcasting including at least one image of a sign language image and a caption image. It includes a wearable information display device 100 that is displayed on the display unit in augmented reality, and a sign language service providing server 300 that provides a pre-made sign language broadcast.

착용형 정보 표출 장치(100)는, 웨어러블 스마트 디바이스로, 헤드업 디스플레이 형태로 구현될 수 있다. 예를 들면, 착용형 정보 표출 장치(100)는, 헤드셋 형태의 스마트 안경의 구조를 가지며 눈 앞에 위치한 판넬(렌즈)에 증강현실을 구현할 수 있도록 구현될 수 있다. The wearable information display apparatus 100 is a wearable smart device, and may be implemented in the form of a head-up display. For example, the wearable information display device 100 may have a structure of smart glasses in the form of a headset and may be implemented to implement augmented reality on a panel (lens) located in front of the eyes.

일례로, 착용형 정보 표출 장치(100)는 기본적인 안경의 구조를 갖는 안경 바디부를 구현될 수 있는데, 안경 바디부는, 프론트(안경 전면부), 앤드피스(프론트의 끝, 다리부분인 템플과 이어지는 부위), 림, 브릿지, 코패드, 팁(귀에 닿는 부위), 템플(안경 다리부분 전체), 힌지(프론트와 템플을 이어주는 부위)로 구성될 수 있다. As an example, the wearable information display apparatus 100 may implement a glasses body having a basic structure of glasses, and the glasses body includes a front (front of glasses), an end piece (end of the front, and a temple that is a leg portion). part), rim, bridge, nose pad, tip (the part that touches the ear), temple (the entire leg of glasses), and hinge (the part that connects the front and temple).

즉, 사용자가 착용형 정보 표출 장치(100)를 착용하고 TV 방송을 시청할 경우, 프론트의 렌즈에 해당하는 디스플레이부(130)에 수어방송이 표출되므로 TV 방송 화면에 별도의 수어방송이 제공될 필요가 없다. That is, when the user wears the wearable information display device 100 and watches TV broadcast, the sign language broadcast is displayed on the display unit 130 corresponding to the front lens, so a separate sign language broadcast needs to be provided on the TV broadcast screen. there is no

이러한 착용형 정보 표출 장치(100)와 수어서비스 제공 서버(300)는, 네트워크(유선 인터넷 통신이나 WiFi, WiBro 등 무선 인터넷 통신, WCDMA, LTE 등 이동통신 등 유무선 네트워크)를 이용한 인터넷망을 통해 연결되도록 구현될 수 있다. The wearable information display device 100 and the sign service providing server 300 are connected through an Internet network using a network (wired Internet communication, wireless Internet communication such as WiFi, WiBro, wired and wireless networks such as mobile communication such as WCDMA, LTE) It can be implemented as much as possible.

그리고, 응용 프로그램 모듈(200)은, 수어서비스 제공 서버(300)와 연결되어 미리 제작된 수어방송을 제공받거나, 실시간 수어번역을 실행하여 자체적으로 수어방송을 생성할 수 있다. 수어방송은 수어영상 및 자막영상 중 적어도 하나의 영상을 포함하도록 생성되되, 수어영상만 포함하거나 자막영상만 포함하거나, 수어영상 및 자막영상 모두 포함될 수 있다.In addition, the application program module 200 may be connected to the sign language service providing server 300 to receive a pre-made sign language broadcast, or may generate a sign language broadcast by itself by executing real-time sign language translation. The sign language broadcast is generated to include at least one image of a sign language image and a caption image, and may include only a sign language image, only a subtitle image, or both a sign language image and a subtitle image.

구체적으로, 도 2를 참조하면, 착용형 정보 표출 장치(100)는, 응용 프로그램 모듈(200)을 구비하며, 안경의 구조를 갖는 안경 바디부에 음성획득부(110), 영상획득부(120), 디스플레이부(130) 및 통신부(140)를 적어도 포함하도록 구현될 수 있다. Specifically, referring to FIG. 2 , the wearable information display device 100 includes an application program module 200 , and a voice acquisition unit 110 and an image acquisition unit 120 in the glasses body having a structure of glasses. ), the display unit 130 and the communication unit 140 may be implemented to include at least.

음성획득부(110)는, TV 방송 또는 영화와 같은 영상물로부터 아날로그 음성신호를 수집하여 디지털 음성신호로 변환하는 장치로, 마이크를 사용할 수 있으나, 이에 한정되는 것은 아니며, 예를 들어, 입력되는 음성의 감도를 향상시키는 지향성 마이크로폰을 사용하는 것이 바람직할 수 있다. The audio acquisition unit 110 is a device that collects analog audio signals from video objects such as TV broadcasts or movies and converts them into digital audio signals, and may use a microphone, but is not limited thereto. For example, input audio It may be desirable to use a directional microphone that improves the sensitivity of

이러한 음성획득부(110)는, 안경 바디부의 프론트에 형성되어 특정 방향에서 들려오는 소리만 선택적으로 입력받을 수 있도록 구현될 수 있으며, 교체가 용이하도록 탈부착이 가능한 기기로 사용할 수 있다. The voice acquisition unit 110 is formed at the front of the eyeglass body portion and can be implemented to selectively receive only a sound coming from a specific direction, and can be used as a detachable device for easy replacement.

즉, 음성획득부(110)는, TV 방송 영상 또는 영화 영상의 음성을 입력받아 음성신호로 변환을 수행한다. 변환된 음성신호는 실시간 번역모드 실행시 수어영상 및 자막영상의 생성에 이용된다.That is, the audio acquisition unit 110 receives the audio of a TV broadcast image or a movie image and converts it into an audio signal. The converted audio signal is used to generate a sign language image and a caption image when the real-time translation mode is executed.

영상획득부(120)는, 전면을 촬영하여 시청중인 방송 및 영화의 영상을 촬영하여 영상을 획득하는 장치로, 스마트 폰과 같은 전자기기에 일반적으로 사용되는 카메라모듈을 사용할 수 있으나, 이에 한정되는 것은 아니며, 다른 성능의 카메라로 교체할 수 있도록 탈부착이 가능하도록 구현될 수 있다. The image acquisition unit 120 is a device that acquires an image by photographing a front view and capturing an image of a broadcast or a movie that is being viewed, and a camera module commonly used in electronic devices such as a smart phone may be used, but the present invention is limited thereto. It is not, and may be implemented to be detachable so that it can be replaced with a camera of another performance.

이러한 영상획득부(120)는, 전면을 촬영 가능하도록 착용형 정보 표출 장치(100)에 설치되며, TV 방송 영상을 촬영하여 영상신호를 획득하고, 획득된 영상신호를 응용 프로그램 모듈(200)로 출력하여 응용 프로그램 모듈(200)에서 현재 시청중인 방송을 인식하는데 사용되도록 한다.The image acquisition unit 120 is installed in the wearable information display device 100 so as to be able to photograph the front, acquires an image signal by shooting a TV broadcast image, and transfers the acquired image signal to the application program module 200 . output so that the application program module 200 is used to recognize the currently watched broadcast.

디스플레이부(130)는, 자막영상 및 수어영상 중 적어도 하나를 포함하는 수어방송을 출력하는 렌즈, 광학모듈 등으로 구현될 수 있으며, 수어방송이 증강현실로 표출된다. The display unit 130 may be implemented as a lens or an optical module for outputting sign language broadcasting including at least one of a caption image and a sign language image, and the sign language broadcasting is expressed in augmented reality.

표출되는 수어방송은 시청중인 방송과 실시간 연동된 수어이미지들 또는 수어이미지들이 연결된 동영상이 출력되며, 수어이미지들이 표출되는 경우, 수어이미지들은 계속적으로 출력되어 연결되므로 자연스런 수어동작을 수행하는 동영상처럼 표시될 수 있다. 또한, 방송의 음성신호를 자동적으로 인식하여 번역할 경우도, 표출되는 수어방송은 음성신호에 해당하는 수어이미지가 연속적으로 연결된 동영상으로 표시될 수 있다. The displayed sign language broadcast outputs sign language images linked in real time with the broadcast being watched or a video in which sign language images are connected. When sign language images are displayed, the sign language images are continuously output and connected, so it is displayed like a video performing natural sign language motions. can be In addition, even when the audio signal of the broadcast is automatically recognized and translated, the displayed sign language broadcast may be displayed as a moving picture in which sign language images corresponding to the audio signal are continuously connected.

통신부(140)는, 데이터 송수신이 가능하도록 인터넷 연결을 수행하고, 다른 스마트 기기와 정보를 상호 송수신할 수 있도록 한다. 이러한 통신부(140)는, 와이파이, 블루투스, NFC 등의 다양한 공지기술을 포함한 통신 기술을 이용할 수 있다.The communication unit 140 performs an Internet connection to enable data transmission and reception, and enables mutual transmission and reception of information with other smart devices. The communication unit 140 may use communication technologies including various known technologies such as Wi-Fi, Bluetooth, and NFC.

그리고, 착용형 정보 표출 장치(100)는, 도면에 도시하지는 않았지만, 응용 프로그램 모듈(200)을 실행하기 위한 프로그램을 저장하는 저장부, 각 부에 전원을 공급하는 전원부, 전원의 ON/OFF를 제어하는 스위치부, 착용형 정보 표출 장치(100)의 착탈 여부를 감지하는 착탈감지부, 수어방송의 위치, 크기 및 투명도를 설정하는 수어방송 설정부, 수어방송 설정부의 조작을 수행하는 조작부, 전원부의 충전 및 내려받기를 위한 입력포트를 더 포함하여 구성될 수 있다. And, the wearable information display device 100, although not shown in the drawing, a storage unit for storing a program for executing the application program module 200, a power supply unit for supplying power to each unit, and ON/OFF of the power A switch unit to control, a detachment detection unit for detecting whether the wearable information display device 100 is attached or detached, a sign language broadcasting setting unit for setting the position, size and transparency of the sign language broadcasting, an operation unit for performing operations of the sign language broadcasting setting unit, a power supply unit It may be configured to further include an input port for charging and downloading.

저장부(미도시)는 응용 프로그램 모듈을 내려받기를 통해 저장할 수 있도록 내장 메모리로 구현될 수 있으며, 전원부(미도시)는 충전식 배터리일 수 있으며, 스위치부 및 조작부(미도시)는 압력식 버튼으로 구현될 수 있다. The storage unit (not shown) may be implemented as a built-in memory to store the application program module through downloading, the power supply unit (not shown) may be a rechargeable battery, and the switch unit and the operation unit (not shown) are pressure-type buttons can be implemented as

착탈감지부(미도시)는, 착용형 정보 표출 장치(100)의 착용 및 이탈을 감지하되, 스위치부의 전원 ON 작동이 없이 착용형 정보 표출 장치(100)가 착용될 경우 이를 감지하고, 일정시간 동안 착용이 유지되면 자동으로 전원 ON이 되도록 스위치부의 작동을 제어할 수 있다. 반대로, 착탈감지부(미도시)는, 스위치부의 전원 OFF작동이 없이 착용형 정보 표출 장치(100)가 이탈될 경우 이를 감지하고, 일정시간 동안 이탈이 유지되거나 재착용이 감지되지 않으면 자동으로 전원 OFF가 되도록 스위치부의 작동을 제어할 수 있다. The detachable detection unit (not shown) detects the wearing and detachment of the wearable information display device 100, but detects this when the wearable information display device 100 is worn without the power ON operation of the switch unit, and for a predetermined time It is possible to control the operation of the switch unit so that the power is automatically turned on when the wear is maintained for a while. Conversely, the detachment detection unit (not shown) detects when the wearable information display device 100 is detached without the power OFF operation of the switch unit, and automatically powers on if the detachment is maintained for a certain period of time or re-wear is not detected. The operation of the switch unit can be controlled to be OFF.

한편, 응용 프로그램 모듈(200)은, 착용형 정보 표출 장치(100)와 연동되어 미리 제작된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출시키거나, 실시간 번역을 통해 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 제어한다. On the other hand, the application program module 200 is interlocked with the wearable information display device 100 to display a pre-made sign language broadcast on the display unit 130 of the wearable information display device 100, or through real-time translation. The generated sign language broadcast is controlled to be displayed on the display unit 130 of the wearable information display device 100 .

이를 위해, 응용 프로그램 모듈(200)은, 서비스모드 제어부(210), 시청모드 실행부(220) 및 번역모드 실행부(230)를 포함할 수 있다.To this end, the application program module 200 may include a service mode control unit 210 , a viewing mode execution unit 220 , and a translation mode execution unit 230 .

서비스모드 제어부(210)는, 스위치부의 스위치 on 신호가 입력되면, 시청모드와 번역모드 중 적어도 하나를 실행하도록 제어하되, 시청모드를 먼저 실행한 후, 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 실행하도록 서비스모드를 제어할 수 있다. 여기서, 시청모드는 방송시청시 수어서비스를 제공하는 방송시청모드와 영화관람시 수어서비스를 제공하는 영화시청모드를 포함할 수 있다. The service mode control unit 210 controls to execute at least one of the viewing mode and the translation mode when a switch on signal of the switch unit is input, but after executing the viewing mode first, if there is no pre-produced sign language broadcast, real-time sign language The service mode can be controlled to execute a translation mode that generates and provides a broadcast. Here, the viewing mode may include a broadcast viewing mode providing a sign language service when watching a broadcast and a movie viewing mode providing a sign language service when watching a movie.

이러한 서비스모드 제어부(210)는, 착용형 정보 표출 장치의 조작부(미도시)를 사용자가 조작하는 것에 의해 서비스모드가 선택되거나 시청모드가 먼저 실행되어 미리 제작된 수어방송의 검색이 이루어지고, 미리 제작된 수어방송이 없을 경우 번역모드가 실행되도록 각 실행부를 제어할 수 있다. This service mode control unit 210, by the user operating the operation unit (not shown) of the wearable information display device, the service mode is selected or the viewing mode is executed first, a search for a pre-made sign language broadcast is made, When there is no sign language broadcast produced, each execution unit can be controlled to execute the translation mode.

먼저, 시청모드 실행부(220)는, 방송 시청모드가 실행되면, 영상획득부(120)를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널에 매칭되는 미리 제작된 수어방송을 수어서비스 제공 서버(300)로 요청한다.First, the viewing mode execution unit 220, when the broadcast viewing mode is executed, analyzes the movement of the currently viewed broadcasting screen from the image signal captured through the image acquisition unit 120 to recognize the current broadcasting channel, A pre-produced sign language broadcast matching the current broadcast channel is requested from the sign language service providing server 300 .

그러면, 수어서비스 제공 서버(300)는, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 방송 프로그램과 미리 제작된 수어방송을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고 있으며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 일치하는 방송 채널이 있으면, 일치하는 방송 채널과 매칭된 수어방송을 검색하고, 검색된 수어방송을 방송 채널과 싱크시켜 제공한다.Then, the sign language service providing server 300 stores a sign language broadcast schedule prepared in advance corresponding to the broadcast program, and a sign language broadcast schedule including programming information matching the broadcast program and the pre-produced sign language broadcast, respectively. If there is a matching broadcast channel by inquiring the broadcast channel requested from the mode executor 220 in the sign language broadcast schedule, the matching broadcast channel and the matching sign language broadcast are searched, and the searched sign language broadcast is synchronized with the broadcast channel and provided.

또한, 시청모드 실행부(220)는, 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 영화에 대응하는 수어영상을 검색하고, 영화 선택 정보가 입력되지 않을 경우, 영상획득부(120)를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 수어서비스 제공 서버(300)로 요청한다.In addition, the viewing mode execution unit 220, when the movie viewing mode is executed, when movie selection information is input, searches for a sign language image corresponding to the movie, and when the movie selection information is not input, the image acquisition unit 120 ) to recognize a currently playing movie by performing screen tracking, and request a sign language broadcast matching the recognized currently screened movie to the sign language service providing server 300 .

그러면, 수어서비스 제공 서버(300)는, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 편성 정보를 포함하는 영화관람 편성표를 각각 저장하고, 응용 프로그램 모듈의 시청모드 실행부(220)로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 조회하여 해당하는 수어방송을 찾아 제공할 수 있다. 이때, 수어서비스 제공 서버(300)는, 사전에 분석된 영화 시작 지점과, 영상획득부를 이용한 영화 화면 트레킹을 수행하여 자동으로 인식된 영화 시작 지점을 일치시킴으로써 수어방송과 영화 화면의 싱크를 맞출 수 있다.Then, the sign language service providing server 300 stores, respectively, a sign language broadcast prepared in advance corresponding to the movie, and a movie viewing schedule including the program information matching the sign language broadcast and the movie, and the viewing mode of the application program module. When a sign language broadcast corresponding to a movie is requested from the execution unit 220 , the stored movie viewing schedule may be inquired to find and provide the corresponding sign language broadcast. At this time, the sign language service providing server 300 may synchronize the sign language broadcasting and the movie screen by matching the movie start point analyzed in advance and the movie screen tracking using the image acquisition unit to match the automatically recognized movie start point. have.

그런 다음, 시청모드 실행부(220)는, 요청된 방송 채널과 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. 즉, 수어방송은, 착용형 정보 표출 장치(100)에 구비된 디스플레이부(130)의 설정된 영역에 증강현실로 표출된다.Then, when the sign language broadcast synchronized with the requested broadcast channel is transmitted from the sign language service providing server 300 , the viewing mode execution unit 220 may stream the provided sign language broadcast to the display unit 130 in augmented reality. . That is, the sign language broadcast is expressed in augmented reality on the set area of the display unit 130 provided in the wearable information display device 100 .

또한, 시청모드 실행부(220)는, 요청된 영화와 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. In addition, when the sign language broadcast synchronized with the requested movie is transmitted from the sign language service providing server 300 , the viewing mode execution unit 220 may stream the provided sign language broadcast to the display unit 130 in augmented reality.

한편, 서비스모드 제어부(210)는, 수어서비스 제공 서버(300)에서 현재 방송에 대한 수어방송의 검색에 실패한 경우, 번역모드 서비스로 전환을 수행할 수 있다. 즉, 서비스모드 제어부(210)는, 현재 시청중인 방송에 대한 사전 제작된 수어방송이 검색되지 않을 경우, 번역모드 실행부(230)로 실시간 수어 번역 서비스를 요청할 수 있다.Meanwhile, the service mode control unit 210 may switch to the translation mode service when the sign language service providing server 300 fails to search for a sign language broadcast for the current broadcast. That is, the service mode control unit 210 may request a real-time sign language translation service from the translation mode execution unit 230 when a pre-produced sign language broadcast for the currently viewed broadcast is not searched.

번역모드 실행부(230)는, 음성획득부(110)를 통해 획득된 음성신호로부터 음성을 인식하는 음성인식부(231)와, 인식된 음성과 매칭되는 수어를 검색하는 음성-수어 매칭부(232)와, 인식된 음성과 매칭되는 수어들을 연결하여 수어영상을 생성하는 수어영상 생성부(234)와, 인식된 음성과 매칭되는 단어를 검색하는 음성-단어 전환부(235)와, 인식된 음성에 해당하는 단어들을 연결하여 자막영상을 생성하는 자막영상 생성부(236)와, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하는 수어방송 생성부(237)와, 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 증강현실로 스트리밍하는 수어방송 재생부(238)를 포함한다.The translation mode execution unit 230 includes a voice recognition unit 231 for recognizing a voice from a voice signal obtained through the voice acquisition unit 110, and a voice-sign language matching unit for searching for a sign language matching the recognized voice ( 232), a sign language image generating unit 234 for generating a sign language image by connecting sign words matching the recognized voice, a voice-word converting unit 235 for searching for a word matching the recognized voice, and A caption image generator 236 for generating a caption image by connecting words corresponding to audio, a sign language broadcast generator 237 for generating a sign language broadcast including at least one of the generated sign language image and the caption image; It includes a sign language broadcast playback unit 238 for streaming the sign language broadcast to the display unit 130 of the wearable information display device 100 in augmented reality.

여기서, 수어는 3차원 수어이미지이거나 다수의 3차원 수어이미지가 연결된 동영상일 수 있다. 수어영상은, 인식된 음성과 매칭된 수어가 순차적으로 연결된 동영상이며, 자막영상은, 인식된 음성과 매칭되는 단어를 텍스트 형식으로 연결하여 생성한 동영상일 수 있다. Here, the sign language may be a three-dimensional sign language image or a moving image in which a plurality of three-dimensional sign language images are connected. The sign language image may be a moving image in which the recognized voice and the matching sign language are sequentially connected, and the subtitle image may be a moving image generated by connecting the recognized voice and matching words in a text format.

음성인식부(231)는, 음성획득부(110)로부터 음성신호를 입력받고, 입력된 음성신호로부터 음성을 인식한 후 이를 음성-수어 매칭부(232)로 전달한다.The voice recognition unit 231 receives a voice signal from the voice acquisition unit 110 , recognizes a voice from the input voice signal, and transmits it to the voice-sign language matching unit 232 .

음성-수어 매칭부(232)는, 데이터베이스화된 음성-수어 매칭 DB(233)를 구비하며, 인식된 음성을 음성-수어 매칭 DB(233)에 저장된 음성과 순차적으로 비교하고, 인식된 음성과 동일한 음성이 있으면, 동일한 음성에 해당하는 수어를 호출하고, 호출된 수어를 수어영상 생성부(234)로 전달한다. The voice-sign language matching unit 232 includes a databased voice-sign language matching DB 233, sequentially compares the recognized voice with the voice stored in the voice-sign language matching DB 233, and compares the recognized voice with the recognized voice. If there is the same voice, a sign language corresponding to the same voice is called, and the called sign language is transmitted to the sign language image generating unit 234 .

음성-수어 매칭 DB(233)는, 복수의 음성 각각에 대응되는 수어를 복수의 음성과 매칭시켜 저장하고 있으며, 매칭된 수어는 수어의 정확한 표현을 위한 3차원 이미지이거나 다수의 3차원 이미지가 연결된 동영상일 수 있다. 여기서, 3차원 이미지는 인간친화적인 3차원 아바타로 인간과 유사한 형상으로 생성되어 자연스러운 움직임을 제공하며, 손뿐만 아니라 입모양, 표정, 머리와 몸의 방향 등 비수지 언어를 표현하도록 해당 수어와 연동하여 동작하도록 구현될 수 있다. 이처럼 3차원 아바타가 수어를 표현하도록 증강현실을 구현함으로써 청각 장애인의 높은 방송 이해를 도모할 수 있다. The voice-sign language matching DB 233 stores sign language corresponding to each of a plurality of voices by matching them with a plurality of voices, and the matched sign language is a three-dimensional image for accurate expression of sign language or a plurality of three-dimensional images are connected It could be a video. Here, the three-dimensional image is a human-friendly three-dimensional avatar that is created in a human-like shape to provide natural movement, and is linked with the sign language to express non-resin language such as hand as well as mouth shape, expression, head and body orientation can be implemented to operate. As such, by implementing augmented reality so that the three-dimensional avatar expresses sign language, it is possible to promote a higher understanding of broadcasting for the hearing impaired.

수어영상 생성부(234)는, 호출된 수어들을 연결하여 수어영상을 생성하고, 생성된 수어영상을 수어방송 생성부(237)로 전달한다.The sign language generating unit 234 generates a sign language image by connecting the called sign language, and transmits the generated sign language image to the sign language broadcasting generating unit 237 .

이때, 수어영상 생성부(234)는, 음성인식된 단어와 호출된 수어와 함께 사람의 감정을 추론하기 위한 부가정보를 상황적으로 결합시켜 수어영상을 생성한다. 이로써 상황에 맞춰 자연스런 표현이 가능한 수어영상을 생성할 수 있다.In this case, the sign language image generating unit 234 generates a sign language image by contextually combining the voice recognized word and the called sign language with additional information for inferring a person's emotion. In this way, it is possible to create a sign language image that can be expressed naturally according to the situation.

예를 들어, 부가정보는, 음성 언어 사용자의 감정을 추론하기 위한 음성의 속도, 어조, 크기, 음색 등의 비언어 정보를 포함할 수 있다.For example, the additional information may include non-verbal information such as speed, tone, size, and tone of the voice for inferring the emotion of the voice language user.

그래서, 수어영상 생성부(234)는, 착용형 정보 표출 장치(100)의 영상획득부로부터 획득된 영상신호로부터 부가정보를 획득하고 분석하기 위하여, 음성 스케일링 변조, 얼굴 인식, 동작을 인식하는 모션 인식 등을 수행할 수 있다. 추출한 정보에 기초하여 음성 언어 사용자의 감정이 어떤 종류의 감정인지 분류하여 라벨링하고 그 크기를 수치화하여 부가정보를 생성할 수 있다.Therefore, the sign language image generating unit 234, in order to obtain and analyze additional information from the image signal obtained from the image acquisition unit of the wearable information expression device 100, voice scaling modulation, face recognition, motion recognizing motion recognition, etc. Based on the extracted information, it is possible to classify and label what kind of emotion the voice language user has, and to digitize the size to generate additional information.

즉, 수어영상 생성부(234)는, 사람 형상의 2D 또는 3D 모델이 연속적으로 수행하는 수어동작에 부가정보를 반영하여 수어영상을 생성할 수 있다. That is, the sign language image generating unit 234 may generate a sign language image by reflecting additional information in sign language operations continuously performed by the 2D or 3D model of the human shape.

따라서 화면 속 배우가 음성의 속도, 어조, 크기, 음색, 표정, 몸동작 등으로 나타낸 감정의 종류 및 크기가 청각장애인이 시각적으로 인식할 수 있는 표정, 손의 이동속도, 시선으로 수어영상에 반영되므로, 청각장애인이 화면 속 배우의 감정의 종류 및 크기를 인식할 수 있다.Therefore, the type and size of emotions expressed by the actors in the screen, such as the speed, tone, size, tone, facial expression, and body movement, are reflected in the sign language image through the facial expression, hand movement speed, and gaze that the hearing impaired can visually recognize. , the hearing impaired can recognize the type and size of the actor's emotions on the screen.

음성-단어 전환부(235)는, 인식된 음성을 그에 상응하는 단어로 전환하는 기능을 수행할 수 있으며, 전환된 단어를 자막영상 생성부(236)로 전달한다. 이때, 음성-단어 전환부(235)는, 미리 정의된 수화 사전을 이용하여 인식된 음성을 문자로 변환하되, 음성-문자 변환 프로그램을 이용하여 음성을 문자로 변환하는 동작을 수행할 수 있다. 이와 같이 음성에 대응하는 단어를 판단하는 방법은 기공지된 다양한 방식이 이용될 수 있다. 그리고, 인식된 음성의 언어는 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등 다양한 나라의 언어를 포함할 수 있으며, 전환할 단어의 언어도 마찬가지로 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등 다양한 나라의 언어 중 하나를 선택하여 설정하도록 구현될 수 있다. 이로써, 국문은 물론 다양한 외국어 자막서비스를 제공할 수 있어 외국인의 국내 방송 및 영화 시청시에도 활용 가능할 수 있다.The voice-word conversion unit 235 may perform a function of converting the recognized voice into a word corresponding thereto, and transmits the converted word to the caption image generating unit 236 . In this case, the voice-word conversion unit 235 may convert the recognized voice into text using a predefined sign language dictionary, and convert the voice into text using a voice-to-text conversion program. As a method of determining a word corresponding to a voice as described above, various well-known methods may be used. In addition, the language of the recognized voice may include languages of various countries such as Korean, English, Japanese, Chinese, German, and French, and the language of the word to be converted is similarly used in various languages such as Korean, English, Japanese, Chinese, German, French, etc. It may be implemented to select and set one of the languages of the country. Accordingly, it is possible to provide subtitle services in various foreign languages as well as Korean, so that it can be used for foreigners watching domestic broadcasts and movies.

자막영상 생성부(236)는, 전달된 단어들을 연결하여 자막영상을 생성하고, 생성한 자막영상을 수어방송 생성부(237)로 전달한다. 여기서, 자막영상은, 국문뿐만 아니라 외국어 중 하나일 수 있다.The caption image generating unit 236 generates a caption image by connecting the transferred words, and transmits the generated caption image to the sign language broadcasting generation unit 237 . Here, the subtitle image may be in one of foreign languages as well as Korean.

수어방송 생성부(237)는, 전달된 수어영상과 자막영상 중 적어도 하나를 포함하는 수어방송을 생성한다. 즉, 수어방송은 수어영상만으로 생성되거나 자막영상만으로 생성하거나, 수어영상과 자막영상을 모두 포함하도록 생성될 수 있다.The sign language broadcast generating unit 237 generates a sign language broadcast including at least one of the transmitted sign language image and the caption image. That is, a sign language broadcast may be generated only with a sign language image, with only a subtitle image, or may be generated to include both a sign language image and a subtitle image.

또한, 수어방송 생성부(237)는, 생성된 수어방송을 상영중인 방송에 싱크시켜 TV 방송과 수엉방송이 동기화될 수 있도록 한다.In addition, the sign language broadcast generation unit 237 synchronizes the generated sign language broadcast to the currently playing broadcast so that the TV broadcast and the sign broadcast can be synchronized.

수어방송 재생부(238)는, 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 증강현실로 표출시킨다. The sign language broadcast reproducing unit 238 displays the generated sign language broadcast in augmented reality on the display unit 130 of the wearable information display device 100 .

한편, 착용형 정보 표출 장치(100)는, 도시하지 않았지만, 수어방송의 위치, 크기 및 투명도를 조절할 수 있는 수어방송 설정부(미도시)를 더 포함할 수 있다. 예를 들어, 수어방송의 위치 및 크기를 조절하고, 투명도를 낮춰 방송화면이 잘 보이도록 조절함으로써 시청의 집중도 및 방송의 이해도를 높일 수 있다. On the other hand, the wearable information display device 100, although not shown, may further include a sign language broadcasting setting unit (not shown) capable of adjusting the position, size, and transparency of the sign language broadcasting. For example, by adjusting the position and size of sign language broadcasting, and lowering the transparency so that the broadcasting screen can be easily seen, the concentration of viewing and the understanding of broadcasting can be increased.

그리고, 수어서비스 제공 서버(300)는, 시청모드에 따른 수어서비스가 요청되면, 현재 시청중인 방송에 해당하는 사전 제작된 수어방송을 수어방송DB로부터 검색하는 수어방송 검색부(310)와, 현재 시청중인 방송에 수어방송을 싱크시키는 싱크 조정부(340)와, 응용 프로그램 모듈(200)과 연결되어 데이터 송수신을 수행하는 통신부(350)를 포함한다. And, the sign language service providing server 300, when a sign language service is requested according to the viewing mode, a sign language broadcast search unit 310 that searches for a pre-made sign language broadcast corresponding to the currently watched broadcast from the sign language broadcast DB, and It includes a sync control unit 340 that synchronizes sign language broadcasting to the broadcast being viewed, and a communication unit 350 that is connected to the application program module 200 to transmit and receive data.

수어방송 검색부(310)는, 사전 제작된 수어방송을 저장하는 수어방송 데이터베이스(320)와, TV 방송 프로그램과 매칭되는 수어방송의 편성 정보를 포함하는 수어방송 편성표를 저장하는 수어방송 편성표 데이터베이스(330)를 구비하며, 수어방송 편성표를 조회하여 현재 시청중인 방송과 매칭되는 수어방송이 있는지 먼저 조회하고, 수어방송이 편성표 목록에 있으면 수어방송 DB(320)로부터 매칭되는 수어방송을 호출하고, 이를 싱크 조정부(340)로 전달한다. The sign language broadcasting search unit 310 includes a sign language broadcasting database 320 for storing pre-produced sign language broadcasting, and a sign language broadcasting schedule database ( 330), and inquires first whether there is a sign language broadcast matching the broadcast currently being watched by inquiring the sign language broadcast schedule, and if the sign language broadcast is in the schedule list, calls the matching sign language broadcast from the sign language broadcasting DB 320, and this It is transmitted to the sync adjuster 340 .

싱크 조정부(340)는, 현재 시청중인 방송과 호출된 수어방송을 싱크시켜 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 통신부(350)를 통해 출력한다. The sync adjustment unit 340 synchronizes the currently viewed broadcast and the called sign language broadcast and outputs it through the communication unit 350 to be displayed on the display unit 130 of the wearable information display device 100 .

다음으로, 도 3 및 도 4를 참조하여 응용 프로그램 모듈이 사용자 단말에 설치된 경우에 대해 설명하도록 한다. 도 3 및 도 4에 도시된 본 발명의 수어서비스 제공 시스템은 도 1 및 도 2에 도시된 수어서비스 제공 시스템과 비교하여 응용 프로그램 모듈(200)이 사용자 단말(400)에 구비된 구성이 다르고 다른 구성은 모두 동일하므로 동일한 구성에 대한 설명은 생략할 수 있다. 그리고, 사용자 단말(400)은, 앱스토어나 서비스 제공자의 웹사이트 등으로 접속하여 응용 프로그램 모듈(200)을 다운로드 받아 구동될 수 있도록 미리 설치 및 저장할 수 있다. Next, a case in which the application program module is installed in the user terminal will be described with reference to FIGS. 3 and 4 . The sign language service providing system of the present invention shown in FIGS. 3 and 4 is different from the sign language service providing system shown in FIGS. 1 and 2 in that the configuration in which the application program module 200 is provided in the user terminal 400 is different and different. Since all configurations are the same, a description of the same configuration may be omitted. In addition, the user terminal 400 may connect to an app store or a website of a service provider, download the application program module 200, and install and store it in advance so that it can be driven.

도 3은, 본 발명의 다른 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.3 is a diagram showing the overall configuration of a sign language service providing system according to another embodiment of the present invention.

도 4는, 도 3에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.FIG. 4 is a diagram showing a schematic configuration of the application program module shown in FIG. 3 .

도 3 및 도 4를 참조하면, 본 발명에 따른 수어 서비스 제공 시스템은, 착용형 정보 표출 장치(100)와, 사용자 단말(400)에 구비된 응용 프로그램 모듈(200)과 수어서비스 제공 서버(300)를 포함할 수 있다. Referring to FIGS. 3 and 4 , the sign language service providing system according to the present invention includes a wearable information display device 100 , an application program module 200 provided in a user terminal 400 , and a sign language service providing server 300 . ) may be included.

여기서, 착용형 정보 표출 장치(100)와 사용자 단말(400)은 근거리 무선 통신(예, 블루투스, 지그비, 와이파이 등)을 통해 연동되도록 구현될 수 있다.Here, the wearable information display device 100 and the user terminal 400 may be implemented to be linked through short-range wireless communication (eg, Bluetooth, Zigbee, Wi-Fi, etc.).

응용 프로그램 모듈(200)과 수어서비스 제공 서버(300)는 네트워크(유선 인터넷 통신이나 WiFi, WiBro 등 무선 인터넷 통신, WCDMA, LTE 등 이동통신 등 유무선 네트워크)를 이용한 인터넷망을 통해 연결되도록 구현될 수 있다. The application program module 200 and the sign service providing server 300 may be implemented to be connected through an Internet network using a network (wired Internet communication, wireless Internet communication such as WiFi and WiBro, wired and wireless networks such as mobile communication such as WCDMA and LTE). have.

착용형 정보 표출 장치(100)는, 수어방송의 증강현실 구현을 지원한다. 여기서, 수어방송은 2차원 또는 3차원 아바타 형태의 증강현실 구현으로 표현될 수 있다. The wearable information display device 100 supports the implementation of augmented reality of sign language broadcasting. Here, sign language broadcasting may be expressed as an augmented reality implementation in the form of a two-dimensional or three-dimensional avatar.

이러한 착용형 정보 표출 장치(100)는, 도면으로 도시하지 않았지만, 음성획득부, 영상획득부, 디스플레이부, 통신부, 전원부, 저장부, 조작부, 스위치부, 착탈감지부를 포함하여 구성될 수 있으며, 통신부를 통해 사용자 단말(400)에 구비된 응용 프로그램 모듈(200)과 연동되어 수어서비스를 제공받을 수 있다.Although not shown in the drawings, the wearable information display device 100 may be configured to include a voice acquisition unit, an image acquisition unit, a display unit, a communication unit, a power supply unit, a storage unit, an operation unit, a switch unit, and a detachment detection unit, The sign language service may be provided by interworking with the application program module 200 provided in the user terminal 400 through the communication unit.

수어서비스는 방송 프로그램을 미리 제작된 수어방송 또는 방송 프로그램의 미리 제작된 수어방송이 없을 경우 실시간 수어 번역을 통해 생성된 수어방송을 제공하되, 수어방송은 2D 또는 3D 아바타 형태로 착용형 정보 표출 장치(100)의 렌즈와 같은 디스플레이부(미도시)의 일부에 증강현실로 표출되는 서비스이다. 여기서, 수어방송은 수어영상 및 자막영상 중 적어도 어는 하나를 포함할 수 있다. Sign language service provides sign language broadcasts generated through real-time sign language translation when there is no pre-produced sign language broadcast of a broadcast program or a broadcast program, but sign language broadcast is a wearable information display device in the form of a 2D or 3D avatar It is a service that is expressed in augmented reality on a part of the display unit (not shown), such as the lens of ( 100 ). Here, the sign language broadcast may include at least one of a sign language image and a caption image.

사용자 단말(200)은, 착용형 정보 표출 장치(100)와 연동되어 수어서비스에 따른 수어방송을 제공하는 응용 프로그램 모듈(200)을 포함한다. The user terminal 200 includes an application program module 200 that interworks with the wearable information display device 100 to provide sign language broadcasting according to a sign language service.

이러한 사용자 단말(200)은, 도 2에 도시된 구성에 통신부(240)를 더 추가적으로 구비할 수 있으며, 통신부(240)를 통해 수어서비스 제공 서버(300)와 연결되고 실시간 데이터 송수신을 수행할 수 있다. The user terminal 200 may further include a communication unit 240 in the configuration shown in FIG. 2 , and may be connected to the sign language service providing server 300 through the communication unit 240 and perform real-time data transmission/reception. have.

응용 프로그램 모듈(200)은, 증강현실을 이용한 수어서비스를 지원하기 위해, 서비스모드 제어부(210), 시청모드 실행부(220), 번역모드 실행부(230), 통신부(240) 및 수어방송 설정부(250)을 포함하여 구성될 수 있다. The application program module 200, in order to support the sign language service using augmented reality, the service mode control unit 210, the viewing mode execution unit 220, the translation mode execution unit 230, the communication unit 240 and sign language broadcasting settings It may be configured to include a unit 250 .

수어서비스는 미리 제작된 수어방송을 제공하는 시청모드와, 실시간 방송에 맞춰서 수어방송을 생성하여 제공하는 번역모드를 포함한다. 여기서, 시청모드는 방송시청시 수어서비스를 제공하는 방송시청모드와 영화관람시 수어서비스를 제공하는 영화시청모드로 구분될 수 있으며, 영화 시청의 경우, 영화관 방문시 영화 관람을 위해 제공될 수 있다. 이러한 수어서비스는 착용형 정보 표출 장치(100)와 실시간 링크를 통해 스트리밍(Streaming)될 수 있다.The sign language service includes a viewing mode in which a pre-produced sign language broadcast is provided, and a translation mode in which a sign language broadcast is generated and provided according to a real-time broadcast. Here, the viewing mode may be divided into a broadcast viewing mode that provides a sign language service when watching a broadcast and a movie viewing mode that provides a sign language service when watching a movie. In the case of movie viewing, it may be provided for watching a movie when visiting a movie theater. . Such a sign language service may be streamed through the wearable information display device 100 and a real-time link.

우선, 응용 프로그램 모듈(200)의 서비스모드 제어부(210)는, 착용형 정보 표출 장치(100)에 구비된 스위치부의 스위치 on 신호가 입력되면, 시청모드와 번역모드 중 적어도 하나를 실행하도록 제어하되, 시청모드를 먼저 실행한 후, 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 실행하도록 서비스모드의 실행을 제어할 수 있다. First, the service mode control unit 210 of the application program module 200, when the switch on signal of the switch provided in the wearable information display device 100 is input, control to execute at least one of the viewing mode and the translation mode, but , after executing the viewing mode first, when there is no pre-produced sign language broadcast, it is possible to control the execution of the service mode to execute a translation mode that generates and provides a real-time sign language broadcast.

또한, 서비스모드 제어부(210)는, 착용형 정보 표출 장치(100)의 조작부(미도시)를 구비하고, 사용자가 조작부를 조작하는 것에 의해 서비스모드가 선택되면 선택된 서비스모드를 수행하도록 각 실행부를 제어할 수 있다. In addition, the service mode control unit 210 is provided with a manipulation unit (not shown) of the wearable information expression device 100, and when the service mode is selected by the user operating the manipulation unit, each execution unit to perform the selected service mode can be controlled

먼저, 시청모드 실행부(220)는, 방송 시청모드가 실행되면, 영상획득부(120)를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널에 매칭되는 미리 제작된 수어방송을 수어서비스 제공 서버(300)로 요청한다.First, the viewing mode execution unit 220, when the broadcast viewing mode is executed, analyzes the movement of the currently viewed broadcasting screen from the image signal captured through the image acquisition unit 120 to recognize the current broadcasting channel, A pre-produced sign language broadcast matching the current broadcast channel is requested from the sign language service providing server 300 .

그러면, 수어서비스 제공 서버(300)는, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 방송 프로그램과 미리 제작된 수어방송을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고 있으며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 일치하는 방송 채널이 있으면, 일치하는 방송 채널과 매칭된 수어방송을 검색하고, 검색된 수어방송을 방송 채널과 싱크시켜 제공한다.Then, the sign language service providing server 300 stores a sign language broadcast schedule prepared in advance corresponding to the broadcast program, and a sign language broadcast schedule including programming information matching the broadcast program and the pre-produced sign language broadcast, respectively. If there is a matching broadcast channel by inquiring the broadcast channel requested from the mode executor 220 in the sign language broadcast schedule, the matching broadcast channel and the matching sign language broadcast are searched, and the searched sign language broadcast is synchronized with the broadcast channel and provided.

또한, 시청모드 실행부(220)는, 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 영화에 대응하는 수어영상을 검색하고, 영화 선택 정보가 입력되지 않을 경우, 영상획득부(120)를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 수어서비스 제공 서버(300)로 요청한다.In addition, the viewing mode execution unit 220, when the movie viewing mode is executed, when movie selection information is input, searches for a sign language image corresponding to the movie, and when the movie selection information is not input, the image acquisition unit 120 ) to recognize a currently playing movie by performing screen tracking, and request a sign language broadcast matching the recognized currently screened movie to the sign language service providing server 300 .

그러면, 수어서비스 제공 서버(300)는, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 편성 정보를 포함하는 영화관람 편성표를 각각 저장하고, 응용 프로그램 모듈의 시청모드 실행부(220)로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 조회하여 해당하는 수어방송을 찾아 제공할 수 있다. 이때, 수어서비스 제공 서버(300)는, 사전에 분석된 영화 시작 지점과, 영상획득부를 이용한 영화 화면 트레킹을 수행하여 자동으로 인식된 영화 시작 지점을 일치시킴으로써 수어방송과 영화 화면의 싱크를 맞출 수 있다.Then, the sign language service providing server 300 stores, respectively, a sign language broadcast prepared in advance corresponding to the movie, and a movie viewing schedule including the program information matching the sign language broadcast and the movie, and the viewing mode of the application program module. When a sign language broadcast corresponding to a movie is requested from the execution unit 220 , the stored movie viewing schedule may be inquired to find and provide the corresponding sign language broadcast. At this time, the sign language service providing server 300 may synchronize the sign language broadcasting and the movie screen by matching the movie start point analyzed in advance and the movie screen tracking using the image acquisition unit to match the automatically recognized movie start point. have.

그런 다음, 시청모드 실행부(220)는, 요청된 방송 채널과 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. 즉, 수어방송은, 착용형 정보 표출 장치(100)에 구비된 디스플레이부(130)의 설정된 영역에 증강현실로 표출된다. 이때, 수어방송은 수어서비스 제공 서버(300)에서 현재 방송 채널에 실시간 싱크되어 제공될 수 있다.Then, when the sign language broadcast synchronized with the requested broadcast channel is transmitted from the sign language service providing server 300 , the viewing mode execution unit 220 may stream the provided sign language broadcast to the display unit 130 in augmented reality. . That is, the sign language broadcast is expressed in augmented reality on the set area of the display unit 130 provided in the wearable information display device 100 . In this case, the sign language broadcast may be provided by being synchronized with the current broadcast channel in the sign language service providing server 300 in real time.

또한, 시청모드 실행부(220)는, 요청된 영화와 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. In addition, when the sign language broadcast synchronized with the requested movie is transmitted from the sign language service providing server 300 , the viewing mode execution unit 220 may stream the provided sign language broadcast to the display unit 130 in augmented reality.

한편, 서비스모드 제어부(210)는, 수어서비스 제공 서버(300)에서 현재 방송에 대한 수어방송의 검색에 실패한 경우, 번역모드 서비스로 전환을 수행할 수 있다. 즉, 서비스모드 제어부(210)는, 현재 시청중인 방송에 대한 사전 제작된 수어방송이 검색되지 않을 경우, 번역모드 실행부(230)로 실시간 수어 번역 서비스를 요청할 수 있다.Meanwhile, the service mode control unit 210 may switch to the translation mode service when the sign language service providing server 300 fails to search for a sign language broadcast for the current broadcast. That is, the service mode control unit 210 may request a real-time sign language translation service from the translation mode execution unit 230 when a pre-produced sign language broadcast for the currently viewed broadcast is not searched.

번역모드 실행부(230)는, 음성인식부(231), 음성-수어 매칭부(232), 수어영상 생성부(234), 음성-단어 전환부(235), 자막영상 생성부(236) 및 수어방송 생성부(237)를 포함할 수 있다.The translation mode execution unit 230 includes a voice recognition unit 231 , a voice-sign language matching unit 232 , a sign language image generation unit 234 , a voice-word conversion unit 235 , a subtitle image generation unit 236 and A sign language broadcast generating unit 237 may be included.

음성인식부(231)는, 번역모드 실행되면, 착용형 정보 표출 장치(100)와 연동되어 음성신호를 요청하고, 이를 전달받는다. When the translation mode is executed, the voice recognition unit 231 interworks with the wearable information display device 100 to request a voice signal and receive it.

즉, 음성인식부(231)는, 착용형 정보 표출 장치(100)의 음성획득부로부터 전달되는 음성신호로부터 음성을 인식하고, 인식된 음성을 음성-수어 매칭부(232)로 전달한다.That is, the voice recognition unit 231 recognizes a voice from a voice signal transmitted from the voice acquisition unit of the wearable information expression device 100 , and transmits the recognized voice to the voice-sign language matching unit 232 .

음성-수어 매칭부(232)는, 데이터베이스화된 음성-수어 매칭 DB(233)를 구비하며, 인식된 음성을 음성-수어 매칭 DB(233)에 저장된 음성과 순차적으로 비교하고, 인식된 음성과 동일한 음성이 있으면, 동일한 음성에 해당하는 수어를 호출하고, 호출된 수어를 수어영상 생성부(234)로 전달한다. 음성-수어 매칭 DB(233)에 저장된 수어는 음성에 매칭되는 수어 동작에 대한 수어이미지이거나 수어이미지들이 연결된 동영상일 수 있다.The voice-sign language matching unit 232 includes a databased voice-sign language matching DB 233, sequentially compares the recognized voice with the voice stored in the voice-sign language matching DB 233, and compares the recognized voice with the recognized voice. If there is the same voice, a sign language corresponding to the same voice is called, and the called sign language is transmitted to the sign language image generating unit 234 . The sign language stored in the voice-sign language matching DB 233 may be a sign language image for a sign language operation matched with the voice or a moving image to which sign language images are connected.

수어영상 생성부(234)는, 음성-수어 매칭DB(233)에서 호출된 수어들을 연결하여 수어영상을 생성한다. 수어영상은 수어이미지가 연속적으로 연결된 동영상일 수 있다.The sign language image generation unit 234 generates a sign language image by connecting sign words called from the voice-sign language matching DB 233 . The sign language image may be a moving image in which sign language images are continuously connected.

또한, 수어영상 생성부(234)는, 인식된 음성과 매칭된 수어와 함께 사람의 감정을 추론하기 위한 부가정보를 상황적으로 결합시켜 수어영상을 생성하도록 구현될 수도 있다. 이로써 상황에 맞춰 자연스런 표현이 가능한 수어영상을 생성할 수 있다.Also, the sign language image generating unit 234 may be implemented to generate a sign language image by contextually combining additional information for inferring a person's emotion with the recognized voice and the matched sign language. In this way, it is possible to create a sign language image that can be expressed naturally according to the situation.

예를 들어, 부가정보는, 음성 언어 사용자의 감정을 추측하기 위한 음성의 속도, 어조, 크기, 음색 등의 비언어 정보를 포함할 수 있다. 이러한 부가정보는, 음성을 수어로 번역함에 있어서 음성 언어 사용자의 감정을 얼굴표정 및 몸짓의 비수지신호로 번역하기 위한 정보이다. For example, the additional information may include non-verbal information such as speed, tone, size, and tone of the voice for estimating the emotion of the voice language user. This additional information is information for translating the emotions of the voice language user into non-signal signals of facial expressions and gestures when translating voice into sign language.

그래서, 수어영상 생성부(234)는, 착용형 정보 표출 장치(100)의 영상획득부로부터 획득된 영상신호로부터 부가정보를 획득하고 분석하기 위하여, 음성 스케일링 변조, 얼굴 인식, 동작을 인식하는 모션 인식 등을 수행할 수 있다. 추출한 정보에 기초하여 음성 언어 사용자의 감정이 어떤 종류의 감정인지 분류하여 라벨링하고 그 크기를 수치화하여 비수지수어를 표현하기 위한 부가정보를 생성할 수 있다.Therefore, the sign language image generating unit 234, in order to obtain and analyze additional information from the image signal obtained from the image acquisition unit of the wearable information expression device 100, voice scaling modulation, face recognition, motion recognizing motion recognition, etc. Based on the extracted information, it is possible to classify and label what kind of emotion the voice language user has, and to digitize the size to generate additional information for expressing non-significant words.

즉, 수어영상 생성부(234)는, 사람 형상의 2D 또는 3D 모델이 연속적으로 수행하는 수어동작에 부가정보를 반영하여 수어영상을 생성할 수 있다. That is, the sign language image generating unit 234 may generate a sign language image by reflecting additional information in sign language operations continuously performed by the 2D or 3D model of the human shape.

따라서 화면 속 배우가 음성의 속도, 어조, 크기, 음색, 표정, 몸동작 등으로 나타낸 감정의 종류 및 크기가 청각장애인이 시각적으로 인식할 수 있는 표정, 손의 이동속도, 시선 등의 비수지기호로 수어영상에 반영되므로, 청각장애인이 화면 속 배우의 감정의 종류 및 크기를 인식할 수 있다.Therefore, the type and size of the emotions expressed by the actors in the screen through the speed, tone, size, tone, facial expression, and body movements of the actors can be visually recognized by the deaf person, using non-responsible symbols such as facial expression, hand movement speed, and gaze. Since it is reflected in the image, the hearing impaired can recognize the type and size of the actor's emotions in the screen.

음성-단어 전환부(235)는, 음성인식부(231)에서 인식된 음성을 텍스트 형식으로 변환하기 위해, 인식된 음성을 단어로 전환하고, 전환된 단어들을 자막영상 생성부(236)로 전달한다.The voice-word conversion unit 235 converts the recognized voice into words in order to convert the voice recognized by the voice recognition unit 231 into a text format, and transfers the converted words to the caption image generator 236 . do.

자막영상 생성부(236)는, 전달된 단어들을 연결하여 문장화하고 텍스트 형식으로 시각적으로 표시하는 자막영상을 생성하고, 생성된 자막영상을 수어방송 생성부(237)로 전달한다.The caption image generating unit 236 generates a caption image that connects the delivered words to sentence them and visually displays them in text format, and transmits the generated caption image to the sign language broadcast generation unit 237 .

수어방송 생성부(237)는, 생성된 수어영상과 자막영상을 이용하여 수어방송을 생성하되, 수어방송은 수어영상 및 자막영상 중 적어도 하나의 영상을 포함할 수 있다. 예를 들어, 수어방송은 수어영상만 포함하거나 자막영상만 포함할 수 있으며, 또한, 수어영상과 자막영상 모두 포함할 수 있다. 이로써, 사용자의 요청에 따라 자막영상 및 수어영상을 동시 표출 또는 개별 표출의 선택이 가능하도록 응용 프로그램 모듈을 실행시 사용자 단말(400)의 사용자 인터페이스(UI)를 이용해 설정할 수 있도록 구현할 수 있다. The sign language broadcast generation unit 237 generates a sign language broadcast using the generated sign language image and caption image, and the sign language broadcast may include at least one of a sign language image and a caption image. For example, a sign language broadcast may include only a sign language image or only a subtitle image, and may also include both a sign language image and a subtitle image. Accordingly, it can be implemented to set using the user interface (UI) of the user terminal 400 when executing the application program module so that the simultaneous or individual expression of the subtitle image and the sign language image can be selected according to the user's request.

수어방송 생성부(238)는, 통신부(240)를 통해 착용형 정보 표출 장치(100)로 수어방송을 제공할 수 있다. The sign language broadcast generation unit 238 may provide a sign language broadcast to the wearable information display device 100 through the communication unit 240 .

또한, 응용 프로그램 모듈(200)의 수어방송 설정부(250)는, 증강현실 구현 화면의 수어방송 크기, 위치 및 투명도를 조절할 수 있다. 즉, 사용자가 방송 화면을 시청하는 데 있어 불편이 없도록 수어방송의 크기, 위치 및 투명도를 조절할 수 있다. 이를 통해 방송화면과 수어방송의 동시 시청이 용이할 뿐만 아니라 실제 방송 시청에 더욱 집중할 수 있게 된다. In addition, the sign language broadcasting setting unit 250 of the application program module 200 may adjust the sign language broadcasting size, position, and transparency of the augmented reality implementation screen. That is, the size, position, and transparency of sign language broadcasting can be adjusted so that the user does not have any inconvenience in viewing the broadcasting screen. Through this, it is easy to watch the broadcast screen and the sign language broadcast at the same time, and it is possible to concentrate more on the actual broadcast viewing.

그리고, 수어서비스 제공 서버(300)는, 시청모드에 따른 수어서비스가 요청되면, 현재 시청중인 방송에 해당하는 사전 제작된 수어방송을 수어방송DB(320)로부터 검색하는 수어방송 검색부(310)와, 현재 시청중인 방송에 수어방송을 싱크시키는 싱크 조정부(340)와, 응용 프로그램 모듈(200)과 연결되어 데이터 송수신을 수행하는 통신부(350)를 포함한다. In addition, the sign language service providing server 300, when a sign language service is requested according to the viewing mode, a sign language broadcast search unit 310 that searches for a pre-made sign language broadcast corresponding to the currently watched broadcast from the sign language broadcast DB 320 . and a sync control unit 340 that synchronizes sign language broadcasting to the currently viewed broadcast, and a communication unit 350 that is connected to the application program module 200 to transmit and receive data.

수어방송 검색부(310)는, 사전 제작된 수어방송을 저장하는 수어방송 DB(320)와, TV 방송 프로그램과 미리 제작된 수어방송을 매칭한 수어방송 편성정보를 포함하는 수어방송 편성표를 저장하는 수어방송 편성표 DB(330)를 구비하며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 매칭되는 방송 채널이 있으면, 해당 수어방송을 수어방송 DB(320)로부터 검색하여 호출하고, 이를 싱크 조정부(340)로 전달한다. The sign language broadcasting search unit 310 stores a sign language broadcasting schedule including a sign language broadcasting DB 320 for storing pre-produced sign language broadcasting, and sign language broadcasting schedule information matching a TV broadcasting program and a pre-produced sign language broadcasting. A sign language broadcasting schedule DB 330 is provided, and if there is a matching broadcasting channel by inquiring the broadcasting channel requested from the viewing mode execution unit 220 in the sign language broadcasting schedule, the corresponding sign language broadcasting is retrieved from the sign language broadcasting DB 320. and transmits it to the sync control unit 340 .

싱크 조정부(340)는, 현재 시청중인 방송과 호출된 수어방송을 싱크시켜 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 통신부(350)를 통해 출력한다. The sync adjustment unit 340 synchronizes the currently viewed broadcast and the called sign language broadcast and outputs it through the communication unit 350 to be displayed on the display unit 130 of the wearable information display device 100 .

즉, 싱크 조정부(340)는, 시청모드시, 현재 시청중인 방송에 호출된 수어방송을 싱크시켜 통신부(350)를 통해 응용 프로그램 모듈(200)로 전달하고, 이를 통해 현재 시청중인 방송에 수어방송이 싱크되어 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출될 수 있다. 이때, 싱크 조정부(340)는, 수어방송의 스트리밍시 실시간 싱크 조정을 지원할 수 있다. That is, in the viewing mode, the sync control unit 340 synchronizes the sign language broadcast called to the currently watched broadcast and transmits it to the application program module 200 through the communication unit 350 , and through this, the sign language broadcast to the currently watched broadcast This may be synchronized and displayed on the display unit 130 of the wearable information display device 100 . In this case, the sync adjuster 340 may support real-time sync adjustment when streaming sign language broadcasting.

또한, 싱크 조정부(340)는, 공중파 및 IPTV 등 TV 방송 일정 및 실시간 목록을 추출하여 TV 방송과 수어방송의 싱크(Sync) 연동을 진행할 수 있다.Also, the sync control unit 340 may extract a TV broadcasting schedule and a real-time list such as over-the-air and IPTV, and perform sync between TV broadcasting and sign language broadcasting.

상술한 바와 같이 본 발명에 따른 수어서비스 제공 시스템은, 방송화면과 별도로 증강현실로 구현한 수어방송을 사용자의 착용형 정보 표출 장치를 통해 사용자의 눈앞에 제공함으로써 수어방송이 필요하지 않은 다른 시청자가 불편함 없이 함께 방송 시청이 가능할 수 있으며, 수어방송을 사용자가 보기 좋은 위치, 크기 및 투명도로 설정하여 표출함으로써 사용자의 방송 시청 집중도 및 방송 내용 이해도를 높일 수 있다.As described above, the sign language service providing system according to the present invention provides sign language broadcasting implemented in augmented reality separately from the broadcasting screen in front of the user's eyes through the user's wearable information display device, so that other viewers who do not need sign language broadcasting It is possible to watch the broadcast together without any inconvenience, and by setting the sign language broadcast to a location, size and transparency that the user can see, it is possible to increase the user's concentration on broadcast viewing and understanding of the broadcast content.

또한, 본 발명에 따른 수어서비스 제공 시스템은, 사전 제작된 수어방송뿐만 아니라 실시간 번역을 통해 생성된 수어방송의 제공을 자동으로 처리함으로써 방송 프로그램의 제약 없이 실시간으로 수어방송과 함께 방송 시청이 가능할 수 있다. In addition, the sign language service providing system according to the present invention automatically processes the provision of sign language broadcasts generated through real-time translation as well as pre-produced sign language broadcasts, so that it is possible to watch broadcasts together with sign language broadcasts in real time without restriction of the broadcast program. have.

도 5는, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템을 활용한 수어서비스의 구현 예를 나타낸 도면으로, (a)는 수어방송의 증강현실 화면의 위치 설정(A, B)을, (b)는 수어방송의 증강현실 화면의 투명도 설정(A, B)을, (c)는 착용형 정보 표출 장치의 디스플레이부에 표출된 예를 각각 나타낸다.5 is a view showing an implementation example of a sign language service using a sign language service providing system according to an embodiment of the present invention, (a) is the location setting (A, B) of the augmented reality screen of the sign language broadcasting, ( b) shows the transparency settings (A, B) of the augmented reality screen of sign language broadcasting, and (c) shows examples displayed on the display unit of the wearable information display device, respectively.

도 5의 (a) 및 (b)에 도시된 바와 같이, 본 발명에 따른 수어방송의 증강현실 구현 화면의 위치(A, B) 및 투명도(C, D)를 청각장애 사용자의 요청에 따라 변경하여 설정할 수 있다. 이를 통해 청각장애 사용자가 수어방송를 가장 자연스럽게 인식하고 방송 시청의 집중도를 높일 수 있도록 할 수 있다. As shown in (a) and (b) of Figure 5, the position (A, B) and transparency (C, D) of the augmented reality implementation screen of sign language broadcasting according to the present invention is changed according to the request of the hearing impaired user can be set by Through this, the hearing impaired users can most naturally recognize sign language broadcasting and increase the concentration of broadcasting viewing.

도 5의 (c)에 도시된 바와 같이, 본 발명에 착용형 정보 표출 장치의 디스플레이부의 설정 영역에 표출될 수 있다.As shown in (c) of Figure 5, it can be displayed in the setting area of the display unit of the present invention wearable information display device.

상술한 바와 같이, 본 발명에 따른 수어서비스 제공 시스템은, 증강현실 구현 화면을 청각장애 사용자가 인지하기 편리한 위치, 크기 및 투명도로 설정함으로써 방송 시청의 집중도와 방송 내용의 이해도를 높일 수 있다. As described above, the sign language service providing system according to the present invention can increase the concentration of broadcasting viewing and the understanding of broadcasting contents by setting the augmented reality realization screen to a position, size, and transparency convenient for a hearing impaired user to recognize.

뿐만 아니라, 착용형 정보 표출 장치의 디스플레이부에 수어방송을 표출하여 청각장애 사용자에게만 수어방송을 제공함으로써 수어방송을 제공받지 않는 다른 시청자가 불편함을 느끼지 않고 동시 시청이 가능하게 할 수 있다.In addition, by providing sign language broadcasting only to hearing impaired users by expressing sign language broadcasting on the display unit of the wearable information display device, other viewers who are not provided with sign language broadcasting can be viewed simultaneously without feeling uncomfortable.

이하, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 서비스모드를 구현한 실시예를 설명하도록 한다. Hereinafter, an embodiment in which the service mode of the sign language service providing system according to an embodiment of the present invention is implemented will be described.

[서비스모드 중 방송 시청모드 실시예][Example of broadcast viewing mode in service mode]

1. 응용 프로그램 모듈이 사용자 단말에 설치된 경우의 실시예1. Example in case the application module is installed in the user terminal

사용자는 사용자 단말의 응용 프로그램 모듈을 실행하고 현재 시청 가능한 수어방송을 검색할 수 있다. 이때, 응용 프로그램 모듈은 사용자 인터페이스(User Interface) 화면을 통해 수어방송 편성표를 제공하고, 사용자의 선택을 대기한다.The user may execute an application program module of the user terminal and search for currently viewable sign language broadcasts. At this time, the application program module provides a sign language broadcast schedule through a user interface screen, and waits for the user's selection.

사용자가 사용자 단말의 UI 화면을 통해 제공된 수어방송 편성표로부터 수어방송을 선택하면, 응용 프로그램 모듈은 수어서비스 제공 서버에 선택된 수어방송을 요청하여 제공받아 착용형 정보 표출 장치의 디스플레이부에 증강현실로 표출한다. 이때, 수어서비스 제공 서버는 수어방송을 실시간 스트리밍 방식으로 제공하되, 방송 일정 및 실시간 방송 목록을 추출하여 현재 시청중인 방송과 수어방송의 싱크 연동을 수행한다.When the user selects a sign language broadcasting from the sign language broadcasting schedule provided through the UI screen of the user terminal, the application module requests and receives the selected sign language broadcasting from the sign language service providing server, and displays it in augmented reality on the display unit of the wearable information display device do. At this time, the sign language service providing server provides the sign language broadcasting in a real-time streaming method, but by extracting the broadcasting schedule and the real-time broadcasting list, the currently viewed broadcasting and the sign language broadcasting are synchronized.

한편, 응용 프로그램 모듈은, 현재 시청가능한 수어방송이 없는 경우, 번역모드 전환을 수행할지 여부를 확인하는 UI 화면을 구성하여 사용자 단말에 표시할 수 있다. 사용자가 번역모드 전환을 요청할 경우, 실시간 방송에 맞춰서 수어방송을 생성한 후 수어방송이 실시간 링크를 통해 착용형 정보 표출 장치의 디스플레이부에 표출될 수 있도록 제어한다.On the other hand, when there is no sign language broadcast currently viewable, the application program module may configure a UI screen for confirming whether to perform translation mode conversion and display it on the user terminal. When the user requests to change the translation mode, a sign language broadcast is generated according to the real-time broadcast, and then the sign language broadcast is controlled to be displayed on the display unit of the wearable information display device through a real-time link.

2. 응용 프로그램 모듈이 착용형 정보 표출 장치에 설치된 경우의 실시예2. Example when the application module is installed in the wearable information display device

사용자가 착용형 정보 표출 장치의 전원을 키고 착용하면, 응용 프로그램 모듈은, 착용형 정보 표출 장치에 구비된 영상획득부가 촬영한 영상으로부터 방송 화면의 움직임을 분석하여 현재 시청중인 방송 채널을 인식한다. When the user turns on the wearable information display device and wears it, the application module recognizes the broadcast channel currently being viewed by analyzing the motion of the broadcast screen from the image captured by the image acquisition unit provided in the wearable information display device.

그런 다음, 응용 프로그램 모듈은 인식된 방송 채널의 수어방송을 수어서비스 제공서버로 요청하고, 수어서비스 제공 서버는 수어방송을 제공하되, 방송 일정 및 실시간 목록을 추출하여 시청중인 방송 채널과 수어방송의 싱크 연동을 수행한다.Then, the application program module requests sign language broadcasting of the recognized broadcasting channel to the sign language service providing server, and the sign language service providing server provides sign language broadcasting, but extracts the broadcasting schedule and real-time list of the currently watched broadcasting channel and sign language broadcasting. Perform sync linkage.

한편, 인식된 방송 채널의 수어방송이 없는 경우, 실시간 방송에 맞춰서 수어방송을 실시간으로 생성한 후 착용형 정보 표출 장치의 디스플레이부에 증강현실로 구현하는 번역모드 서비스가 자동으로 수행될 수 있다.On the other hand, when there is no sign language broadcasting of the recognized broadcasting channel, after generating a sign language broadcasting in real time according to the real-time broadcasting, a translation mode service implemented in augmented reality on the display unit of the wearable information display device may be automatically performed.

[서비스모드 중 영화 시청모드 실시예][Example of movie viewing mode in service mode]

사용자는 영화관 방문시 착용형 정보 표출 장치 및 응용 프로그램 모듈을 구비하여 영화영상과 수어방송을 함께 관람할 수 있다. When a user visits a movie theater, a wearable information display device and an application program module are provided so that the user can watch movie images and sign language broadcasting together.

이때, 착용형 정보 표출 장치는 영화관에서 제공할 수 있으며, 수어서비스 제공 서버와 연결되어 수어서비스를 제공하는 응용 프로그램 모듈은 사용자의 휴대 단말에 내려받기를 통해 구비되거나 착용형 정보 표출 장치에 미리 내려받기를 통해 설치될 수 있다.At this time, the wearable information display device may be provided by the cinema, and the application module that is connected to the sign language service providing server and provides the sign language service is provided through downloading on the user's mobile terminal or downloaded in advance to the wearable information display device. It can be installed via Receiving.

먼저, 응용 프로그램 모듈이 사용자 단말에 설치된 경우, 사용자가 응용 프로그램 모듈을 실행하고, 응용 프로그램 모듈의 실행에 따른 UI 화면을 통해 사용자가 영화를 선택하면, 영화 선택 정보에 해당하는 수어방송을 수어서비스 제공 서버로부터 검색하고, 검색된 수어방송을 영화 시작과 함께 스트리밍되도록 착용형 정보 표출 장치로 제공할 수 있다. First, when the application module is installed in the user terminal, the user executes the application module, and when the user selects a movie through the UI screen according to the execution of the application module, sign language broadcasting corresponding to the movie selection information is provided. It may be retrieved from the providing server, and the searched sign language broadcast may be provided to the wearable information display device to be streamed together with the start of the movie.

이때, 영화의 싱크는 사전에 분석된 시작 지점과 증강현실 안경 혹은 휴대전화로 화면을 트레킹할 경우 자동으로 영화 시작 지점 인식을 통해 수어와 화면의 싱크를 맞춘다. At this time, the movie sync matches the sign language and the screen by automatically recognizing the movie starting point when tracking the screen with the pre-analyzed starting point and augmented reality glasses or mobile phone.

한편, 사용자가 영화를 선택하지 않은 경우, 착용형 정보 표출 장치에 구비된 영상획득부를 통해 영화 화면을 트래킹하여 현재 상영 영화를 인식하며 자동으로 수어방송과 화면 싱크를 맞춰줄 수 있다. On the other hand, when the user does not select a movie, the movie screen is tracked through the image acquisition unit provided in the wearable information display device to recognize the currently screened movie and automatically synchronize the screen with the sign language broadcast.

또한, 응용 프로그램 모듈은, 수어방송뿐만 아니라 자막방송을 동시 제공 또는 개별로 제공할 수 있다.In addition, the application program module can provide not only sign language broadcasting but also closed caption broadcasting simultaneously or individually.

자막서비스의 경우, 국문은 물론 다양한 외국어 서비스를 제공하여 청각 장애인뿐만 아니라 외국인의 국내 영화 시청시에도 활용 가능하다.In the case of subtitle service, it provides not only Korean but also various foreign language services, so it can be used not only for the deaf, but also for foreigners to watch domestic movies.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Anyone with ordinary knowledge in the field to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the spirit of the present invention is limited to the described embodiments and should not be determined, and not only the claims to be described later, but also all technical ideas that are equivalent or equivalent to the claims are included in the scope of the present invention. Should be interpreted as.

100. 착용형 정보 표출 장치 200. 응용 프로그램 모듈
300. 수어서비스 제공 서버 400. 사용자 단말
100. Wearable information display device 200. Application module
300. Sign language service providing server 400. User terminal

Claims (3)

삭제delete 증강현실을 이용한 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 표출하는 착용형 정보 표출 장치;
상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및
상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고,
영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고,
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부;
상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부;
상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부;
상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부;
상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및
전원의 on/off를 제어하는 스위치부;를 적어도 포함하며,
상기 응용 프로그램 모듈은, 상기 착용형 정보 표출 장치에 구비되되,
상기 스위치부의 스위치 on 신호가 입력되면, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부;
상기 방송 시청모드가 실행되면, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널 정보에 매칭되는 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부;
상기 번역모드가 실행되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 및
상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부;를 포함하는 것을 특징으로 하는 수어서비스 제공 시스템.
A wearable information display device for expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality;
an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and
It is connected to the application program module, and stores a sign language broadcast prepared in advance corresponding to a broadcast program, a sign language broadcast schedule table including programming information matching the previously produced sign language broadcast and the broadcast program, respectively, and the application program module When a sign language broadcast of a broadcast program is requested from , the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized ,
A sign language broadcast prepared in advance corresponding to a movie and a movie viewing schedule matching the sign language broadcasting and the movie are stored, respectively, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is used A sign language service providing server that provides a corresponding sign language broadcast;
The wearable information display device includes: a spectacle body made of a spectacle structure;
a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal;
an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof;
a communication unit provided in the glasses body unit and performing data transmission/reception;
a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and
It includes at least a switch unit for controlling the on/off of the power.
The application module is provided in the wearable information display device,
When the switch-on signal of the switch unit is input, a pre-produced sign language broadcast is provided in augmented reality, but when there is no pre-made sign language broadcast and a viewing mode including a broadcast viewing mode and a movie viewing mode, a real-time sign language broadcast is generated. a service mode control unit executing at least one of the service modes including the provided translation mode;
When the broadcast viewing mode is executed, the current broadcast channel is recognized by analyzing the motion of the currently watched broadcast screen from the video signal captured through the image acquisition unit, and a pre-made sign language broadcast matching the recognized current broadcast channel information is performed. A sign language broadcast requested by the sign language service providing server is controlled to be displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is retrieved. and, when the movie selection information is not input, screen tracking through the image acquisition unit is performed to recognize a currently playing movie, and a sign language broadcast matching the recognized currently playing movie is searched for in augmented reality on the display unit. a viewing mode execution unit controlling to be expressed;
When the translation mode is executed, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; and
and a sign language broadcasting setting unit for adjusting at least one of a position, size, and transparency of a sign language broadcast displayed on the display unit.
증강현실을 이용한 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 표출하는 착용형 정보 표출 장치;
상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및
상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고,
영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고,
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부;
상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부;
상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부;
상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부;
상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및
전원의 on/off를 제어하는 스위치부;를 적어도 포함하며,
상기 응용 프로그램 모듈은, 사용자 단말에 구비되되,
미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부;
상기 방송 시청모드가 실행되면, 상기 사용자 단말의 사용자 인터페이스 화면을 통해 수어서비스가 가능한 방송 채널이 선택되면, 선택된 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 방송 채널의 선택이 없는 경우, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보의 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부;
상기 번역모드가 선택되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부;
상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부; 및
수어방송의 송수신을 수행하는 통신부;를 포함하는 것을 특징으로 하는 수어서비스 제공 시스템.
A wearable information display device for expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality;
an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and
It is connected to the application program module, and stores a sign language broadcast prepared in advance corresponding to a broadcast program, a sign language broadcast schedule table including programming information matching the previously produced sign language broadcast and the broadcast program, respectively, and the application program module When a sign language broadcast of a broadcast program is requested from , the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized ,
A sign language broadcast prepared in advance corresponding to a movie and a movie viewing schedule matching the sign language broadcasting and the movie are stored, respectively, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is used A sign language service providing server that provides a corresponding sign language broadcast;
The wearable information display device includes: a spectacle body made of a spectacle structure;
a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal;
an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof;
a communication unit provided in the glasses body unit and performing data transmission/reception;
a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and
It includes at least a switch unit for controlling the on/off of the power.
The application module is provided in the user terminal,
Among the service modes that provide a pre-produced sign language broadcast in augmented reality, a viewing mode including a broadcast viewing mode and a movie viewing mode, and a translation mode that generates and provides real-time sign language broadcasts when there is no pre-produced sign language broadcast a service mode control unit executing at least one;
When the broadcast viewing mode is executed, when a broadcast channel capable of sign language service is selected through the user interface screen of the user terminal, a pre-produced sign language broadcast of the selected broadcast channel is requested to the sign language service providing server, and the broadcast channel is selected In the absence of this, the current broadcasting channel is recognized by analyzing the movement of the currently viewed broadcasting screen from the image signal captured by the image acquisition unit, and a pre-made sign language broadcast of the recognized current broadcasting channel is requested to the sign language service providing server. and control so that the received sign language broadcast is displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is searched, and the movie selection information When is not input, screen tracking is performed through the image acquisition unit to recognize a currently playing movie, and a sign language broadcast matching the recognized currently screened movie is searched for and controlled to be displayed in augmented reality on the display unit. executive department;
When the translation mode is selected, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality;
a sign language broadcasting setting unit for adjusting at least one of a position, a size, and a transparency of a sign language displayed on the display unit; and
A sign language service providing system comprising a; a communication unit for transmitting and receiving sign language broadcasting.
KR1020200158967A 2020-11-24 2020-11-24 Sign-language service providing system KR102258991B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200158967A KR102258991B1 (en) 2020-11-24 2020-11-24 Sign-language service providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200158967A KR102258991B1 (en) 2020-11-24 2020-11-24 Sign-language service providing system

Publications (1)

Publication Number Publication Date
KR102258991B1 true KR102258991B1 (en) 2021-06-01

Family

ID=76376144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200158967A KR102258991B1 (en) 2020-11-24 2020-11-24 Sign-language service providing system

Country Status (1)

Country Link
KR (1) KR102258991B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230043647A (en) * 2021-09-24 2023-03-31 고려대학교 세종산학협력단 Method and apparatus for providing a platform for sign language subtitles video

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130067639A (en) 2011-12-14 2013-06-25 한국전자통신연구원 System and method for providing sign language broadcasting service
KR20160093481A (en) * 2015-01-29 2016-08-08 한국전자통신연구원 Method for providing additional data, and apparatus for generating additional data, and wearable display
KR20170063428A (en) * 2014-09-26 2017-06-08 가부시키가이샤 아스테무 Program output apparatus, program management server, supplemental information management server, method for outputting program and supplemental information, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130067639A (en) 2011-12-14 2013-06-25 한국전자통신연구원 System and method for providing sign language broadcasting service
KR20170063428A (en) * 2014-09-26 2017-06-08 가부시키가이샤 아스테무 Program output apparatus, program management server, supplemental information management server, method for outputting program and supplemental information, and recording medium
KR20160093481A (en) * 2015-01-29 2016-08-08 한국전자통신연구원 Method for providing additional data, and apparatus for generating additional data, and wearable display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230043647A (en) * 2021-09-24 2023-03-31 고려대학교 세종산학협력단 Method and apparatus for providing a platform for sign language subtitles video
KR102664295B1 (en) * 2021-09-24 2024-05-08 고려대학교 세종산학협력단 Method and apparatus for providing a platform for sign language subtitles video

Similar Documents

Publication Publication Date Title
US8931031B2 (en) Matrix code-based accessibility
KR101899588B1 (en) System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method
CN108605166B (en) Method and equipment for presenting alternative image in augmented reality
CN111163274B (en) Video recording method and display equipment
CN112764549B (en) Translation method, translation device, translation medium and near-to-eye display equipment
KR102576388B1 (en) Display device and operating method thereof
KR102258991B1 (en) Sign-language service providing system
US20180366089A1 (en) Head mounted display cooperative display system, system including dispay apparatus and head mounted display, and display apparatus thereof
CN114063771A (en) Park scene interactive display system based on AR technology
CN113489938B (en) Virtual conference control method, intelligent device and terminal device
CN113889114A (en) Data processing method and device, electronic equipment and storage medium
KR102056142B1 (en) Multi-language subtitle and sound providing system using streaming glass
KR20200003291A (en) Master device, slave device and control method thereof
KR20210002797A (en) Display device
US11849171B2 (en) Deepfake content watch parties
US20230179822A1 (en) Karaoke Content Watch Parties
CN113875227A (en) Information processing apparatus, information processing method, and program
CN115359796A (en) Digital human voice broadcasting method, device, equipment and storage medium
CN110910508B (en) Image display method, device and system
CN111736692B (en) Display method, display device, storage medium and head-mounted device
KR20150108546A (en) personalization service method and system in television linkage wireless terminal
CN209859042U (en) Wearable control device and virtual/augmented reality system
JP2023505986A (en) Multiple output control based on user input
KR20170127652A (en) Broadcast receiver to watch sign language, sign language broadcasting system and sign language broadcasting method having the same
KR20100060176A (en) Apparatus and method for compositing image using a face recognition of broadcasting program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant