KR102258991B1 - Sign-language service providing system - Google Patents
Sign-language service providing system Download PDFInfo
- Publication number
- KR102258991B1 KR102258991B1 KR1020200158967A KR20200158967A KR102258991B1 KR 102258991 B1 KR102258991 B1 KR 102258991B1 KR 1020200158967 A KR1020200158967 A KR 1020200158967A KR 20200158967 A KR20200158967 A KR 20200158967A KR 102258991 B1 KR102258991 B1 KR 102258991B1
- Authority
- KR
- South Korea
- Prior art keywords
- sign language
- broadcast
- movie
- image
- unit
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 claims abstract description 50
- 238000013519 translation Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 26
- 239000011521 glass Substances 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 17
- 230000001360 synchronised effect Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 7
- 208000032041 Hearing impaired Diseases 0.000 description 17
- 230000008451 emotion Effects 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 206010011878 Deafness Diseases 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43074—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/009—Teaching or communicating with deaf persons
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
본 발명은 수어 서비스 제공 시스템에 관한 것으로서, 특히, 증강현실 및 응용 프로그램을 이용하여 수어 서비스를 제공할 수 있는 수어 서비스 제공 시스템에 관한 것이다.The present invention relates to a sign language service providing system, and more particularly, to a sign language service providing system capable of providing a sign language service using augmented reality and an application program.
일반적으로, 수어는 주로 청각 장애인(농아인, 농인)들에 쓰이는 수화의 공용어로, 대한민국에서는, 1993년에 뉴스 프로그램이 처음 수어 방송을 시작하였으며 2019년 스마트 수어 방송의 정식 서비스를 시작하였고, 2020년 9월부터 지상파 방송에서 모든 메인 뉴스 프로그램에 수어 통역을 함께 제공하고 있다.In general, sign language is the official language of sign language mainly used for the hearing impaired (deaf and deaf). In Korea, a news program first started sign language broadcasting in 1993, and the official service of smart sign language broadcasting started in 2019, and in 2020 Sign language interpretation has been provided for all main news programs on terrestrial broadcasting since September.
2019년에 시작한 스마트 수어 방송 서비스는 수어 영상 크기와 폐쇄 자막의 위치를 자율롭게 조정할 수 있으며, 방송망과 인터넷망으로 송출하여 각 가정이나 관송서, 직장, 학교 등의 셋톱박스에 비치된 텔레비전 화면에 동시 표시하는 방식을 제공할 수 있는 서비스이다.The smart sign language broadcasting service, launched in 2019, can autonomously adjust the size of sign language and the position of closed captions, and it is transmitted through the broadcasting network and the Internet network and displayed on the TV screen provided in set-top boxes such as homes, government offices, workplaces, and schools. It is a service that can provide a simultaneous display method.
이러한 스마트 수어 방송 서비스는 기존 제공되었던 수어 방송 서비스가 크기도 작고 우측 하단에 고정되어 있어 방송 영상의 일부를 가릴 뿐만 아니라 수화 통역자의 표정이나 손짓을 보기가 어려워 시청의 불편한 점이 있었는데, 이를 개선하여 그 위치를 자유롭게 조정할 수 있으며, 크기 또한 조절이 가능하고 보고 싶지 않을 경우 끌 수도 있는 등 사용자 맞춤형으로 다양하게 설정할 수 있어 수어 방송의 시청 편의성을 높이고 있다.In this smart sign language broadcasting service, the existing sign language broadcasting service is small in size and fixed in the lower right corner, so it not only covers a part of the broadcasting image but also makes it difficult to see the sign language interpreter's expression or hand gestures. The position can be freely adjusted, the size can also be adjusted, and it can be turned off if you do not want to see it.
스마트 수어 방송 서비스는 방송 영상과 수어 방송 영상을 각각 방송망과 인터넷망으로 송출하되, 가정 내에 비치된 수신기에서 이를 합성하여 TV 화면에 동시에 표시하는 서비스를 말한다.The smart sign language broadcasting service refers to a service in which a broadcasting image and a sign language broadcasting image are transmitted to the broadcasting network and the Internet network, respectively, and the receiver installed in the home synthesizes them and displays them on the TV screen at the same time.
그런데 이러한 스마트 수어 방송 서비스는 현재 지정된 사업자에 의해서 제공되므로 스마트 수어 방송 서비스가 가능한 수신기로 교체하거나 서비스를 제공하지 않는 플랫폼에 가입되어 있다면 플랫폼을 갈아타야 하고, 플랫폼에 가입되어 있지 않은 지상파만을 직접수신하는 청각장애인들의 경우 서비스를 제공하는 플랫폼에 유료로 가입하여야 하므로 상용화하는데 어려움이 있다.However, since such smart sign language broadcasting service is currently provided by a designated operator, it is necessary to replace the receiver with a receiver capable of smart sign language broadcasting service or to change the platform if the user is subscribed to a platform that does not provide the service, and only receives terrestrial waves that are not subscribed to the platform directly. In the case of hearing impaired people, it is difficult to commercialize it because they have to subscribe to a platform that provides services for a fee.
또한, 현재 수어 방송은 뉴스나 시사성 있는 프로그램에 집중되어 제공되고 있는데, 수어 영상으로 인해 화면이 조금 가려지더라도 별다른 문제가 없는 프로그램을 대상으로 하고 있다. 즉, 청각장애인들은 드라마나 오락물 등을 즐길 수 있는 기회가 거의 없다.In addition, currently, sign language broadcasting is mainly provided on news or current programs, but it is aimed at programs that do not have any problems even if the screen is slightly obscured by sign language images. In other words, hearing impaired people rarely have the opportunity to enjoy dramas or entertainment.
따라서, 별도의 플랫폼이나 수신기 등의 기기 교체 없이도 수어 방송을 선택적으로 제공받을 수 있을 뿐 아니라, 청각장애인들의 보편적 방송 접근권을 제한하지 않는 수어 서비스가 요구되고 있다.Accordingly, there is a demand for a sign language service that can selectively receive sign language broadcasting without replacing devices such as a separate platform or receiver, and does not restrict universal broadcasting access rights of the hearing impaired.
따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 청각장애인이 방송 시청시 별도의 착용형 정보 표출 장치 및 응용 프로그램을 구비하여 수어서비스를 제공받음으로써, 기존 방송 서비스의 별도 가입 및 기기의 변경 없이도 수어서비스를 제공받을 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.Accordingly, the present invention has been devised to solve the above problems, and an object of the present invention is to provide a sign language service by providing a wearable information display device and an application program for a hearing impaired person when watching a broadcast, thereby providing a sign language service. The purpose of the present invention is to provide a sign language service providing system in which sign language services can be provided without a separate subscription to the service or change of devices.
또한, 본 발명의 목적은, 별도의 착용형 정보 표출 장치 및 응용 프로그램을구비하여 수어방송을 TV 화면 상에 증강현실로 중첩하여 구현함으로써 수어방송을 용이하게 인지할 수 있을 뿐만 아니라 수화 통역이 불필요한 시청자들과의 동시 시청시 불편함을 해소할 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.In addition, an object of the present invention is to provide a separate wearable information display device and application program to superimpose sign language broadcasting on a TV screen in augmented reality, so that not only can sign language broadcasting be easily recognized, but also sign language interpretation is unnecessary An object of the present invention is to provide a sign language service providing system that can solve the inconvenience of simultaneous viewing with viewers.
또한, 본 발명의 목적은, 별도의 착용형 정보 표출 장치 및 응용 프로그램을구비하여 미리 제작된 수어방송뿐만 아니라 실시간 수어번역서비스를 제공함으로써 다양한 방송 프로그램의 선택적 수어방송 시청이 가능하고, 영화 관람시에도 수어서비스 제공이 가능하여 청각장애인들의 보편적 방송 접근권을 충족시킬 수 있는 수어 서비스 제공 시스템을 제공하는 데 있다.In addition, it is an object of the present invention to provide a real-time sign language translation service as well as pre-produced sign language broadcasting by providing a separate wearable information display device and application program, so that selective sign language broadcasting of various broadcasting programs is possible, and when watching a movie The goal is to provide a sign language service provision system that can provide a sign language service even in the world and can satisfy the universal broadcasting access rights of the hearing impaired.
먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의 일면에 따른 시스템은, 증강현실을 이용한 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 표출하는 착용형 정보 표출 장치; 상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및 상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고, 상기 응용 프로그램 모듈은, 수어서비스를 이용하는 사용자 단말 또는 상기 착용형 정보 표출 장치 중 적어도 하나에 설치되는 것을 특징으로 하는 수어방송 제공 시스템을 제공할 수 있다.First, to summarize the features of the present invention, the system according to one aspect of the present invention for achieving the above object is wearable information expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality. Device; an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and a sign language broadcast, which is connected to the application program module, and includes a pre-produced sign language broadcast corresponding to the broadcast program, and programming information that matches the pre-produced sign language broadcast and the broadcast program, respectively, and stores the application program When a sign language broadcast of a broadcast program is requested from the module, the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized and, respectively, store a sign language broadcast produced in advance corresponding to the movie and a movie viewing schedule matching the sign language broadcasting and the movie, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is stored A sign language service providing server that provides a corresponding sign language broadcasting using a sign language service, wherein the application program module is installed in at least one of a user terminal using a sign language service or the wearable information display device. system can be provided.
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부; 상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부; 상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부; 상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부; 상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및 전원의 on/off를 제어하는 스위치부;를 적어도 포함하며, 상기 응용 프로그램 모듈은, 상기 착용형 정보 표출 장치에 구비되되, 상기 스위치부의 스위치 on 신호가 입력되면, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부; 상기 방송 시청모드가 실행되면, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널 정보에 매칭되는 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부; 상기 번역모드가 실행되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 및 상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부;를 포함하는 것을 특징으로 할 수 있다.The wearable information display device includes: a spectacle body made of a spectacle structure; a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal; an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof; a communication unit provided in the glasses body unit and performing data transmission/reception; a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and a switch unit for controlling the on/off of power, wherein the application program module is provided in the wearable information display device, and when a switch on signal of the switch unit is input, the pre-made sign language broadcast is reinforced. A service mode for executing at least one of a viewing mode including a broadcast viewing mode and a movie viewing mode and a service mode including a translation mode for generating and providing real-time sign language broadcasting when there is no pre-produced sign language broadcasting control unit; When the broadcast viewing mode is executed, the current broadcast channel is recognized by analyzing the motion of the currently watched broadcast screen from the video signal captured through the image acquisition unit, and a pre-made sign language broadcast matching the recognized current broadcast channel information is performed. A sign language broadcast requested by the sign language service providing server is controlled to be displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is retrieved. and, when the movie selection information is not input, screen tracking through the image acquisition unit is performed to recognize a currently playing movie, and a sign language broadcast matching the recognized currently playing movie is searched for in augmented reality on the display unit. a viewing mode execution unit that controls to be displayed; When the translation mode is executed, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; and a sign language broadcasting setting unit for adjusting at least one of a position, a size, and a transparency of a sign language broadcast displayed on the display unit.
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부; 상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부; 상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부; 상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부; 상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및 전원의 on/off를 제어하는 스위치부;를 적어도 포함하며, 상기 응용 프로그램 모듈은, 사용자 단말에 구비되되, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부; 상기 방송 시청모드가 실행되면, 상기 사용자 단말의 사용자 인터페이스 화면을 통해 수어서비스가 가능한 방송 채널이 선택되면, 선택된 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 방송 채널의 선택이 없는 경우, 상기 영상획득부를 통해 촬영된 영상 신호로부터현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보의 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부; 상기 번역모드가 선택되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부; 및 수어방송의 송수신을 수행하는 통신부;를 포함하는 것을 특징으로 할 수 있다.The wearable information display device includes: a spectacle body made of a spectacle structure; a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal; an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof; a communication unit provided in the glasses body unit and performing data transmission/reception; a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and a switch unit for controlling on/off of the power source; at least, the application program module is provided in the user terminal, and provides a pre-made sign language broadcast in augmented reality, including a broadcast viewing mode and a movie viewing mode a service mode control unit executing at least one of a viewing mode and a service mode including a translation mode for generating and providing real-time sign language broadcasting when there is no pre-produced sign language broadcasting; When the broadcast viewing mode is executed, when a broadcast channel capable of sign language service is selected through the user interface screen of the user terminal, a pre-produced sign language broadcast of the selected broadcast channel is requested to the sign language service providing server, and the broadcast channel is selected In the absence of this, the current broadcasting channel is recognized by analyzing the movement of the currently viewed broadcasting screen from the image signal captured by the image acquisition unit, and a pre-fabricated sign language broadcast of the recognized current broadcasting channel is requested to the sign language service providing server. and control so that the received sign language broadcast is displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is searched, and the movie selection information When is not input, screen tracking is performed through the image acquisition unit to recognize a currently playing movie, and a sign language broadcast matching the recognized currently screened movie is searched for and controlled to be displayed in augmented reality on the display unit. executive department; When the translation mode is selected, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; a sign language broadcast setting unit for adjusting at least one of a position, size, and transparency of a sign language broadcast displayed on the display unit; and a communication unit for transmitting and receiving sign language broadcasting.
본 발명에 따른 시스템에 따르면, 별도의 구현장치 및 응용 프로그램 모듈을 통해 청각장애인에게만 수어서비스를 제공함으로써 수화통역이 필요하지 않는 일반 시청자들과 동시 시청시에도 일반 시청자들에게 전혀 시청의 불편을 주지 않고, 시청의 집중도를 높일 수 있다. According to the system according to the present invention, by providing a sign language service only to the hearing impaired through a separate implementation device and an application program module, even when viewing simultaneously with general viewers who do not need sign language interpretation, it does not cause inconvenience to general viewers at all, It can increase the concentration of the audience.
또한, 본 발명에 따른 시스템에 따르면, 별도의 구현장치 및 응용 프로그램 모듈을 통해 수어영상을 제공받거나 실시간 수화 번역을 통한 수어영상을 생성하여 제공함으로써 다양한 방송 프로그램에 대한 청각장애인들의 보편적 방송 접근권을 보장할 수 있을 뿐만 아니라, 수어로 제작된 수어 영화뿐만 아니라 일반 영화 관람이 가능하고 청각 장애인을 위한 영상 콘텐츠를 확대시키는 동시에 나아가 다양한 분야에서 문화 공유를 위한 매개체로 활용할 수 있는 효과가 있다.In addition, according to the system according to the present invention, a sign language image is provided through a separate implementation device and an application program module, or a sign language image is generated and provided through real-time sign language translation, thereby guaranteeing universal broadcasting access for the hearing impaired to various broadcasting programs. In addition to being able to do this, it is possible to watch not only sign language movies but also general movies, expand video content for the hearing impaired, and furthermore, it has the effect of being used as a medium for cultural sharing in various fields.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는 첨부 도면은, 본 발명에 대한 실시 예를 제공하고 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.
도 2는, 도 1에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.
도 3은, 본 발명의 다른 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.
도 4는, 도 3에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.
도 5는, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템을 활용한 수어서비스의 사용 예를 나타낸 도면이다.The accompanying drawings, which are included as part of the detailed description to help the understanding of the present invention, provide embodiments for the present invention and explain the technical spirit of the present invention together with the detailed description.
1 is a diagram showing the overall configuration of a sign language service providing system according to an embodiment of the present invention.
FIG. 2 is a diagram showing a schematic configuration of the application program module shown in FIG. 1 .
3 is a diagram showing the overall configuration of a sign language service providing system according to another embodiment of the present invention.
FIG. 4 is a diagram showing a schematic configuration of the application program module shown in FIG. 3 .
5 is a diagram illustrating an example of use of a sign language service utilizing a sign language service providing system according to an embodiment of the present invention.
이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분을 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다. 또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In this case, the same components in each drawing are indicated by the same reference numerals as possible. In addition, detailed descriptions of already known functions and/or configurations will be omitted. In the following, a portion necessary for understanding an operation according to various embodiments will be mainly described, and descriptions of elements that may obscure the subject matter of the description will be omitted. In addition, some elements of the drawings may be exaggerated, omitted, or schematically illustrated. The size of each component does not entirely reflect the actual size, and therefore, the contents described herein are not limited by the relative size or spacing of the components drawn in each drawing.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시 예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다. In describing the embodiments of the present invention, when it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification. The terms used in the detailed description are only for describing the embodiments of the present invention, and should not be limiting. Unless explicitly used otherwise, expressions in the singular form include the meaning of the plural form. In the present description, expressions such as "comprising" or "feature" are intended to refer to certain features, numbers, steps, actions, elements, some or combination thereof, and one or more It should not be construed to exclude the presence or possibility of other features, numbers, steps, actions, elements, any part or combination thereof.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In addition, terms such as first and second may be used to describe various components, but the components are not limited by the terms, and the terms are used to distinguish one component from other components. Is only used.
이하, 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.1 is a diagram showing the overall configuration of a sign language service providing system according to an embodiment of the present invention.
도 2는, 도 1에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.FIG. 2 is a diagram showing a schematic configuration of the application program module shown in FIG. 1 .
먼저, 도 1을 참조하면, 본 발명의 수어 서비스 제공 시스템은, 수어서비스 제공을 실행하기 위한 응용 프로그램 모듈(200)을 구비하되, 수어영상 및 자막영상 중 적어도 하나의 영상을 포함하는 수어방송을 증강현실로 디스플레이부에 표출하는 착용형 정보 표출 장치(100)와, 미리 제작된 수어방송을 제공하는 수어 서비스 제공 서버(300)를 포함한다.First, referring to FIG. 1, the sign language service providing system of the present invention includes an
착용형 정보 표출 장치(100)는, 웨어러블 스마트 디바이스로, 헤드업 디스플레이 형태로 구현될 수 있다. 예를 들면, 착용형 정보 표출 장치(100)는, 헤드셋 형태의 스마트 안경의 구조를 가지며 눈 앞에 위치한 판넬(렌즈)에 증강현실을 구현할 수 있도록 구현될 수 있다. The wearable
일례로, 착용형 정보 표출 장치(100)는 기본적인 안경의 구조를 갖는 안경 바디부를 구현될 수 있는데, 안경 바디부는, 프론트(안경 전면부), 앤드피스(프론트의 끝, 다리부분인 템플과 이어지는 부위), 림, 브릿지, 코패드, 팁(귀에 닿는 부위), 템플(안경 다리부분 전체), 힌지(프론트와 템플을 이어주는 부위)로 구성될 수 있다. As an example, the wearable
즉, 사용자가 착용형 정보 표출 장치(100)를 착용하고 TV 방송을 시청할 경우, 프론트의 렌즈에 해당하는 디스플레이부(130)에 수어방송이 표출되므로 TV 방송 화면에 별도의 수어방송이 제공될 필요가 없다. That is, when the user wears the wearable
이러한 착용형 정보 표출 장치(100)와 수어서비스 제공 서버(300)는, 네트워크(유선 인터넷 통신이나 WiFi, WiBro 등 무선 인터넷 통신, WCDMA, LTE 등 이동통신 등 유무선 네트워크)를 이용한 인터넷망을 통해 연결되도록 구현될 수 있다. The wearable
그리고, 응용 프로그램 모듈(200)은, 수어서비스 제공 서버(300)와 연결되어 미리 제작된 수어방송을 제공받거나, 실시간 수어번역을 실행하여 자체적으로 수어방송을 생성할 수 있다. 수어방송은 수어영상 및 자막영상 중 적어도 하나의 영상을 포함하도록 생성되되, 수어영상만 포함하거나 자막영상만 포함하거나, 수어영상 및 자막영상 모두 포함될 수 있다.In addition, the
구체적으로, 도 2를 참조하면, 착용형 정보 표출 장치(100)는, 응용 프로그램 모듈(200)을 구비하며, 안경의 구조를 갖는 안경 바디부에 음성획득부(110), 영상획득부(120), 디스플레이부(130) 및 통신부(140)를 적어도 포함하도록 구현될 수 있다. Specifically, referring to FIG. 2 , the wearable
음성획득부(110)는, TV 방송 또는 영화와 같은 영상물로부터 아날로그 음성신호를 수집하여 디지털 음성신호로 변환하는 장치로, 마이크를 사용할 수 있으나, 이에 한정되는 것은 아니며, 예를 들어, 입력되는 음성의 감도를 향상시키는 지향성 마이크로폰을 사용하는 것이 바람직할 수 있다. The
이러한 음성획득부(110)는, 안경 바디부의 프론트에 형성되어 특정 방향에서 들려오는 소리만 선택적으로 입력받을 수 있도록 구현될 수 있으며, 교체가 용이하도록 탈부착이 가능한 기기로 사용할 수 있다. The
즉, 음성획득부(110)는, TV 방송 영상 또는 영화 영상의 음성을 입력받아 음성신호로 변환을 수행한다. 변환된 음성신호는 실시간 번역모드 실행시 수어영상 및 자막영상의 생성에 이용된다.That is, the
영상획득부(120)는, 전면을 촬영하여 시청중인 방송 및 영화의 영상을 촬영하여 영상을 획득하는 장치로, 스마트 폰과 같은 전자기기에 일반적으로 사용되는 카메라모듈을 사용할 수 있으나, 이에 한정되는 것은 아니며, 다른 성능의 카메라로 교체할 수 있도록 탈부착이 가능하도록 구현될 수 있다. The
이러한 영상획득부(120)는, 전면을 촬영 가능하도록 착용형 정보 표출 장치(100)에 설치되며, TV 방송 영상을 촬영하여 영상신호를 획득하고, 획득된 영상신호를 응용 프로그램 모듈(200)로 출력하여 응용 프로그램 모듈(200)에서 현재 시청중인 방송을 인식하는데 사용되도록 한다.The
디스플레이부(130)는, 자막영상 및 수어영상 중 적어도 하나를 포함하는 수어방송을 출력하는 렌즈, 광학모듈 등으로 구현될 수 있으며, 수어방송이 증강현실로 표출된다. The
표출되는 수어방송은 시청중인 방송과 실시간 연동된 수어이미지들 또는 수어이미지들이 연결된 동영상이 출력되며, 수어이미지들이 표출되는 경우, 수어이미지들은 계속적으로 출력되어 연결되므로 자연스런 수어동작을 수행하는 동영상처럼 표시될 수 있다. 또한, 방송의 음성신호를 자동적으로 인식하여 번역할 경우도, 표출되는 수어방송은 음성신호에 해당하는 수어이미지가 연속적으로 연결된 동영상으로 표시될 수 있다. The displayed sign language broadcast outputs sign language images linked in real time with the broadcast being watched or a video in which sign language images are connected. When sign language images are displayed, the sign language images are continuously output and connected, so it is displayed like a video performing natural sign language motions. can be In addition, even when the audio signal of the broadcast is automatically recognized and translated, the displayed sign language broadcast may be displayed as a moving picture in which sign language images corresponding to the audio signal are continuously connected.
통신부(140)는, 데이터 송수신이 가능하도록 인터넷 연결을 수행하고, 다른 스마트 기기와 정보를 상호 송수신할 수 있도록 한다. 이러한 통신부(140)는, 와이파이, 블루투스, NFC 등의 다양한 공지기술을 포함한 통신 기술을 이용할 수 있다.The
그리고, 착용형 정보 표출 장치(100)는, 도면에 도시하지는 않았지만, 응용 프로그램 모듈(200)을 실행하기 위한 프로그램을 저장하는 저장부, 각 부에 전원을 공급하는 전원부, 전원의 ON/OFF를 제어하는 스위치부, 착용형 정보 표출 장치(100)의 착탈 여부를 감지하는 착탈감지부, 수어방송의 위치, 크기 및 투명도를 설정하는 수어방송 설정부, 수어방송 설정부의 조작을 수행하는 조작부, 전원부의 충전 및 내려받기를 위한 입력포트를 더 포함하여 구성될 수 있다. And, the wearable
저장부(미도시)는 응용 프로그램 모듈을 내려받기를 통해 저장할 수 있도록 내장 메모리로 구현될 수 있으며, 전원부(미도시)는 충전식 배터리일 수 있으며, 스위치부 및 조작부(미도시)는 압력식 버튼으로 구현될 수 있다. The storage unit (not shown) may be implemented as a built-in memory to store the application program module through downloading, the power supply unit (not shown) may be a rechargeable battery, and the switch unit and the operation unit (not shown) are pressure-type buttons can be implemented as
착탈감지부(미도시)는, 착용형 정보 표출 장치(100)의 착용 및 이탈을 감지하되, 스위치부의 전원 ON 작동이 없이 착용형 정보 표출 장치(100)가 착용될 경우 이를 감지하고, 일정시간 동안 착용이 유지되면 자동으로 전원 ON이 되도록 스위치부의 작동을 제어할 수 있다. 반대로, 착탈감지부(미도시)는, 스위치부의 전원 OFF작동이 없이 착용형 정보 표출 장치(100)가 이탈될 경우 이를 감지하고, 일정시간 동안 이탈이 유지되거나 재착용이 감지되지 않으면 자동으로 전원 OFF가 되도록 스위치부의 작동을 제어할 수 있다. The detachable detection unit (not shown) detects the wearing and detachment of the wearable
한편, 응용 프로그램 모듈(200)은, 착용형 정보 표출 장치(100)와 연동되어 미리 제작된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출시키거나, 실시간 번역을 통해 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 제어한다. On the other hand, the
이를 위해, 응용 프로그램 모듈(200)은, 서비스모드 제어부(210), 시청모드 실행부(220) 및 번역모드 실행부(230)를 포함할 수 있다.To this end, the
서비스모드 제어부(210)는, 스위치부의 스위치 on 신호가 입력되면, 시청모드와 번역모드 중 적어도 하나를 실행하도록 제어하되, 시청모드를 먼저 실행한 후, 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 실행하도록 서비스모드를 제어할 수 있다. 여기서, 시청모드는 방송시청시 수어서비스를 제공하는 방송시청모드와 영화관람시 수어서비스를 제공하는 영화시청모드를 포함할 수 있다. The service
이러한 서비스모드 제어부(210)는, 착용형 정보 표출 장치의 조작부(미도시)를 사용자가 조작하는 것에 의해 서비스모드가 선택되거나 시청모드가 먼저 실행되어 미리 제작된 수어방송의 검색이 이루어지고, 미리 제작된 수어방송이 없을 경우 번역모드가 실행되도록 각 실행부를 제어할 수 있다. This service
먼저, 시청모드 실행부(220)는, 방송 시청모드가 실행되면, 영상획득부(120)를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널에 매칭되는 미리 제작된 수어방송을 수어서비스 제공 서버(300)로 요청한다.First, the viewing
그러면, 수어서비스 제공 서버(300)는, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 방송 프로그램과 미리 제작된 수어방송을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고 있으며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 일치하는 방송 채널이 있으면, 일치하는 방송 채널과 매칭된 수어방송을 검색하고, 검색된 수어방송을 방송 채널과 싱크시켜 제공한다.Then, the sign language
또한, 시청모드 실행부(220)는, 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 영화에 대응하는 수어영상을 검색하고, 영화 선택 정보가 입력되지 않을 경우, 영상획득부(120)를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 수어서비스 제공 서버(300)로 요청한다.In addition, the viewing
그러면, 수어서비스 제공 서버(300)는, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 편성 정보를 포함하는 영화관람 편성표를 각각 저장하고, 응용 프로그램 모듈의 시청모드 실행부(220)로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 조회하여 해당하는 수어방송을 찾아 제공할 수 있다. 이때, 수어서비스 제공 서버(300)는, 사전에 분석된 영화 시작 지점과, 영상획득부를 이용한 영화 화면 트레킹을 수행하여 자동으로 인식된 영화 시작 지점을 일치시킴으로써 수어방송과 영화 화면의 싱크를 맞출 수 있다.Then, the sign language
그런 다음, 시청모드 실행부(220)는, 요청된 방송 채널과 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. 즉, 수어방송은, 착용형 정보 표출 장치(100)에 구비된 디스플레이부(130)의 설정된 영역에 증강현실로 표출된다.Then, when the sign language broadcast synchronized with the requested broadcast channel is transmitted from the sign language
또한, 시청모드 실행부(220)는, 요청된 영화와 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. In addition, when the sign language broadcast synchronized with the requested movie is transmitted from the sign language
한편, 서비스모드 제어부(210)는, 수어서비스 제공 서버(300)에서 현재 방송에 대한 수어방송의 검색에 실패한 경우, 번역모드 서비스로 전환을 수행할 수 있다. 즉, 서비스모드 제어부(210)는, 현재 시청중인 방송에 대한 사전 제작된 수어방송이 검색되지 않을 경우, 번역모드 실행부(230)로 실시간 수어 번역 서비스를 요청할 수 있다.Meanwhile, the service
번역모드 실행부(230)는, 음성획득부(110)를 통해 획득된 음성신호로부터 음성을 인식하는 음성인식부(231)와, 인식된 음성과 매칭되는 수어를 검색하는 음성-수어 매칭부(232)와, 인식된 음성과 매칭되는 수어들을 연결하여 수어영상을 생성하는 수어영상 생성부(234)와, 인식된 음성과 매칭되는 단어를 검색하는 음성-단어 전환부(235)와, 인식된 음성에 해당하는 단어들을 연결하여 자막영상을 생성하는 자막영상 생성부(236)와, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하는 수어방송 생성부(237)와, 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 증강현실로 스트리밍하는 수어방송 재생부(238)를 포함한다.The translation
여기서, 수어는 3차원 수어이미지이거나 다수의 3차원 수어이미지가 연결된 동영상일 수 있다. 수어영상은, 인식된 음성과 매칭된 수어가 순차적으로 연결된 동영상이며, 자막영상은, 인식된 음성과 매칭되는 단어를 텍스트 형식으로 연결하여 생성한 동영상일 수 있다. Here, the sign language may be a three-dimensional sign language image or a moving image in which a plurality of three-dimensional sign language images are connected. The sign language image may be a moving image in which the recognized voice and the matching sign language are sequentially connected, and the subtitle image may be a moving image generated by connecting the recognized voice and matching words in a text format.
음성인식부(231)는, 음성획득부(110)로부터 음성신호를 입력받고, 입력된 음성신호로부터 음성을 인식한 후 이를 음성-수어 매칭부(232)로 전달한다.The
음성-수어 매칭부(232)는, 데이터베이스화된 음성-수어 매칭 DB(233)를 구비하며, 인식된 음성을 음성-수어 매칭 DB(233)에 저장된 음성과 순차적으로 비교하고, 인식된 음성과 동일한 음성이 있으면, 동일한 음성에 해당하는 수어를 호출하고, 호출된 수어를 수어영상 생성부(234)로 전달한다. The voice-sign
음성-수어 매칭 DB(233)는, 복수의 음성 각각에 대응되는 수어를 복수의 음성과 매칭시켜 저장하고 있으며, 매칭된 수어는 수어의 정확한 표현을 위한 3차원 이미지이거나 다수의 3차원 이미지가 연결된 동영상일 수 있다. 여기서, 3차원 이미지는 인간친화적인 3차원 아바타로 인간과 유사한 형상으로 생성되어 자연스러운 움직임을 제공하며, 손뿐만 아니라 입모양, 표정, 머리와 몸의 방향 등 비수지 언어를 표현하도록 해당 수어와 연동하여 동작하도록 구현될 수 있다. 이처럼 3차원 아바타가 수어를 표현하도록 증강현실을 구현함으로써 청각 장애인의 높은 방송 이해를 도모할 수 있다. The voice-sign
수어영상 생성부(234)는, 호출된 수어들을 연결하여 수어영상을 생성하고, 생성된 수어영상을 수어방송 생성부(237)로 전달한다.The sign
이때, 수어영상 생성부(234)는, 음성인식된 단어와 호출된 수어와 함께 사람의 감정을 추론하기 위한 부가정보를 상황적으로 결합시켜 수어영상을 생성한다. 이로써 상황에 맞춰 자연스런 표현이 가능한 수어영상을 생성할 수 있다.In this case, the sign language
예를 들어, 부가정보는, 음성 언어 사용자의 감정을 추론하기 위한 음성의 속도, 어조, 크기, 음색 등의 비언어 정보를 포함할 수 있다.For example, the additional information may include non-verbal information such as speed, tone, size, and tone of the voice for inferring the emotion of the voice language user.
그래서, 수어영상 생성부(234)는, 착용형 정보 표출 장치(100)의 영상획득부로부터 획득된 영상신호로부터 부가정보를 획득하고 분석하기 위하여, 음성 스케일링 변조, 얼굴 인식, 동작을 인식하는 모션 인식 등을 수행할 수 있다. 추출한 정보에 기초하여 음성 언어 사용자의 감정이 어떤 종류의 감정인지 분류하여 라벨링하고 그 크기를 수치화하여 부가정보를 생성할 수 있다.Therefore, the sign language
즉, 수어영상 생성부(234)는, 사람 형상의 2D 또는 3D 모델이 연속적으로 수행하는 수어동작에 부가정보를 반영하여 수어영상을 생성할 수 있다. That is, the sign language
따라서 화면 속 배우가 음성의 속도, 어조, 크기, 음색, 표정, 몸동작 등으로 나타낸 감정의 종류 및 크기가 청각장애인이 시각적으로 인식할 수 있는 표정, 손의 이동속도, 시선으로 수어영상에 반영되므로, 청각장애인이 화면 속 배우의 감정의 종류 및 크기를 인식할 수 있다.Therefore, the type and size of emotions expressed by the actors in the screen, such as the speed, tone, size, tone, facial expression, and body movement, are reflected in the sign language image through the facial expression, hand movement speed, and gaze that the hearing impaired can visually recognize. , the hearing impaired can recognize the type and size of the actor's emotions on the screen.
음성-단어 전환부(235)는, 인식된 음성을 그에 상응하는 단어로 전환하는 기능을 수행할 수 있으며, 전환된 단어를 자막영상 생성부(236)로 전달한다. 이때, 음성-단어 전환부(235)는, 미리 정의된 수화 사전을 이용하여 인식된 음성을 문자로 변환하되, 음성-문자 변환 프로그램을 이용하여 음성을 문자로 변환하는 동작을 수행할 수 있다. 이와 같이 음성에 대응하는 단어를 판단하는 방법은 기공지된 다양한 방식이 이용될 수 있다. 그리고, 인식된 음성의 언어는 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등 다양한 나라의 언어를 포함할 수 있으며, 전환할 단어의 언어도 마찬가지로 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어 등 다양한 나라의 언어 중 하나를 선택하여 설정하도록 구현될 수 있다. 이로써, 국문은 물론 다양한 외국어 자막서비스를 제공할 수 있어 외국인의 국내 방송 및 영화 시청시에도 활용 가능할 수 있다.The voice-
자막영상 생성부(236)는, 전달된 단어들을 연결하여 자막영상을 생성하고, 생성한 자막영상을 수어방송 생성부(237)로 전달한다. 여기서, 자막영상은, 국문뿐만 아니라 외국어 중 하나일 수 있다.The caption
수어방송 생성부(237)는, 전달된 수어영상과 자막영상 중 적어도 하나를 포함하는 수어방송을 생성한다. 즉, 수어방송은 수어영상만으로 생성되거나 자막영상만으로 생성하거나, 수어영상과 자막영상을 모두 포함하도록 생성될 수 있다.The sign language
또한, 수어방송 생성부(237)는, 생성된 수어방송을 상영중인 방송에 싱크시켜 TV 방송과 수엉방송이 동기화될 수 있도록 한다.In addition, the sign language
수어방송 재생부(238)는, 생성된 수어방송을 착용형 정보 표출 장치(100)의 디스플레이부(130)에 증강현실로 표출시킨다. The sign language
한편, 착용형 정보 표출 장치(100)는, 도시하지 않았지만, 수어방송의 위치, 크기 및 투명도를 조절할 수 있는 수어방송 설정부(미도시)를 더 포함할 수 있다. 예를 들어, 수어방송의 위치 및 크기를 조절하고, 투명도를 낮춰 방송화면이 잘 보이도록 조절함으로써 시청의 집중도 및 방송의 이해도를 높일 수 있다. On the other hand, the wearable
그리고, 수어서비스 제공 서버(300)는, 시청모드에 따른 수어서비스가 요청되면, 현재 시청중인 방송에 해당하는 사전 제작된 수어방송을 수어방송DB로부터 검색하는 수어방송 검색부(310)와, 현재 시청중인 방송에 수어방송을 싱크시키는 싱크 조정부(340)와, 응용 프로그램 모듈(200)과 연결되어 데이터 송수신을 수행하는 통신부(350)를 포함한다. And, the sign language
수어방송 검색부(310)는, 사전 제작된 수어방송을 저장하는 수어방송 데이터베이스(320)와, TV 방송 프로그램과 매칭되는 수어방송의 편성 정보를 포함하는 수어방송 편성표를 저장하는 수어방송 편성표 데이터베이스(330)를 구비하며, 수어방송 편성표를 조회하여 현재 시청중인 방송과 매칭되는 수어방송이 있는지 먼저 조회하고, 수어방송이 편성표 목록에 있으면 수어방송 DB(320)로부터 매칭되는 수어방송을 호출하고, 이를 싱크 조정부(340)로 전달한다. The sign language
싱크 조정부(340)는, 현재 시청중인 방송과 호출된 수어방송을 싱크시켜 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 통신부(350)를 통해 출력한다. The
다음으로, 도 3 및 도 4를 참조하여 응용 프로그램 모듈이 사용자 단말에 설치된 경우에 대해 설명하도록 한다. 도 3 및 도 4에 도시된 본 발명의 수어서비스 제공 시스템은 도 1 및 도 2에 도시된 수어서비스 제공 시스템과 비교하여 응용 프로그램 모듈(200)이 사용자 단말(400)에 구비된 구성이 다르고 다른 구성은 모두 동일하므로 동일한 구성에 대한 설명은 생략할 수 있다. 그리고, 사용자 단말(400)은, 앱스토어나 서비스 제공자의 웹사이트 등으로 접속하여 응용 프로그램 모듈(200)을 다운로드 받아 구동될 수 있도록 미리 설치 및 저장할 수 있다. Next, a case in which the application program module is installed in the user terminal will be described with reference to FIGS. 3 and 4 . The sign language service providing system of the present invention shown in FIGS. 3 and 4 is different from the sign language service providing system shown in FIGS. 1 and 2 in that the configuration in which the
도 3은, 본 발명의 다른 실시 형태에 따른 수어서비스 제공 시스템의 전체 구성을 나타낸 도면이다.3 is a diagram showing the overall configuration of a sign language service providing system according to another embodiment of the present invention.
도 4는, 도 3에 도시된 응용 프로그램 모듈의 개략적인 구성을 나타낸 도면이다.FIG. 4 is a diagram showing a schematic configuration of the application program module shown in FIG. 3 .
도 3 및 도 4를 참조하면, 본 발명에 따른 수어 서비스 제공 시스템은, 착용형 정보 표출 장치(100)와, 사용자 단말(400)에 구비된 응용 프로그램 모듈(200)과 수어서비스 제공 서버(300)를 포함할 수 있다. Referring to FIGS. 3 and 4 , the sign language service providing system according to the present invention includes a wearable
여기서, 착용형 정보 표출 장치(100)와 사용자 단말(400)은 근거리 무선 통신(예, 블루투스, 지그비, 와이파이 등)을 통해 연동되도록 구현될 수 있다.Here, the wearable
응용 프로그램 모듈(200)과 수어서비스 제공 서버(300)는 네트워크(유선 인터넷 통신이나 WiFi, WiBro 등 무선 인터넷 통신, WCDMA, LTE 등 이동통신 등 유무선 네트워크)를 이용한 인터넷망을 통해 연결되도록 구현될 수 있다. The
착용형 정보 표출 장치(100)는, 수어방송의 증강현실 구현을 지원한다. 여기서, 수어방송은 2차원 또는 3차원 아바타 형태의 증강현실 구현으로 표현될 수 있다. The wearable
이러한 착용형 정보 표출 장치(100)는, 도면으로 도시하지 않았지만, 음성획득부, 영상획득부, 디스플레이부, 통신부, 전원부, 저장부, 조작부, 스위치부, 착탈감지부를 포함하여 구성될 수 있으며, 통신부를 통해 사용자 단말(400)에 구비된 응용 프로그램 모듈(200)과 연동되어 수어서비스를 제공받을 수 있다.Although not shown in the drawings, the wearable
수어서비스는 방송 프로그램을 미리 제작된 수어방송 또는 방송 프로그램의 미리 제작된 수어방송이 없을 경우 실시간 수어 번역을 통해 생성된 수어방송을 제공하되, 수어방송은 2D 또는 3D 아바타 형태로 착용형 정보 표출 장치(100)의 렌즈와 같은 디스플레이부(미도시)의 일부에 증강현실로 표출되는 서비스이다. 여기서, 수어방송은 수어영상 및 자막영상 중 적어도 어는 하나를 포함할 수 있다. Sign language service provides sign language broadcasts generated through real-time sign language translation when there is no pre-produced sign language broadcast of a broadcast program or a broadcast program, but sign language broadcast is a wearable information display device in the form of a 2D or 3D avatar It is a service that is expressed in augmented reality on a part of the display unit (not shown), such as the lens of ( 100 ). Here, the sign language broadcast may include at least one of a sign language image and a caption image.
사용자 단말(200)은, 착용형 정보 표출 장치(100)와 연동되어 수어서비스에 따른 수어방송을 제공하는 응용 프로그램 모듈(200)을 포함한다. The
이러한 사용자 단말(200)은, 도 2에 도시된 구성에 통신부(240)를 더 추가적으로 구비할 수 있으며, 통신부(240)를 통해 수어서비스 제공 서버(300)와 연결되고 실시간 데이터 송수신을 수행할 수 있다. The
응용 프로그램 모듈(200)은, 증강현실을 이용한 수어서비스를 지원하기 위해, 서비스모드 제어부(210), 시청모드 실행부(220), 번역모드 실행부(230), 통신부(240) 및 수어방송 설정부(250)을 포함하여 구성될 수 있다. The
수어서비스는 미리 제작된 수어방송을 제공하는 시청모드와, 실시간 방송에 맞춰서 수어방송을 생성하여 제공하는 번역모드를 포함한다. 여기서, 시청모드는 방송시청시 수어서비스를 제공하는 방송시청모드와 영화관람시 수어서비스를 제공하는 영화시청모드로 구분될 수 있으며, 영화 시청의 경우, 영화관 방문시 영화 관람을 위해 제공될 수 있다. 이러한 수어서비스는 착용형 정보 표출 장치(100)와 실시간 링크를 통해 스트리밍(Streaming)될 수 있다.The sign language service includes a viewing mode in which a pre-produced sign language broadcast is provided, and a translation mode in which a sign language broadcast is generated and provided according to a real-time broadcast. Here, the viewing mode may be divided into a broadcast viewing mode that provides a sign language service when watching a broadcast and a movie viewing mode that provides a sign language service when watching a movie. In the case of movie viewing, it may be provided for watching a movie when visiting a movie theater. . Such a sign language service may be streamed through the wearable
우선, 응용 프로그램 모듈(200)의 서비스모드 제어부(210)는, 착용형 정보 표출 장치(100)에 구비된 스위치부의 스위치 on 신호가 입력되면, 시청모드와 번역모드 중 적어도 하나를 실행하도록 제어하되, 시청모드를 먼저 실행한 후, 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 실행하도록 서비스모드의 실행을 제어할 수 있다. First, the service
또한, 서비스모드 제어부(210)는, 착용형 정보 표출 장치(100)의 조작부(미도시)를 구비하고, 사용자가 조작부를 조작하는 것에 의해 서비스모드가 선택되면 선택된 서비스모드를 수행하도록 각 실행부를 제어할 수 있다. In addition, the service
먼저, 시청모드 실행부(220)는, 방송 시청모드가 실행되면, 영상획득부(120)를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널에 매칭되는 미리 제작된 수어방송을 수어서비스 제공 서버(300)로 요청한다.First, the viewing
그러면, 수어서비스 제공 서버(300)는, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 방송 프로그램과 미리 제작된 수어방송을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고 있으며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 일치하는 방송 채널이 있으면, 일치하는 방송 채널과 매칭된 수어방송을 검색하고, 검색된 수어방송을 방송 채널과 싱크시켜 제공한다.Then, the sign language
또한, 시청모드 실행부(220)는, 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 영화에 대응하는 수어영상을 검색하고, 영화 선택 정보가 입력되지 않을 경우, 영상획득부(120)를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 수어서비스 제공 서버(300)로 요청한다.In addition, the viewing
그러면, 수어서비스 제공 서버(300)는, 영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 편성 정보를 포함하는 영화관람 편성표를 각각 저장하고, 응용 프로그램 모듈의 시청모드 실행부(220)로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 조회하여 해당하는 수어방송을 찾아 제공할 수 있다. 이때, 수어서비스 제공 서버(300)는, 사전에 분석된 영화 시작 지점과, 영상획득부를 이용한 영화 화면 트레킹을 수행하여 자동으로 인식된 영화 시작 지점을 일치시킴으로써 수어방송과 영화 화면의 싱크를 맞출 수 있다.Then, the sign language
그런 다음, 시청모드 실행부(220)는, 요청된 방송 채널과 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. 즉, 수어방송은, 착용형 정보 표출 장치(100)에 구비된 디스플레이부(130)의 설정된 영역에 증강현실로 표출된다. 이때, 수어방송은 수어서비스 제공 서버(300)에서 현재 방송 채널에 실시간 싱크되어 제공될 수 있다.Then, when the sign language broadcast synchronized with the requested broadcast channel is transmitted from the sign language
또한, 시청모드 실행부(220)는, 요청된 영화와 싱크된 수어방송이 수어서비스 제공 서버(300)로부터 전달되면, 제공된 수어방송을 디스플레이부(130)에 증강현실로 스트리밍할 수 있다. In addition, when the sign language broadcast synchronized with the requested movie is transmitted from the sign language
한편, 서비스모드 제어부(210)는, 수어서비스 제공 서버(300)에서 현재 방송에 대한 수어방송의 검색에 실패한 경우, 번역모드 서비스로 전환을 수행할 수 있다. 즉, 서비스모드 제어부(210)는, 현재 시청중인 방송에 대한 사전 제작된 수어방송이 검색되지 않을 경우, 번역모드 실행부(230)로 실시간 수어 번역 서비스를 요청할 수 있다.Meanwhile, the service
번역모드 실행부(230)는, 음성인식부(231), 음성-수어 매칭부(232), 수어영상 생성부(234), 음성-단어 전환부(235), 자막영상 생성부(236) 및 수어방송 생성부(237)를 포함할 수 있다.The translation
음성인식부(231)는, 번역모드 실행되면, 착용형 정보 표출 장치(100)와 연동되어 음성신호를 요청하고, 이를 전달받는다. When the translation mode is executed, the
즉, 음성인식부(231)는, 착용형 정보 표출 장치(100)의 음성획득부로부터 전달되는 음성신호로부터 음성을 인식하고, 인식된 음성을 음성-수어 매칭부(232)로 전달한다.That is, the
음성-수어 매칭부(232)는, 데이터베이스화된 음성-수어 매칭 DB(233)를 구비하며, 인식된 음성을 음성-수어 매칭 DB(233)에 저장된 음성과 순차적으로 비교하고, 인식된 음성과 동일한 음성이 있으면, 동일한 음성에 해당하는 수어를 호출하고, 호출된 수어를 수어영상 생성부(234)로 전달한다. 음성-수어 매칭 DB(233)에 저장된 수어는 음성에 매칭되는 수어 동작에 대한 수어이미지이거나 수어이미지들이 연결된 동영상일 수 있다.The voice-sign
수어영상 생성부(234)는, 음성-수어 매칭DB(233)에서 호출된 수어들을 연결하여 수어영상을 생성한다. 수어영상은 수어이미지가 연속적으로 연결된 동영상일 수 있다.The sign language
또한, 수어영상 생성부(234)는, 인식된 음성과 매칭된 수어와 함께 사람의 감정을 추론하기 위한 부가정보를 상황적으로 결합시켜 수어영상을 생성하도록 구현될 수도 있다. 이로써 상황에 맞춰 자연스런 표현이 가능한 수어영상을 생성할 수 있다.Also, the sign language
예를 들어, 부가정보는, 음성 언어 사용자의 감정을 추측하기 위한 음성의 속도, 어조, 크기, 음색 등의 비언어 정보를 포함할 수 있다. 이러한 부가정보는, 음성을 수어로 번역함에 있어서 음성 언어 사용자의 감정을 얼굴표정 및 몸짓의 비수지신호로 번역하기 위한 정보이다. For example, the additional information may include non-verbal information such as speed, tone, size, and tone of the voice for estimating the emotion of the voice language user. This additional information is information for translating the emotions of the voice language user into non-signal signals of facial expressions and gestures when translating voice into sign language.
그래서, 수어영상 생성부(234)는, 착용형 정보 표출 장치(100)의 영상획득부로부터 획득된 영상신호로부터 부가정보를 획득하고 분석하기 위하여, 음성 스케일링 변조, 얼굴 인식, 동작을 인식하는 모션 인식 등을 수행할 수 있다. 추출한 정보에 기초하여 음성 언어 사용자의 감정이 어떤 종류의 감정인지 분류하여 라벨링하고 그 크기를 수치화하여 비수지수어를 표현하기 위한 부가정보를 생성할 수 있다.Therefore, the sign language
즉, 수어영상 생성부(234)는, 사람 형상의 2D 또는 3D 모델이 연속적으로 수행하는 수어동작에 부가정보를 반영하여 수어영상을 생성할 수 있다. That is, the sign language
따라서 화면 속 배우가 음성의 속도, 어조, 크기, 음색, 표정, 몸동작 등으로 나타낸 감정의 종류 및 크기가 청각장애인이 시각적으로 인식할 수 있는 표정, 손의 이동속도, 시선 등의 비수지기호로 수어영상에 반영되므로, 청각장애인이 화면 속 배우의 감정의 종류 및 크기를 인식할 수 있다.Therefore, the type and size of the emotions expressed by the actors in the screen through the speed, tone, size, tone, facial expression, and body movements of the actors can be visually recognized by the deaf person, using non-responsible symbols such as facial expression, hand movement speed, and gaze. Since it is reflected in the image, the hearing impaired can recognize the type and size of the actor's emotions in the screen.
음성-단어 전환부(235)는, 음성인식부(231)에서 인식된 음성을 텍스트 형식으로 변환하기 위해, 인식된 음성을 단어로 전환하고, 전환된 단어들을 자막영상 생성부(236)로 전달한다.The voice-
자막영상 생성부(236)는, 전달된 단어들을 연결하여 문장화하고 텍스트 형식으로 시각적으로 표시하는 자막영상을 생성하고, 생성된 자막영상을 수어방송 생성부(237)로 전달한다.The caption
수어방송 생성부(237)는, 생성된 수어영상과 자막영상을 이용하여 수어방송을 생성하되, 수어방송은 수어영상 및 자막영상 중 적어도 하나의 영상을 포함할 수 있다. 예를 들어, 수어방송은 수어영상만 포함하거나 자막영상만 포함할 수 있으며, 또한, 수어영상과 자막영상 모두 포함할 수 있다. 이로써, 사용자의 요청에 따라 자막영상 및 수어영상을 동시 표출 또는 개별 표출의 선택이 가능하도록 응용 프로그램 모듈을 실행시 사용자 단말(400)의 사용자 인터페이스(UI)를 이용해 설정할 수 있도록 구현할 수 있다. The sign language
수어방송 생성부(238)는, 통신부(240)를 통해 착용형 정보 표출 장치(100)로 수어방송을 제공할 수 있다. The sign language
또한, 응용 프로그램 모듈(200)의 수어방송 설정부(250)는, 증강현실 구현 화면의 수어방송 크기, 위치 및 투명도를 조절할 수 있다. 즉, 사용자가 방송 화면을 시청하는 데 있어 불편이 없도록 수어방송의 크기, 위치 및 투명도를 조절할 수 있다. 이를 통해 방송화면과 수어방송의 동시 시청이 용이할 뿐만 아니라 실제 방송 시청에 더욱 집중할 수 있게 된다. In addition, the sign language
그리고, 수어서비스 제공 서버(300)는, 시청모드에 따른 수어서비스가 요청되면, 현재 시청중인 방송에 해당하는 사전 제작된 수어방송을 수어방송DB(320)로부터 검색하는 수어방송 검색부(310)와, 현재 시청중인 방송에 수어방송을 싱크시키는 싱크 조정부(340)와, 응용 프로그램 모듈(200)과 연결되어 데이터 송수신을 수행하는 통신부(350)를 포함한다. In addition, the sign language
수어방송 검색부(310)는, 사전 제작된 수어방송을 저장하는 수어방송 DB(320)와, TV 방송 프로그램과 미리 제작된 수어방송을 매칭한 수어방송 편성정보를 포함하는 수어방송 편성표를 저장하는 수어방송 편성표 DB(330)를 구비하며, 시청모드 실행부(220)로부터 요청된 방송 채널을 수어방송 편성표에서 조회하여 매칭되는 방송 채널이 있으면, 해당 수어방송을 수어방송 DB(320)로부터 검색하여 호출하고, 이를 싱크 조정부(340)로 전달한다. The sign language
싱크 조정부(340)는, 현재 시청중인 방송과 호출된 수어방송을 싱크시켜 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출되도록 통신부(350)를 통해 출력한다. The
즉, 싱크 조정부(340)는, 시청모드시, 현재 시청중인 방송에 호출된 수어방송을 싱크시켜 통신부(350)를 통해 응용 프로그램 모듈(200)로 전달하고, 이를 통해 현재 시청중인 방송에 수어방송이 싱크되어 착용형 정보 표출 장치(100)의 디스플레이부(130)에 표출될 수 있다. 이때, 싱크 조정부(340)는, 수어방송의 스트리밍시 실시간 싱크 조정을 지원할 수 있다. That is, in the viewing mode, the
또한, 싱크 조정부(340)는, 공중파 및 IPTV 등 TV 방송 일정 및 실시간 목록을 추출하여 TV 방송과 수어방송의 싱크(Sync) 연동을 진행할 수 있다.Also, the
상술한 바와 같이 본 발명에 따른 수어서비스 제공 시스템은, 방송화면과 별도로 증강현실로 구현한 수어방송을 사용자의 착용형 정보 표출 장치를 통해 사용자의 눈앞에 제공함으로써 수어방송이 필요하지 않은 다른 시청자가 불편함 없이 함께 방송 시청이 가능할 수 있으며, 수어방송을 사용자가 보기 좋은 위치, 크기 및 투명도로 설정하여 표출함으로써 사용자의 방송 시청 집중도 및 방송 내용 이해도를 높일 수 있다.As described above, the sign language service providing system according to the present invention provides sign language broadcasting implemented in augmented reality separately from the broadcasting screen in front of the user's eyes through the user's wearable information display device, so that other viewers who do not need sign language broadcasting It is possible to watch the broadcast together without any inconvenience, and by setting the sign language broadcast to a location, size and transparency that the user can see, it is possible to increase the user's concentration on broadcast viewing and understanding of the broadcast content.
또한, 본 발명에 따른 수어서비스 제공 시스템은, 사전 제작된 수어방송뿐만 아니라 실시간 번역을 통해 생성된 수어방송의 제공을 자동으로 처리함으로써 방송 프로그램의 제약 없이 실시간으로 수어방송과 함께 방송 시청이 가능할 수 있다. In addition, the sign language service providing system according to the present invention automatically processes the provision of sign language broadcasts generated through real-time translation as well as pre-produced sign language broadcasts, so that it is possible to watch broadcasts together with sign language broadcasts in real time without restriction of the broadcast program. have.
도 5는, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템을 활용한 수어서비스의 구현 예를 나타낸 도면으로, (a)는 수어방송의 증강현실 화면의 위치 설정(A, B)을, (b)는 수어방송의 증강현실 화면의 투명도 설정(A, B)을, (c)는 착용형 정보 표출 장치의 디스플레이부에 표출된 예를 각각 나타낸다.5 is a view showing an implementation example of a sign language service using a sign language service providing system according to an embodiment of the present invention, (a) is the location setting (A, B) of the augmented reality screen of the sign language broadcasting, ( b) shows the transparency settings (A, B) of the augmented reality screen of sign language broadcasting, and (c) shows examples displayed on the display unit of the wearable information display device, respectively.
도 5의 (a) 및 (b)에 도시된 바와 같이, 본 발명에 따른 수어방송의 증강현실 구현 화면의 위치(A, B) 및 투명도(C, D)를 청각장애 사용자의 요청에 따라 변경하여 설정할 수 있다. 이를 통해 청각장애 사용자가 수어방송를 가장 자연스럽게 인식하고 방송 시청의 집중도를 높일 수 있도록 할 수 있다. As shown in (a) and (b) of Figure 5, the position (A, B) and transparency (C, D) of the augmented reality implementation screen of sign language broadcasting according to the present invention is changed according to the request of the hearing impaired user can be set by Through this, the hearing impaired users can most naturally recognize sign language broadcasting and increase the concentration of broadcasting viewing.
도 5의 (c)에 도시된 바와 같이, 본 발명에 착용형 정보 표출 장치의 디스플레이부의 설정 영역에 표출될 수 있다.As shown in (c) of Figure 5, it can be displayed in the setting area of the display unit of the present invention wearable information display device.
상술한 바와 같이, 본 발명에 따른 수어서비스 제공 시스템은, 증강현실 구현 화면을 청각장애 사용자가 인지하기 편리한 위치, 크기 및 투명도로 설정함으로써 방송 시청의 집중도와 방송 내용의 이해도를 높일 수 있다. As described above, the sign language service providing system according to the present invention can increase the concentration of broadcasting viewing and the understanding of broadcasting contents by setting the augmented reality realization screen to a position, size, and transparency convenient for a hearing impaired user to recognize.
뿐만 아니라, 착용형 정보 표출 장치의 디스플레이부에 수어방송을 표출하여 청각장애 사용자에게만 수어방송을 제공함으로써 수어방송을 제공받지 않는 다른 시청자가 불편함을 느끼지 않고 동시 시청이 가능하게 할 수 있다.In addition, by providing sign language broadcasting only to hearing impaired users by expressing sign language broadcasting on the display unit of the wearable information display device, other viewers who are not provided with sign language broadcasting can be viewed simultaneously without feeling uncomfortable.
이하, 본 발명의 일 실시 형태에 따른 수어서비스 제공 시스템의 서비스모드를 구현한 실시예를 설명하도록 한다. Hereinafter, an embodiment in which the service mode of the sign language service providing system according to an embodiment of the present invention is implemented will be described.
[서비스모드 중 방송 시청모드 실시예][Example of broadcast viewing mode in service mode]
1. 응용 프로그램 모듈이 사용자 단말에 설치된 경우의 실시예1. Example in case the application module is installed in the user terminal
사용자는 사용자 단말의 응용 프로그램 모듈을 실행하고 현재 시청 가능한 수어방송을 검색할 수 있다. 이때, 응용 프로그램 모듈은 사용자 인터페이스(User Interface) 화면을 통해 수어방송 편성표를 제공하고, 사용자의 선택을 대기한다.The user may execute an application program module of the user terminal and search for currently viewable sign language broadcasts. At this time, the application program module provides a sign language broadcast schedule through a user interface screen, and waits for the user's selection.
사용자가 사용자 단말의 UI 화면을 통해 제공된 수어방송 편성표로부터 수어방송을 선택하면, 응용 프로그램 모듈은 수어서비스 제공 서버에 선택된 수어방송을 요청하여 제공받아 착용형 정보 표출 장치의 디스플레이부에 증강현실로 표출한다. 이때, 수어서비스 제공 서버는 수어방송을 실시간 스트리밍 방식으로 제공하되, 방송 일정 및 실시간 방송 목록을 추출하여 현재 시청중인 방송과 수어방송의 싱크 연동을 수행한다.When the user selects a sign language broadcasting from the sign language broadcasting schedule provided through the UI screen of the user terminal, the application module requests and receives the selected sign language broadcasting from the sign language service providing server, and displays it in augmented reality on the display unit of the wearable information display device do. At this time, the sign language service providing server provides the sign language broadcasting in a real-time streaming method, but by extracting the broadcasting schedule and the real-time broadcasting list, the currently viewed broadcasting and the sign language broadcasting are synchronized.
한편, 응용 프로그램 모듈은, 현재 시청가능한 수어방송이 없는 경우, 번역모드 전환을 수행할지 여부를 확인하는 UI 화면을 구성하여 사용자 단말에 표시할 수 있다. 사용자가 번역모드 전환을 요청할 경우, 실시간 방송에 맞춰서 수어방송을 생성한 후 수어방송이 실시간 링크를 통해 착용형 정보 표출 장치의 디스플레이부에 표출될 수 있도록 제어한다.On the other hand, when there is no sign language broadcast currently viewable, the application program module may configure a UI screen for confirming whether to perform translation mode conversion and display it on the user terminal. When the user requests to change the translation mode, a sign language broadcast is generated according to the real-time broadcast, and then the sign language broadcast is controlled to be displayed on the display unit of the wearable information display device through a real-time link.
2. 응용 프로그램 모듈이 착용형 정보 표출 장치에 설치된 경우의 실시예2. Example when the application module is installed in the wearable information display device
사용자가 착용형 정보 표출 장치의 전원을 키고 착용하면, 응용 프로그램 모듈은, 착용형 정보 표출 장치에 구비된 영상획득부가 촬영한 영상으로부터 방송 화면의 움직임을 분석하여 현재 시청중인 방송 채널을 인식한다. When the user turns on the wearable information display device and wears it, the application module recognizes the broadcast channel currently being viewed by analyzing the motion of the broadcast screen from the image captured by the image acquisition unit provided in the wearable information display device.
그런 다음, 응용 프로그램 모듈은 인식된 방송 채널의 수어방송을 수어서비스 제공서버로 요청하고, 수어서비스 제공 서버는 수어방송을 제공하되, 방송 일정 및 실시간 목록을 추출하여 시청중인 방송 채널과 수어방송의 싱크 연동을 수행한다.Then, the application program module requests sign language broadcasting of the recognized broadcasting channel to the sign language service providing server, and the sign language service providing server provides sign language broadcasting, but extracts the broadcasting schedule and real-time list of the currently watched broadcasting channel and sign language broadcasting. Perform sync linkage.
한편, 인식된 방송 채널의 수어방송이 없는 경우, 실시간 방송에 맞춰서 수어방송을 실시간으로 생성한 후 착용형 정보 표출 장치의 디스플레이부에 증강현실로 구현하는 번역모드 서비스가 자동으로 수행될 수 있다.On the other hand, when there is no sign language broadcasting of the recognized broadcasting channel, after generating a sign language broadcasting in real time according to the real-time broadcasting, a translation mode service implemented in augmented reality on the display unit of the wearable information display device may be automatically performed.
[서비스모드 중 영화 시청모드 실시예][Example of movie viewing mode in service mode]
사용자는 영화관 방문시 착용형 정보 표출 장치 및 응용 프로그램 모듈을 구비하여 영화영상과 수어방송을 함께 관람할 수 있다. When a user visits a movie theater, a wearable information display device and an application program module are provided so that the user can watch movie images and sign language broadcasting together.
이때, 착용형 정보 표출 장치는 영화관에서 제공할 수 있으며, 수어서비스 제공 서버와 연결되어 수어서비스를 제공하는 응용 프로그램 모듈은 사용자의 휴대 단말에 내려받기를 통해 구비되거나 착용형 정보 표출 장치에 미리 내려받기를 통해 설치될 수 있다.At this time, the wearable information display device may be provided by the cinema, and the application module that is connected to the sign language service providing server and provides the sign language service is provided through downloading on the user's mobile terminal or downloaded in advance to the wearable information display device. It can be installed via Receiving.
먼저, 응용 프로그램 모듈이 사용자 단말에 설치된 경우, 사용자가 응용 프로그램 모듈을 실행하고, 응용 프로그램 모듈의 실행에 따른 UI 화면을 통해 사용자가 영화를 선택하면, 영화 선택 정보에 해당하는 수어방송을 수어서비스 제공 서버로부터 검색하고, 검색된 수어방송을 영화 시작과 함께 스트리밍되도록 착용형 정보 표출 장치로 제공할 수 있다. First, when the application module is installed in the user terminal, the user executes the application module, and when the user selects a movie through the UI screen according to the execution of the application module, sign language broadcasting corresponding to the movie selection information is provided. It may be retrieved from the providing server, and the searched sign language broadcast may be provided to the wearable information display device to be streamed together with the start of the movie.
이때, 영화의 싱크는 사전에 분석된 시작 지점과 증강현실 안경 혹은 휴대전화로 화면을 트레킹할 경우 자동으로 영화 시작 지점 인식을 통해 수어와 화면의 싱크를 맞춘다. At this time, the movie sync matches the sign language and the screen by automatically recognizing the movie starting point when tracking the screen with the pre-analyzed starting point and augmented reality glasses or mobile phone.
한편, 사용자가 영화를 선택하지 않은 경우, 착용형 정보 표출 장치에 구비된 영상획득부를 통해 영화 화면을 트래킹하여 현재 상영 영화를 인식하며 자동으로 수어방송과 화면 싱크를 맞춰줄 수 있다. On the other hand, when the user does not select a movie, the movie screen is tracked through the image acquisition unit provided in the wearable information display device to recognize the currently screened movie and automatically synchronize the screen with the sign language broadcast.
또한, 응용 프로그램 모듈은, 수어방송뿐만 아니라 자막방송을 동시 제공 또는 개별로 제공할 수 있다.In addition, the application program module can provide not only sign language broadcasting but also closed caption broadcasting simultaneously or individually.
자막서비스의 경우, 국문은 물론 다양한 외국어 서비스를 제공하여 청각 장애인뿐만 아니라 외국인의 국내 영화 시청시에도 활용 가능하다.In the case of subtitle service, it provides not only Korean but also various foreign language services, so it can be used not only for the deaf, but also for foreigners to watch domestic movies.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Anyone with ordinary knowledge in the field to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the spirit of the present invention is limited to the described embodiments and should not be determined, and not only the claims to be described later, but also all technical ideas that are equivalent or equivalent to the claims are included in the scope of the present invention. Should be interpreted as.
100. 착용형 정보 표출 장치 200. 응용 프로그램 모듈
300. 수어서비스 제공 서버 400. 사용자 단말100. Wearable
300. Sign language
Claims (3)
상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및
상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고,
영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고,
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부;
상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부;
상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부;
상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부;
상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및
전원의 on/off를 제어하는 스위치부;를 적어도 포함하며,
상기 응용 프로그램 모듈은, 상기 착용형 정보 표출 장치에 구비되되,
상기 스위치부의 스위치 on 신호가 입력되면, 미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부;
상기 방송 시청모드가 실행되면, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널 정보에 매칭되는 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보가 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부;
상기 번역모드가 실행되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부; 및
상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부;를 포함하는 것을 특징으로 하는 수어서비스 제공 시스템.A wearable information display device for expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality;
an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and
It is connected to the application program module, and stores a sign language broadcast prepared in advance corresponding to a broadcast program, a sign language broadcast schedule table including programming information matching the previously produced sign language broadcast and the broadcast program, respectively, and the application program module When a sign language broadcast of a broadcast program is requested from , the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized ,
A sign language broadcast prepared in advance corresponding to a movie and a movie viewing schedule matching the sign language broadcasting and the movie are stored, respectively, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is used A sign language service providing server that provides a corresponding sign language broadcast;
The wearable information display device includes: a spectacle body made of a spectacle structure;
a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal;
an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof;
a communication unit provided in the glasses body unit and performing data transmission/reception;
a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and
It includes at least a switch unit for controlling the on/off of the power.
The application module is provided in the wearable information display device,
When the switch-on signal of the switch unit is input, a pre-produced sign language broadcast is provided in augmented reality, but when there is no pre-made sign language broadcast and a viewing mode including a broadcast viewing mode and a movie viewing mode, a real-time sign language broadcast is generated. a service mode control unit executing at least one of the service modes including the provided translation mode;
When the broadcast viewing mode is executed, the current broadcast channel is recognized by analyzing the motion of the currently watched broadcast screen from the video signal captured through the image acquisition unit, and a pre-made sign language broadcast matching the recognized current broadcast channel information is performed. A sign language broadcast requested by the sign language service providing server is controlled to be displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is retrieved. and, when the movie selection information is not input, screen tracking through the image acquisition unit is performed to recognize a currently playing movie, and a sign language broadcast matching the recognized currently playing movie is searched for in augmented reality on the display unit. a viewing mode execution unit controlling to be expressed;
When the translation mode is executed, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality; and
and a sign language broadcasting setting unit for adjusting at least one of a position, size, and transparency of a sign language broadcast displayed on the display unit.
상기 착용형 정보 표출 장치와 연동되며, 상기 수어방송을 상기 착용형 정보 표출 장치로 실시간 출력하는 응용 프로그램 모듈; 및
상기 응용 프로그램 모듈과 연결되며, 방송 프로그램에 상응하여 미리 제작된 수어방송과, 상기 미리 제작된 수어방송 및 상기 방송 프로그램을 매칭시킨 편성 정보를 포함하는 수어방송 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 방송 프로그램의 수어방송이 요청되면, 저장된 수어방송 편성표를 검색하여 상기 방송 프로그램의 수어방송이 존재하면 해당 수어방송을 상기 응용 프로그램 모듈로 제공하되, 상기 방송 프로그램과 수어방송의 싱크 연동을 수행하고,
영화에 상응하여 미리 제작된 수어방송과, 상기 수어방송 및 상기 영화를 매칭시킨 영화관람 편성표를 각각 저장하고, 상기 응용 프로그램 모듈로부터 영화에 대응하는 수어방송이 요청되면, 저장된 영화관람 편성표를 이용하여 해당하는 수어방송을 제공하는 수어서비스 제공 서버;를 포함하고,
상기 착용형 정보 표출 장치는, 안경 구조로 이루어진 안경 바디부;
상기 안경 바디부에 구비되고, 외부에서 발생되는 음성을 입력받아 음성 신호를 출력하는 음성획득부;
상기 안경 바디부에 구비되고, 전면을 촬영하여 영상 신호를 출력하는 영상획득부;
상기 안경 바디부에 구비되고, 데이터 송수신을 수행하는 통신부;
상기 안경 바디부의 전면에 구비된 렌즈에 수어방송을 증강현실로 표출하는 디스플레이부; 및
전원의 on/off를 제어하는 스위치부;를 적어도 포함하며,
상기 응용 프로그램 모듈은, 사용자 단말에 구비되되,
미리 제작된 수어방송을 증강현실로 제공하되, 방송 시청모드와 영화 시청모드를 포함하는 시청모드 및 미리 제작된 수어방송이 없는 경우, 실시간 수어방송을 생성하여 제공하는 번역모드를 포함하는 서비스모드 중 적어도 하나를 실행하는 서비스모드제어부;
상기 방송 시청모드가 실행되면, 상기 사용자 단말의 사용자 인터페이스 화면을 통해 수어서비스가 가능한 방송 채널이 선택되면, 선택된 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 방송 채널의 선택이 없는 경우, 상기 영상획득부를 통해 촬영된 영상 신호로부터 현재 시청중인 방송 화면의 움직임을 분석하여 현재 방송 채널을 인식하고, 인식된 현재 방송 채널의 미리 제작된 수어방송을 상기 수어서비스 제공 서버로 요청하고, 수신되는 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하고, 상기 영화 시청모드가 실행되면, 영화 선택 정보의 입력될 경우, 상기 영화에 대응하는 수어영상을 검색하고, 상기 영화 선택 정보가 입력되지 않을 경우, 상기 영상획득부를 통한 화면 트래킹을 수행하여 현재 상영중인 영화를 인식하고, 인식된 현재 상영 영화에 매칭되는 수어방송을 검색하여 상기 디스플레이부에 증강현실로 표출되도록 제어하는 시청모드 실행부;
상기 번역모드가 선택되면, 상기 음성획득부로부터 출력된 음성신호로부터 음성을 인식하고, 상기 인식된 음성에 매칭되는 수어를 검색하고 검색된 수어를 연결하여 수어영상을 생성하고, 상기 인식된 음성에 매칭되는 단어를 검색하고 검색된 단어의 조합을 통해 문장을 구성하여 자막영상을 생성하고, 생성된 수어영상 및 자막영상 중 적어도 하나를 포함하는 수어방송을 생성하고, 생성된 수어방송이 상기 디스플레이부에 증강현실로 표출되도록 제어하는 번역모드 실행부;
상기 디스플레이부에 표출되는 수어방송의 위치, 크기 및 투명도 중 적어도 하나를 조절하는 수어방송 설정부; 및
수어방송의 송수신을 수행하는 통신부;를 포함하는 것을 특징으로 하는 수어서비스 제공 시스템.A wearable information display device for expressing sign language broadcasting including at least one of a sign language image and a caption image using augmented reality;
an application program module that is interlocked with the wearable information display device and outputs the sign language broadcast to the wearable information display device in real time; and
It is connected to the application program module, and stores a sign language broadcast prepared in advance corresponding to a broadcast program, a sign language broadcast schedule table including programming information matching the previously produced sign language broadcast and the broadcast program, respectively, and the application program module When a sign language broadcast of a broadcast program is requested from , the stored sign language broadcast schedule is searched and, if there is a sign language broadcast of the broadcast program, the corresponding sign language broadcast is provided to the application program module, but the broadcast program and the sign language broadcast are synchronized ,
A sign language broadcast prepared in advance corresponding to a movie and a movie viewing schedule matching the sign language broadcasting and the movie are stored, respectively, and when a sign language broadcasting corresponding to the movie is requested from the application program module, the stored movie viewing schedule is used A sign language service providing server that provides a corresponding sign language broadcast;
The wearable information display device includes: a spectacle body made of a spectacle structure;
a voice acquisition unit provided in the glasses body unit, receiving an externally generated voice and outputting a voice signal;
an image acquisition unit provided in the glasses body portion and outputting an image signal by photographing the front thereof;
a communication unit provided in the glasses body unit and performing data transmission/reception;
a display unit for expressing sign language broadcasting in augmented reality on a lens provided on the front of the glasses body; and
It includes at least a switch unit for controlling the on/off of the power.
The application module is provided in the user terminal,
Among the service modes that provide a pre-produced sign language broadcast in augmented reality, a viewing mode including a broadcast viewing mode and a movie viewing mode, and a translation mode that generates and provides real-time sign language broadcasts when there is no pre-produced sign language broadcast a service mode control unit executing at least one;
When the broadcast viewing mode is executed, when a broadcast channel capable of sign language service is selected through the user interface screen of the user terminal, a pre-produced sign language broadcast of the selected broadcast channel is requested to the sign language service providing server, and the broadcast channel is selected In the absence of this, the current broadcasting channel is recognized by analyzing the movement of the currently viewed broadcasting screen from the image signal captured by the image acquisition unit, and a pre-made sign language broadcast of the recognized current broadcasting channel is requested to the sign language service providing server. and control so that the received sign language broadcast is displayed in augmented reality on the display unit, and when the movie viewing mode is executed, when movie selection information is input, a sign language image corresponding to the movie is searched, and the movie selection information When is not input, screen tracking is performed through the image acquisition unit to recognize a currently playing movie, and a sign language broadcast matching the recognized currently screened movie is searched for and controlled to be displayed in augmented reality on the display unit. executive department;
When the translation mode is selected, a voice is recognized from the voice signal output from the voice acquisition unit, a sign language matching the recognized voice is searched for, and a sign language image is generated by connecting the searched sign language, and matching with the recognized voice A caption image is generated by searching for a word to be used and a sentence is constructed through a combination of the searched words, a sign language broadcast including at least one of the generated sign language image and the caption image is generated, and the generated sign language broadcast is augmented on the display unit Translation mode execution unit that controls to be expressed in reality;
a sign language broadcasting setting unit for adjusting at least one of a position, a size, and a transparency of a sign language displayed on the display unit; and
A sign language service providing system comprising a; a communication unit for transmitting and receiving sign language broadcasting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200158967A KR102258991B1 (en) | 2020-11-24 | 2020-11-24 | Sign-language service providing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200158967A KR102258991B1 (en) | 2020-11-24 | 2020-11-24 | Sign-language service providing system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102258991B1 true KR102258991B1 (en) | 2021-06-01 |
Family
ID=76376144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200158967A KR102258991B1 (en) | 2020-11-24 | 2020-11-24 | Sign-language service providing system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102258991B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230043647A (en) * | 2021-09-24 | 2023-03-31 | 고려대학교 세종산학협력단 | Method and apparatus for providing a platform for sign language subtitles video |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130067639A (en) | 2011-12-14 | 2013-06-25 | 한국전자통신연구원 | System and method for providing sign language broadcasting service |
KR20160093481A (en) * | 2015-01-29 | 2016-08-08 | 한국전자통신연구원 | Method for providing additional data, and apparatus for generating additional data, and wearable display |
KR20170063428A (en) * | 2014-09-26 | 2017-06-08 | 가부시키가이샤 아스테무 | Program output apparatus, program management server, supplemental information management server, method for outputting program and supplemental information, and recording medium |
-
2020
- 2020-11-24 KR KR1020200158967A patent/KR102258991B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130067639A (en) | 2011-12-14 | 2013-06-25 | 한국전자통신연구원 | System and method for providing sign language broadcasting service |
KR20170063428A (en) * | 2014-09-26 | 2017-06-08 | 가부시키가이샤 아스테무 | Program output apparatus, program management server, supplemental information management server, method for outputting program and supplemental information, and recording medium |
KR20160093481A (en) * | 2015-01-29 | 2016-08-08 | 한국전자통신연구원 | Method for providing additional data, and apparatus for generating additional data, and wearable display |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230043647A (en) * | 2021-09-24 | 2023-03-31 | 고려대학교 세종산학협력단 | Method and apparatus for providing a platform for sign language subtitles video |
KR102664295B1 (en) * | 2021-09-24 | 2024-05-08 | 고려대학교 세종산학협력단 | Method and apparatus for providing a platform for sign language subtitles video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8931031B2 (en) | Matrix code-based accessibility | |
KR101899588B1 (en) | System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method | |
CN108605166B (en) | Method and equipment for presenting alternative image in augmented reality | |
CN111163274B (en) | Video recording method and display equipment | |
CN112764549B (en) | Translation method, translation device, translation medium and near-to-eye display equipment | |
KR102576388B1 (en) | Display device and operating method thereof | |
KR102258991B1 (en) | Sign-language service providing system | |
US20180366089A1 (en) | Head mounted display cooperative display system, system including dispay apparatus and head mounted display, and display apparatus thereof | |
CN114063771A (en) | Park scene interactive display system based on AR technology | |
CN113489938B (en) | Virtual conference control method, intelligent device and terminal device | |
CN113889114A (en) | Data processing method and device, electronic equipment and storage medium | |
KR102056142B1 (en) | Multi-language subtitle and sound providing system using streaming glass | |
KR20200003291A (en) | Master device, slave device and control method thereof | |
KR20210002797A (en) | Display device | |
US11849171B2 (en) | Deepfake content watch parties | |
US20230179822A1 (en) | Karaoke Content Watch Parties | |
CN113875227A (en) | Information processing apparatus, information processing method, and program | |
CN115359796A (en) | Digital human voice broadcasting method, device, equipment and storage medium | |
CN110910508B (en) | Image display method, device and system | |
CN111736692B (en) | Display method, display device, storage medium and head-mounted device | |
KR20150108546A (en) | personalization service method and system in television linkage wireless terminal | |
CN209859042U (en) | Wearable control device and virtual/augmented reality system | |
JP2023505986A (en) | Multiple output control based on user input | |
KR20170127652A (en) | Broadcast receiver to watch sign language, sign language broadcasting system and sign language broadcasting method having the same | |
KR20100060176A (en) | Apparatus and method for compositing image using a face recognition of broadcasting program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |