KR102552533B1 - Device and method for providing subtitle service - Google Patents

Device and method for providing subtitle service Download PDF

Info

Publication number
KR102552533B1
KR102552533B1 KR1020210101600A KR20210101600A KR102552533B1 KR 102552533 B1 KR102552533 B1 KR 102552533B1 KR 1020210101600 A KR1020210101600 A KR 1020210101600A KR 20210101600 A KR20210101600 A KR 20210101600A KR 102552533 B1 KR102552533 B1 KR 102552533B1
Authority
KR
South Korea
Prior art keywords
caption
language
subtitle
channel
translation
Prior art date
Application number
KR1020210101600A
Other languages
Korean (ko)
Other versions
KR20230019731A (en
Inventor
김용필
백준영
이동현
Original Assignee
주식회사 케이티디에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티디에스 filed Critical 주식회사 케이티디에스
Priority to KR1020210101600A priority Critical patent/KR102552533B1/en
Publication of KR20230019731A publication Critical patent/KR20230019731A/en
Application granted granted Critical
Publication of KR102552533B1 publication Critical patent/KR102552533B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6405Multicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

자막 서비스 제공 장치가 개시된다. 본 발명에 따른 자막 서비스 제공 장치는, 방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득하는 자막 추출 모듈, 및, 상기 자막 텍스트를 이용하여 상기 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성하고, 상기 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에 상기 자막 파일의 자막이 삽입되도록 상기 자막 파일을 배포하는 자막 생성 모듈을 포함한다.An apparatus for providing a caption service is disclosed. An apparatus for providing a caption service according to the present invention includes a caption extracting module that obtains caption text from caption data in a broadcast stream provided from a broadcasting company, and a caption file of broadcast content broadcast in real time by the broadcast stream using the caption text. and a caption generation module for generating and distributing the caption file so that the caption of the caption file is inserted into VOD broadcast content provided by the broadcaster to a VOD service provider.

Description

자막 서비스 제공 장치 및 방법{DEVICE AND METHOD FOR PROVIDING SUBTITLE SERVICE}Apparatus and method for providing subtitle service {DEVICE AND METHOD FOR PROVIDING SUBTITLE SERVICE}

본 발명은, 실시간 방송 스트림으로부터 자막 텍스트를 추출하고, 추출된 자막 텍스트를 이용하여 빠른 VOD 자막을 제공할 수 있는 자막 서비스 제공 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing a caption service capable of extracting caption text from a real-time broadcasting stream and providing fast VOD captions using the extracted caption text.

IPTV(Internet Protocol Television)란 초고속 인터넷 망을 이용하여 영화와 방송프로그램과 같은 동영상 컨텐츠와 인터넷 검색 등 다양한 멀티미디어 컨텐츠를 텔레비전 수상기로 제공하는 양방향 방송 및 통신 서비스이다. 시청자는 리모컨을 이용하여 간단하게 인터넷 검색은 물론 영화 감상, 홈쇼핑, 홈뱅킹, 온라인 게임, MP3 등 인터넷이 제공하는 다양한 컨텐츠 및 부가 서비스를 IPTV로부터 제공받을 수 있다.IPTV (Internet Protocol Television) is an interactive broadcasting and communication service that provides various multimedia contents such as video contents such as movies and broadcasting programs and Internet searches to a television receiver using a high-speed Internet network. Viewers can easily search the Internet using a remote control, as well as enjoy various contents and additional services provided by the Internet, such as watching movies, home shopping, home banking, online games, and MP3, from IPTV.

한편 IPTV(Internet Protocol Television) 서비스는, 방송사로부터 제공되는 실시간 방송 스트림을 서비스 가입자들에게 제공할 뿐만 아니라, 방송사에서 방송한 방송 컨텐츠를 VOD로써 서비스 가입자들에게 제공하기도 한다.Meanwhile, an Internet Protocol Television (IPTV) service not only provides service subscribers with a real-time broadcasting stream provided by a broadcasting company, but also provides broadcast contents broadcasted by a broadcasting company to service subscribers as VOD.

한편 방송사에서는 방송이 끝난 방송 컨텐츠를 VOD 서비스 제공자에게 제공하며, 이것은 빠르면 당일, 보통인 익일에 이루어질 수 있다. 다만 VOD 서비스 제공자가 자막 제공하기 위해서는 수일이 소요되기 때문에, 방송 컨텐츠를 VOD로 제공할 수 있는 시점과 자막을 제공할 수 있는 시점 간에는 시차가 발생하며, 이에 따라 VOD 자막을 빠르게 제공할 수 없는 문제가 있었다.Meanwhile, the broadcasting company provides the broadcasting content that has been broadcasted to the VOD service provider, and this can be done on the same day at the earliest or the next day for ordinary people. However, since it takes several days for VOD service providers to provide subtitles, there is a time lag between the time when broadcasting contents can be provided as VOD and the time when subtitles can be provided, and accordingly, VOD subtitles cannot be provided quickly. there was

본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 실시간 방송 스트림으로부터 자막 텍스트를 추출하고, 추출된 자막 텍스트를 이용하여 빠른 VOD 자막을 제공할 수 있는 자막 서비스 제공 장치 및 방법을 제공하기 위함이다.The present invention is intended to solve the above problems, and an object of the present invention is to provide an apparatus and method for providing a caption service capable of extracting caption text from a real-time broadcasting stream and providing fast VOD captions using the extracted caption text. is to provide

본 발명에 따른 자막 서비스 제공 장치는, 방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득하는 자막 추출 모듈, 및, 상기 자막 텍스트를 이용하여 상기 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성하고, 상기 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에 상기 자막 파일의 자막이 삽입되도록 상기 자막 파일을 배포하는 자막 생성 모듈을 포함한다.An apparatus for providing a caption service according to the present invention includes a caption extracting module that obtains caption text from caption data in a broadcast stream provided from a broadcasting company, and a caption file of broadcast content broadcast in real time by the broadcast stream using the caption text. and a caption generation module for generating and distributing the caption file so that the caption of the caption file is inserted into VOD broadcast content provided by the broadcaster to a VOD service provider.

이 경우 상기 자막 생성 모듈은, 상기 VOD용 방송 컨텐츠를 제공 받은 상기 VOD 서비스 제공자로부터 상기 방송 컨텐츠에 대한 자막 파일 생성 요청이 수신되면, 상기 자막 텍스트를 이용하여 상기 자막 파일을 생성할 수 있다.In this case, when a request for generating a caption file for the broadcast content is received from the VOD service provider receiving the broadcast content for VOD, the caption generation module may generate the caption file using the caption text.

한편 상기 자막 생성 모듈은, 상기 VOD용 방송 컨텐츠 내 오디오로부터 오디오 텍스트를 획득하고, 상기 오디오 텍스트 내 키워드 및 상기 자막 텍스트 내 키워드를 매칭하여 상기 자막 파일의 타임 스탬프를 조절할 수 있다.Meanwhile, the caption generation module may obtain audio text from audio in the VOD broadcast content, and match a keyword in the audio text with a keyword in the caption text to adjust a time stamp of the caption file.

한편 상기 자막 텍스트를 이용하여 생성된 한글 자막 파일을 번역하여 하나 이상의 외국어 자막 파일을 생성하는 자막 번역 모듈을 더 포함하고, 상기 자막 생성 모듈은, 상기 하나 이상의 외국어 자막 파일을 배포할 수 있다.Meanwhile, the subtitle translation module may further include a subtitle translation module for generating one or more foreign language subtitle files by translating a Korean subtitle file generated using the subtitle text, and the subtitle generating module may distribute the one or more foreign language subtitle files.

한편 미디어 재생 장치로부터 실시간 외국어 자막의 요청이 수신되면, 상기 미디어 재생 장치에서 시청중인 채널의 자막 스트림을 번역하여 상기 미디어 재생 장치에 전송하는 자막 전송 모듈을 더 포함할 수 있다.Meanwhile, when a request for a real-time foreign language caption is received from the media playback device, the media playback device may further include a caption transmission module that translates the subtitle stream of the channel being watched and transmits the translation to the media playback device.

이 경우 상기 자막 전송 모듈은, 복수의 채널에 각각 대응하고, 해당하는 언어를 신청한 미디어 재생 장치들의 세션 정보를 저장하는 복수의 언어 게이지를 각각 포함하는 복수의 번역 에이전트를 포함할 수 있다.In this case, the caption transmission module may include a plurality of translation agents each including a plurality of language gauges corresponding to a plurality of channels and storing session information of media playback devices that have applied for a corresponding language.

이 경우 상기 복수의 번역 에이전트는, 제1 채널에 대응하는 제1 번역 에이전트를 포함하고, 상기 제1 번역 에이전트는, 상기 자막 추출 모듈이 상기 제1 채널에서 획득한 자막 스트림을 번역하여 제1 채널-제1 언어 자막 스트림 및 제1 채널-제2 언어 자막 스트림을 생성하고, 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출하고, 제2 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제2 언어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.In this case, the plurality of translation agents include a first translation agent corresponding to a first channel, and the first translation agent translates the subtitle stream obtained from the first channel by the subtitle extraction module to translate the first channel. - Generates a first language subtitle stream and a first channel-second language subtitle stream, and transmits the first channel-first language subtitle stream to media playback devices corresponding to session information stored in a language gauge of the first language. The first channel-second language subtitle stream may be transmitted in a multicast manner to media reproducing devices corresponding to session information stored in the language gauge of the second language.

이 경우 상기 복수의 번역 에이전트는, 제2 채널에 대응하는 제2 번역 에이전트를 더 포함하고, 상기 제1 번역 에이전트는, 상기 제1 번역 에이전트가 유휴 중인 경우, 상기 제2 채널에서 획득한 자막 스트림을 번역하여 제2 채널-제1 언어 자막 스트림을 생성하고, 상기 제2 번역 에이전트 내 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제2 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.In this case, the plurality of translation agents may further include a second translation agent corresponding to a second channel, and the first translation agent may, when the first translation agent is idle, obtain a subtitle stream from the second channel. to generate a second channel-first language subtitle stream, and transmit the second channel-first language subtitle stream to media playback devices corresponding to the session information stored in the language gauge of the first language in the second translation agent. Streams can be transmitted in a multicast manner.

한편 상기 자막 번역 모듈은, 상기 한글 자막 파일 내 일부 텍스트에 대응하는 번역 텍스트를 메모리 캐싱으로부터 추출하여 상기 외국어 자막 파일을 생성하고, 상기 번역 텍스트는, 상기 자막 번역 모듈의 엑세스 횟수에 기초하여 갱신될 수 있다.Meanwhile, the subtitle translation module extracts translated text corresponding to some text in the Korean subtitle file from memory caching to generate the foreign language subtitle file, and the translated text is updated based on the number of accesses of the subtitle translation module. can

한편 본 발명에 따른 자막 서비스 제공 방법은, 방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득하는 단계, 상기 자막 텍스트를 이용하여 상기 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성하는 단계, 및, 상기 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에 상기 자막 파일의 자막이 삽입되도록 상기 자막 파일을 배포하는 단계를 포함한다.Meanwhile, a method for providing a caption service according to the present invention includes obtaining caption text from caption data within a broadcast stream provided from a broadcasting company, and generating a caption file of broadcast content broadcast in real time by the broadcast stream using the caption text. and distributing the caption file so that the caption of the caption file is inserted into VOD broadcast content provided by the broadcaster to a VOD service provider.

이와 같이 본 발명에 따르면, 방송 스트림으로부터 자막 텍스트를 미리 확보해 놓고, VOD용 방송 컨텐츠가 입고되면 미리 확보된 자막 텍스트를 간단히 처리하여 자막 파일로써 제공할 수 있기 때문에, VOD용 방송 컨텐츠가 입고된 즉시 자막(외국어 자막 포함)을 동반한 VOD 서비스를 제공할 수 있는 장점이 있다.As described above, according to the present invention, subtitle text is secured from a broadcast stream in advance, and when VOD broadcast content is received, the previously secured subtitle text can be simply processed and provided as a subtitle file. It has the advantage of providing VOD service with immediate subtitles (including foreign language subtitles).

본 발명에 따르면, 자막 텍스트를 먼저 추출해 놓고, VOD용 방송 컨텐츠의 오디오를 활용하여 타임 스탬프를 조절함으로써, 자막과 음성 간의 싱크가 맞는 VOD 서비스를 제공할 수 있는 장점이 있다. 특히 속기사가 오디오를 듣고 나서 입력하게 되는 방송 자막의 특성 상 딜레이가 발생하는 경우, 실제 방송된 방송 컨텐츠가 편집되어 VOD용으로 제공되는 경우에도, 싱크가 맞는 자막을 제공할 수 있는 장점이 있다.According to the present invention, by first extracting subtitle text and then adjusting a time stamp using audio of VOD broadcast content, there is an advantage in providing a VOD service in which the subtitle and audio are synchronized. In particular, when a delay occurs due to the nature of broadcast subtitles input after the stenographer listens to the audio, there is an advantage in providing subtitles that are in sync even when actually broadcast broadcast content is edited and provided for VOD.

다양한 채널에 대하여 자막 텍스트를 추출하고 번역을 진행하는 본 발명의 특성 상, 다양한 채널, 다양한 번역 언어, 많은 수의 미디어 재생 장치 들에 대한 효율적인 관리가 요구된다. 그리고 본 발명에 따르면, 채널 별 번역 에이전트, 언어 별 언어 게이지를 이용하여 다양한 언어로의 실시간 번역, 번역된 자막의 송출을 효율적으로 관리할 수 있는 장점이 있다.Due to the characteristics of the present invention in which subtitle text is extracted and translated for various channels, efficient management of various channels, various translation languages, and a large number of media playback devices is required. According to the present invention, there is an advantage in that real-time translation into various languages and transmission of translated subtitles can be efficiently managed by using a translation agent for each channel and a language gauge for each language.

또한 본 발명에 다르면 유휴 번역 에이전트의 쓰레드 자원을 효과적으로 활용함으로써, 다른 번역 에이전트의 과부하를 방지하고 한정된 자원을 균형있게 사용하도록 하는 장점이 있다.In addition, according to the present invention, by effectively utilizing thread resources of idle translation agents, there is an advantage in that overload of other translation agents is prevented and limited resources are used in a balanced manner.

도 1은 종래의 VOD 제공 시스템 및 본 발명의 VOD 제공 시스템을 설명하기 위한 도면이다.
도 2는 본 발명에 따른, 자막 서비스 제공 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른, 자막 서비스 제공 장치의 동작 방법 중 VOD 자막 파일을 생성하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명에 따른, 자막 파일의 싱크를 조절하기 위한 방법을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 외국어 자막 파일을 생성하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명에 따른 실시간 번역 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명에 따른 자막 전송 모듈(130)의 동작을 설명하기 위한 도면이다,
도 8a는 언어 게이지를 설명하기 위한 도면이다.
도 8b는 유휴 번역 에이전트의 리소스를 활용하는 방법을 설명하기 위한 도면이다.
1 is a diagram for explaining a conventional VOD providing system and a VOD providing system of the present invention.
2 is a block diagram for explaining the configuration of a caption service providing device according to the present invention.
3 is a diagram for explaining a method of generating a VOD caption file among operating methods of a caption service providing apparatus according to the present invention.
4 is a diagram for explaining a method for adjusting sync of a subtitle file according to the present invention.
5 is a diagram for explaining a method of generating a foreign language subtitle file according to the present invention.
6 is a diagram for explaining a method of providing a real-time translation service according to the present invention.
7 is a diagram for explaining the operation of the caption transmission module 130 according to the present invention.
8A is a diagram for explaining a language gauge.
8B is a diagram for explaining a method of utilizing resources of an idle translation agent.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다. In implementing the present invention, components may be subdivided for convenience of description, but these components may be implemented in one device or module, or one component may be divided into multiple devices or modules may be implemented in

도 1은 종래의 VOD 제공 시스템 및 본 발명의 VOD 제공 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining a conventional VOD providing system and a VOD providing system of the present invention.

방송사는 방송 컨텐츠를 제작, 편집 또는 변경하여 송출할 수 있다. 이 경우 방송사는 방송 스트림을 전송하고, IPTV 서비스 제공자는 방송 스트림을 수신한 후 IPTV 서비스 가입자에게 전송하는 방식으로, 방송 컨텐츠에 대한 실시간 방송이 수행될 수 있다. A broadcaster may produce, edit, or change broadcast content before transmitting it. In this case, real-time broadcasting of broadcast content can be performed in a manner in which the broadcaster transmits a broadcast stream, and the IPTV service provider receives the broadcast stream and transmits the broadcast stream to IPTV service subscribers.

또한 방송 스트림에는 청각 장애인을 위한 자막 데이터가 포함될 수 있으며, 이 경우 방송 자막을 포함하는 방송 컨텐츠가 실시간으로 방송될 수 있다. 이러한 방송 자막은 속기사에 의해 제작되며, 방송사는 방송법에 의해 의무적으로 청각장애인을 위한 방송 자막을 제작 및 송출하고 있다.In addition, the broadcast stream may include caption data for the hearing impaired, and in this case, broadcast content including broadcast captions may be broadcast in real time. Such broadcast subtitles are produced by stenographers, and broadcasting companies are obliged to produce and transmit broadcast subtitles for the hearing impaired according to the Broadcasting Act.

IPTV 서비스 제공자는 VOD 서비스 제공자를 포함할 수 있다. 그리고 도 1a를 참고하면 방송사는 VOD 서비스 제공자에게 방송이 끝난 방송 컨텐츠를 제공한다. 즉 방송 컨텐츠가 입고되면, VOD 서비스 제공자는 입고된 방송 컨텐츠를 VOD(video on demand)로써 서비스 가입자들에게 제공할 수 있다. 그리고 방송 컨텐츠의 입고는 통상적으로 방송 컨텐츠가 방송된 익일에 이루어 진다.IPTV service providers may include VOD service providers. Referring to FIG. 1A , a broadcasting company provides a VOD service provider with finished broadcasting content. That is, when broadcast content is received, the VOD service provider can provide the received broadcast content to service subscribers as video on demand (VOD). Also, the storage of broadcast content is typically performed on the next day after the broadcast content is broadcast.

한편 VOD 서비스 제공자가 VOD 자막을 제공하는 방법으로, 앞서 설명한 방송 자막을 방송사로부터 입수하는 방법이 고려될 수 있다. 다만 실시간 방송에서 청각 장애인을 위한 방송 자막을 제공하는 것이 방송사의 의무인 것과는 달리, VOD 자막을 제공하는 것은 방송사의 의무가 아니므로, VOD 서비스 제공자는 방송사가 방송 자막을 제공하는 경우에 한해서만 VOD 자막을 제공할 수 있는 문제가 발생한다.Meanwhile, as a method for a VOD service provider to provide VOD subtitles, the above-described method of acquiring broadcast subtitles from a broadcasting company may be considered. However, unlike the broadcaster's duty to provide broadcast subtitles for the hearing impaired in real-time broadcasting, it is not the broadcaster's duty to provide VOD subtitles. Therefore, VOD service providers must provide VOD subtitles only when broadcasters provide broadcast subtitles. A problem arises that can provide

또한 VOD 서비스 제공자가 VOD 자막을 제공하는 방법으로, 입고된 방송 컨텐츠의 오디오를 텍스트로써 추출하는 방안이 고려될 수 있다. 다만 이것에는 추가적인 시간 및 비용이 요구되며, STT(Speech To Text) 장치에 의한 텍스트 추출의 경우에는 그 정확도가 현저히 낮아지기 때문에 추가적인 처리가 필요한 문제가 있다. Also, as a method for a VOD service provider to provide VOD subtitles, a method of extracting audio of received broadcast content as text may be considered. However, this requires additional time and cost, and in the case of text extraction by a STT (Speech To Text) device, there is a problem in that additional processing is required because the accuracy is significantly lowered.

따라서 VOD 자막이 완성되기 까지는 수 일이 소요되며, 방송 컨텐츠는 이미(예를 들어 방송 컨텐츠가 방송된 익일) 입고되었음에도 불구하고 VOD 자막을 곧바로 제공할 수 없는 문제가 발생한다.Therefore, several days are required for VOD subtitles to be completed, and VOD subtitles cannot be provided immediately even though broadcast contents have already been received (for example, the next day after broadcast contents were broadcast).

한편 도 1b에서는 본 발명에 따른 VOD 제공 시스템을 도시하였다.Meanwhile, FIG. 1B shows a VOD providing system according to the present invention.

본 발명에서는, 자막 서비스 제공 장치가 방송 스트림 내 자막 데이터로부터 자막 텍스트를 미리 추출하고, 이후에 방송 컨텐츠가 입고되면 미리 추출해놓은 자막 텍스트를 간단히 처리하여 VOD 자막을 제공하는 방식을 취한다. 이에 따라 본 발명에서는 VOD의 입고 후 30분 이내에, VOD 자막의 제공 및 VOD 자막을 이용하여 생성된 번역 자막의 제공까지 가능하다.In the present invention, a caption service providing apparatus extracts caption text from caption data in a broadcasting stream in advance, and when broadcast content is received thereafter, simply processes the extracted caption text to provide VOD captions. Accordingly, in the present invention, it is possible to provide VOD subtitles and translated subtitles generated using VOD subtitles within 30 minutes after VOD is received.

도 2는 본 발명에 따른, 자막 서비스 제공 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram for explaining the configuration of a caption service providing device according to the present invention.

자막 서비스 제공 장치(100)는 데이터베이스(110), 자막 추출 모듈(120), 자막 전송 모듈(130), 자막 번역 모듈(140) 및 자막 생성 모듈(150)을 포함할 수 있다.The caption service providing apparatus 100 may include a database 110, a caption extraction module 120, a caption transmission module 130, a caption translation module 140, and a caption generation module 150.

데이터베이스(110)는 자막 텍스트나, 기타 본 발명의 동작에 필요한 데이터를 저장할 수 있다.The database 110 may store subtitle text or other data necessary for the operation of the present invention.

자막 추출 모듈(120)은 방송사에 조인하여 방송 스트림을 수신하고, 방송 스트림으로부터 자막 데이터를 추출함으로써, 자막 텍스트를 획득할 수 있다. 이 경우 자막 추출 모듈(120)은 자막 텍스트를 데이터베이스(110)에 저장할 수 있다.The caption extracting module 120 may acquire caption text by joining a broadcasting company, receiving a broadcast stream, and extracting caption data from the broadcast stream. In this case, the caption extraction module 120 may store caption text in the database 110 .

자막 전송 모듈(130)은 미디어 재생 장치로부터 외국어 자막 요청을 수신할 수 있다. 또한 자막 전송 모듈(130)은 자막 추출 모듈(120)로부터 자막 스트림을 수신하고, 수신된 자막 스트림을 번역하여 외국어 자막 스트림을 생성한 후 미디어 재생 장치에 전송할 수 있다. 여기서 자막 전송 모듈(130)이 자막 스트림을 번역한다는 것의 의미는, 자막 전송 모듈(130)이 자막 스트림을 직접 번역하는 것뿐만 아니라, 다른 모듈이나 장치(예를 들어 자막 번역 모듈(140) 또는 번역기 등)로 자막 스트림을 전송하여 자막 스트림이 번역되도록 하는 것을 의미할 수 있다.The caption transmission module 130 may receive a foreign language caption request from a media playback device. Also, the caption transmission module 130 may receive a caption stream from the caption extraction module 120, translate the received caption stream, generate a foreign language caption stream, and transmit the stream to a media player. Here, the meaning that the caption transmission module 130 translates the caption stream means that the caption transmission module 130 directly translates the caption stream, as well as other modules or devices (eg, the caption translation module 140 or a translator). etc.) to transmit the subtitle stream to translate the subtitle stream.

자막 번역 모듈(140)은, 자막 스트림 또는 데이터베이스(110)에 저장된 자막 텍스트를 번역할 수 있다. 여기서 자막 번역 모듈(140)이 번역을 한다는 것의 의미는, 자막 번역 모듈(140)이 직접 번역을 수행하는 것뿐만 아니라, 다른 장치(번역기 등)로 자막 스트림 또는 자막 텍스트를 전송하는 것을 의미할 수도 있다.The caption translation module 140 may translate caption streams or caption text stored in the database 110 . Here, the translation by the subtitle translation module 140 may mean that the subtitle translation module 140 not only translates directly, but also transmits a subtitle stream or subtitle text to another device (translator, etc.). there is.

자막 생성 모듈(150)은 자막 텍스트를 이용하여 자막 파일을 생성하고, VOD용 방송 컨텐츠에 자막 파일이 삽입되도록 자막 파일을 배포할 수 있다. 또한 자막 생성 모듈(150)은 자막 파일의 타임 스탬프를 조절함으로써, VOD용 방송 컨텐츠와 자막 파일 간의 싱크를 조절할 수 있다.The caption generation module 150 may generate a caption file using caption text and distribute the caption file so that the caption file is inserted into VOD broadcasting content. Also, the caption generation module 150 may adjust synchronization between VOD broadcast content and a caption file by adjusting a time stamp of the caption file.

한편 자막 서비스 제공 장치(100)는, 통신부, 제어부 및 메모리를 포함할 수 있다.Meanwhile, the caption service providing apparatus 100 may include a communication unit, a control unit, and a memory.

여기서 통신부는 유/무선 네트워크를 통하여 자막 서비스 제공 장치(100)를 다른 장치와 연결하기 위한 인터페이스를 제공할 수 있다. 이 경우 자막 서비스 제공 장치(100)는 통신부를 통하여 다른 장치와 데이터를 송신 및 수신할 수 있다.Here, the communication unit may provide an interface for connecting the caption service providing device 100 with other devices through a wired/wireless network. In this case, the caption service providing device 100 may transmit and receive data with other devices through a communication unit.

한편 제어부는 자막 서비스 제공 장치(100)의 전반적인 동작을 제어할 수 있다. 또한 앞서 설명한 자막 추출 모듈(120), 자막 전송 모듈(130), 자막 번역 모듈(150) 및 자막 생성 모듈(150)은, 제어부의 세부 구성 요소일 수 있다.Meanwhile, the control unit may control overall operations of the caption service providing apparatus 100 . In addition, the above-described caption extraction module 120, caption transmission module 130, caption translation module 150, and caption generation module 150 may be detailed components of the control unit.

한편 메모리는 자막 서비스 제공 장치(100)의 동작을 위한 각종 데이터를 저장할 수 있으며, 앞서 설명한 데이터베이스(110)는 메모리에 의해 구현될 수 있다.Meanwhile, the memory may store various data for the operation of the caption service providing apparatus 100, and the database 110 described above may be implemented by the memory.

도 3은 본 발명에 따른, 자막 서비스 제공 장치의 동작 방법 중 VOD 자막 파일을 생성하는 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of generating a VOD caption file among operating methods of a caption service providing apparatus according to the present invention.

자막 추출 모듈(120)은 방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득할 수 있다(S305).The caption extracting module 120 may obtain caption text from caption data within a broadcast stream provided from a broadcasting company (S305).

구체적으로 자막 추출 모듈(120)은 라우터에 IGMP 조인하여 방송 스트림을 수신할 수 있다. 여기서 방송 스트림은, 방송 프로그램 등, 방송 컨텐츠의 실시간 방송을 위한 것으로, 청각 장애인을 위한 자막 데이터를 포함할 수 있다. 여기서 자막 데이터는, 속기사가 방송 컨텐츠 내 오디오게 기반하여 생성한 방송 자막을 방송 스트림에 삽입한 것일 수 있다.In detail, the caption extraction module 120 may receive a broadcast stream by joining IGMP to a router. Here, the broadcasting stream is for real-time broadcasting of broadcasting content, such as a broadcasting program, and may include caption data for the hearing impaired. Here, the caption data may be broadcast captions generated by a stenographer based on audio in broadcast contents inserted into a broadcast stream.

그리고 자막 추출 모듈(120)은 방송 스트림으로부터 자막 데이터를 추출하고 추출된 자막 데이터를 복호화 함으로써 자막 텍스트를 획득할 수 있다. 또한 자막 추출 모듈(120)는 자막 텍스트를 데이터베이스(110)에 저장할 수 있다(S310).The caption extracting module 120 may obtain caption text by extracting caption data from the broadcast stream and decoding the extracted caption data. Also, the caption extraction module 120 may store caption text in the database 110 (S310).

한편 자막 추출 모듈(120)은 자막 텍스트와 함께 타임 스탬프를 저장할 수 있다. 여기서 타임 스탬프는 자막 텍스트를 구성하는 요소(문장, 단어, 형태소 등)의 시점을 나타내기 위한 것으로, 자막 텍스트에 매칭되어 저장될 수 있다.Meanwhile, the caption extraction module 120 may store a time stamp together with caption text. Here, the time stamp is to indicate the point of time of elements constituting the caption text (sentence, word, morpheme, etc.), and may be matched with the caption text and stored.

한편 자막 추출 모듈(120)은 복수의 자막 추출 에이전트를 포함할 수 있다. 여기서 자막 추출 에이전트는 해당하는 채널에 조인하여 방송 스트림을 수신하고, 방송 스트림으로부터 자막 텍스트를 획득할 수 있다.Meanwhile, the caption extraction module 120 may include a plurality of caption extraction agents. Here, the caption extraction agent may join a corresponding channel, receive a broadcast stream, and acquire caption text from the broadcast stream.

예를 들어 제1 자막 추출 에이전트는 제1 채널에 조인하여 제1 채널의 방송 스트림을 수신하고, 제1 채널의 방송 스트림으로부터 제1 채널의 자막 텍스트를 획득할 수 있다. 또한 제2 자막 추출 에이전트는 제2 채널에 조인하여 제2 채널의 방송 스트림을 수신하고, 제2 채널의 방송 스트림으로부터 제2 채널의 자막 텍스트를 획득할 수 있다.For example, the first caption extraction agent may join the first channel, receive a broadcast stream of the first channel, and acquire caption text of the first channel from the broadcast stream of the first channel. Also, the second caption extraction agent may join the second channel, receive a broadcast stream of the second channel, and acquire caption text of the second channel from the broadcast stream of the second channel.

또한 자막 추출 모듈(120)은 획득된 자막 텍스트를 방송 컨텐츠 별로 분리하여 저장할 수 있다. 예를 들어 제1 자막 추출 에이전트는 제1 채널에서 방송된 제1 방송 컨텐츠(예를 들어 A 드라마)의 자막 텍스트를 데이터베이스(110)에 저장하고, 제1 채널에서 방송된 제2 방송 컨텐츠(예를 들어 B 예능 프로그램)의 자막 텍스트를 데이터베이스(110)에 저장할 수 있다.Also, the caption extraction module 120 may separate and store the acquired caption text for each broadcasting content. For example, the first caption extraction agent stores the caption text of the first broadcast content (eg, drama A) broadcast on the first channel in the database 110, and the second broadcast content (eg, drama A) broadcast on the first channel. For example, subtitle text of entertainment program B) may be stored in the database 110 .

한편 IPTV 서비스 제공자는 IPTV 서비스를 제공하는 주체 또는 IPTV 서비스를 제공하는 주체가 운영하는 시스템을 의미하는 것으로, 자막 서비스 제공 장치(100), VOD 서비스 제공자(200) 및 자막 다운로드 서버(300)를 포함할 수 있다.Meanwhile, an IPTV service provider refers to an IPTV service providing entity or a system operated by an IPTV service providing entity, and includes a caption service providing device 100, a VOD service provider 200, and a caption download server 300. can do.

VOD 서비스 제공자(200)는 VOD 서비스를 위하여, 방송사로부터 방송 스트림에 의해 실시간 방송된 방송 컨텐츠를 제공 받을 수 있다. 예를 들어 2021년 2월 15일 “미스터 문샤인 1회”라는 드라마가 방송된 이후, VOD 서비스 제공자(200)는 방송사로부터 “미스터 문샤인 1회”라는 방송 컨텐츠를 수신할 수 있다.For the VOD service, the VOD service provider 200 may receive broadcast content broadcast in real time through a broadcast stream from a broadcasting company. For example, after the drama “Mr. Moonshine Episode 1” is broadcast on February 15, 2021, the VOD service provider 200 may receive broadcast content titled “Mr. Moonshine Episode 1” from the broadcasting company.

이하에서는 VOD 서비스를 위하여 방송사가 VOD 서비스 제공자(200)에 제공한 방송 컨텐츠를 VOD용 방송 컨텐츠라 명칭한다. Hereinafter, broadcasting contents provided by a broadcasting company to the VOD service provider 200 for VOD service are referred to as VOD broadcasting contents.

한편 자막 생성 모듈(150)은, 자막 텍스트를 이용하여 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성할 수 있다.Meanwhile, the caption generation module 150 may generate a caption file of broadcast content broadcasted in real time by a broadcast stream using caption text.

구체적으로, VOD용 방송 컨텐츠가 입고되면, VOD 서비스 제공자(200)는 입고된 VOD용 방송 컨텐츠에 대한 자막 생성 요청을 자막 서비스 제공 장치(100)에 전송할 수 있다(S315).Specifically, when VOD broadcast content is received, the VOD service provider 200 may transmit a caption generation request for the received VOD broadcast content to the caption service providing device 100 (S315).

그리고, VOD용 방송 컨텐츠를 제공받은 VOD 서비스 제공자(200)로부터 해당하는 방송 컨텐츠에 대한 자막 파일 생성 요청이 수신되면, 자막 생성 모듈(150)은 데이터베이스(110)에 저장된 자막 텍스트를 이용하여 자막 파일을 생성할 수 있다.Further, when a request for generating a caption file for the corresponding broadcast content is received from the VOD service provider 200 receiving broadcast content for VOD, the caption generation module 150 uses the caption text stored in the database 110 to create a caption file. can create

구체적으로 자막 생성 모듈(150)은 자막 파일 생성이 요청된 방송 컨텐츠의 자막 텍스트를 데이터베이스(110)로부터 독출하고(S320), 독출된 자막 텍스트를 변환하여 자막 파일을 생성할 수 있다(S325). 여기서 자막 파일은 smi, srt, vtt 등의 확장자를 가질 수 있으며, 자막 텍스트와 매칭되어 기 저장된 타임 스탬프 역시 포함할 수 있다.In detail, the caption generation module 150 may read caption text of the broadcast content for which caption file generation is requested from the database 110 (S320), and convert the read caption text to generate a caption file (S325). Here, the caption file may have an extension such as smi, srt, or vtt, and may also include a pre-stored time stamp matched with caption text.

한편 자막 생성 모듈(150)에서 생성한 자막 파일과 VOD용 방송 컨텐츠의 오디오 간에는 싱크가 맞지 않을 수 있다. Meanwhile, a caption file generated by the caption generation module 150 may not be in sync with audio of broadcast content for VOD.

자막 생성 모듈(150)에서 생성한 자막 파일과 VOD용 방송 컨텐츠 내 오디오 간에 싱크가 맞지 않는 이유는 다음과 같다.The reason why the caption file generated by the caption generation module 150 is out of sync with the audio in broadcast content for VOD is as follows.

먼저 VOD용 방송 컨텐츠의 시작 시점과 자막 파일의 시작 시점을 일치 시키기 어렵다. 그리고 자막 생성 모듈(150)에서 생성한 자막 파일의 타임 스탬프는 속기사가 생성한 방송 자막에 기반하여 생성된 것인데, 속기사가 오디오를 듣고 나서 입력하게 되는 방송 자막의 특성 상 딜레이가 발생하게 된다. First, it is difficult to match the start time of VOD broadcasting content and the start time of a subtitle file. The time stamp of the caption file generated by the caption generation module 150 is generated based on the broadcast caption created by the stenographer. Due to the nature of the broadcast caption input after the stenographer listens to the audio, a delay occurs.

또한 방송사가 실시간 방송한 방송 컨텐츠와 VOD용 방송 컨텐츠는, 동일한 방송 프로그램임에도 불구하고 세부적인 차이가 발생하는 경우가 많다. 예를 들어 VOD 서비스 제공자(200)에 제공한 방송 컨텐츠에서는 중간 광고가 삭제되거나 일부 씬(scene)이 편집될 수 있기 때문에, 동일한 방송 프로그램에 대한 방송 컨텐츠임에도 불구하고 방송사가 실시간 방송한 방송 컨텐츠와 VOD용 방송 컨텐츠 간에는 차이가 발생하며, 따라서 자막 생성 모듈(150)에서 생성한 자막 파일과 VOD용 방송 컨텐츠 내 오디오 간에는 싱크가 맞지 않게 된다.In addition, there are many cases in which detailed differences occur between broadcasting content broadcast in real time by a broadcasting company and broadcasting content for VOD, even though they are the same broadcasting program. For example, in the broadcast content provided to the VOD service provider 200, since interstitial advertisements may be deleted or some scenes may be edited, even though the broadcast content is for the same broadcast program, the broadcast content broadcast in real time by the broadcaster A difference occurs between the broadcast contents for VOD, and therefore, the caption file generated by the caption generation module 150 and the audio in the broadcast contents for VOD are out of sync.

따라서 자막 생성 모듈(150)은 자막 파일의 싱크를 조절할 수 있다(S330).Therefore, the caption generation module 150 may adjust the sync of the caption file (S330).

이와 관련해서는 도 4를 참고하여 구체적으로 설명한다.This will be described in detail with reference to FIG. 4 .

도 4는 본 발명에 따른, 자막 파일의 싱크를 조절하기 위한 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method for adjusting sync of a subtitle file according to the present invention.

자막 생성 모듈(150)은 자막 싱크 모듈(410)을 포함할 수 있다.The caption generating module 150 may include a caption sync module 410 .

자막 싱크 모듈(410)은 VOD 용 방송 컨텐츠에서 오디오를 추출하고, 오디오의 특징 벡터(예를 들어 MFCC Feature)를 추출할 수 있다(410).The caption sync module 410 may extract audio from broadcast content for VOD and extract a feature vector (eg, MFCC Feature) of the audio (410).

이 경우 자막 싱크 모듈(410)은 음향 모델(Acoustic Model)을 이용하여 오디오 내 음성을 음소 단위로 텍스트 변환할 수 있다(420). 여기서 음향 모델(Acoustic Model)은 은닉 마르코프 모델(Hidden Markov Model) 및 심층 신경 망(Deep Neural Network, DNN) 기반의 음향 모델로, 추출된 특징 벡터를 해당하는 음소로 분류하도록 학습된 모델일 수 있다. In this case, the caption sync module 410 may convert speech within the audio into text in units of phonemes using an acoustic model (420). Here, the acoustic model is an acoustic model based on a hidden Markov model and a deep neural network (DNN), and may be a model learned to classify the extracted feature vectors into corresponding phonemes. .

또한 자막 싱크 모듈(410)은, N-gram 확률언어모델을 이용하여 특정 단어의 앞과 뒤에 어떠한 단어가 나올지 확률적으로 분석하는 언어 모델(Language Model) 및 단어 사전 데이터 전처리 모음인 워드 렉시콘(Word Lexicon)을 적용하고, WFST(Weighted Finite State Transducer) 기반으로 디코딩을 수행하여 오디오 텍스트를 획득할 수 있다(430, 440, 450). 즉 오디오 텍스트란, VOD용 방송 컨텐츠 내 오디오로부터 음성을 추출하고, 추출된 음성을 텍스트로 변환한 것을 의미할 수 있다. 이 경우 자막 싱크 모듈(410)은 오디오 텍스트와 함께 타임 스탬프를 저장할 수 있다. 여기서 타임 스템프는 오디오 텍스트를 구성하는 요소(문장, 단어, 형태소 등)의 시점을 나타내기 위한 것으로, 오디오 텍스트에 매칭되어 저장될 수 있다.In addition, the subtitle sync module 410 uses a language model that probabilistically analyzes which words appear before and after a specific word using an N-gram probabilistic language model and word lexicon, which is a preprocessing collection of word dictionary data Lexicon) and performing decoding based on Weighted Finite State Transducer (WFST) to obtain audio text (430, 440, 450). That is, audio text may refer to extracting voice from audio in broadcast content for VOD and converting the extracted voice into text. In this case, the caption sync module 410 may store a time stamp together with audio text. Here, the time stamp is to indicate the point of time of an element constituting the audio text (sentence, word, morpheme, etc.), and may be matched with the audio text and stored.

한편 자막 싱크 모듈(410)은 오디오 텍스트 내 키워드 및 자막 파일 내 키워드를 매칭하여 자막 파일의 타임 스탬프를 조절할 수 있다(460).Meanwhile, the caption sync module 410 may adjust the time stamp of the caption file by matching keywords in the audio text with keywords in the caption file (460).

구체적으로 자막 싱크 모듈(410)은, 키워드 동일 여부 및 자막 내 키워드의 위치에 기반하여, 오디오 텍스트 및 자막 파일로부터 동일한 키워드를 추출할 수 있다. In detail, the caption sync module 410 may extract identical keywords from the audio text and caption files based on whether the keywords are the same and the location of the keywords in the caption.

그리고 자막 싱크 모듈(410)은, 자막 파일 내 키워드의 위치가 오디오 텍스트 내 동일 키워드의 위치로 변환되도록, 자막 파일의 타임 스탬프를 조절할 수 있다(470). 이에 따라 타임 스탬프가 조절된 최종 자막 파일이 생성될 수 있다.In addition, the caption sync module 410 may adjust the time stamp of the caption file so that the position of the keyword in the caption file is converted to the position of the same keyword in the audio text (470). Accordingly, a final caption file with an adjusted time stamp may be generated.

한편 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에는, 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일이 삽입되어야 한다. 여기서 삽입되는 자막 파일은, 도 4에서 설명한 처리에 따라 자막 파일의 타임 스탬프가 조절된 최종 자막 파일을 포함할 수 있다.Meanwhile, a subtitle file of broadcast content broadcast in real time by a broadcast stream must be inserted into VOD broadcast content provided by a broadcaster to a VOD service provider. Here, the inserted caption file may include a final caption file whose time stamp is adjusted according to the processing described in FIG. 4 .

그리고 자막 생성 모듈(150)은, 방송사가 VOD 서비스 제공자(200)에게 제공한 VOD용 방송 컨텐츠에 실시간 방송된 방송 컨텐츠의 자막 파일이 삽입되도록 자막 파일을 배포할 수 있다.Also, the caption generating module 150 may distribute the caption file so that the caption file of the broadcast content broadcast in real time is inserted into the broadcast content for VOD provided by the broadcaster to the VOD service provider 200 .

여기서 자막 파일을 배포한 다는 것은, VOD 서비스 제공자(200)가 VOD용 방송 컨텐츠에 자막 파일을 삽입하여 VOD 서비스를 제공할 수 있도록, 자막 파일을 제공하는 것을 의미할 수 있다. Here, distributing a caption file may mean providing a caption file so that the VOD service provider 200 can provide a VOD service by inserting the caption file into VOD broadcast content.

예를 들어 자막 생성 모듈(150)은 VOD 서비스 제공자(200)에게 자막 파일을 직접 전송하거나, 자막 다운로드 서버(300)에 자막 파일을 업로드 하여 VOD 서비스 제공자(200)가 사용하도록 할 수 있다. 이 경우 VOD 서비스 제공자(200)는 VOD용 방송 컨텐츠에 자막 파일의 자막을 삽입하여 VOD 서비스를 제공할 수 있다. For example, the caption generation module 150 may directly transmit a caption file to the VOD service provider 200 or upload the caption file to the caption download server 300 so that the VOD service provider 200 can use it. In this case, the VOD service provider 200 may provide a VOD service by inserting subtitles of a subtitle file into VOD broadcast content.

다른 예를 들어 자막 서비스 제공 장치(100)가 직접 VOD 서비스를 제공하는 경우에는, 자막 서비스 제공 장치(100) 내 데이터베이스에 자막 파일을 저장할 수 있다.For another example, when the caption service providing device 100 directly provides a VOD service, a caption file may be stored in a database in the caption service providing device 100 .

다시 도 3으로 돌아가서, 자막 서비스 제공 장치(100)는 생성된 자막 파일(한글 자막 파일)을 번역하여 외국어 자막 파일을 생성할 수 있다.Returning to FIG. 3 again, the caption service providing apparatus 100 may generate a foreign language caption file by translating the generated caption file (Korean caption file).

구체적으로, 자막 파일이 생성되면, 자막 생성 모듈(150)은 생성된 자막 파일에 대한 외국어 번역 요청을 자막 번역 모듈(140)에 전송할 수 있다(S335). 이 경우 자막 번역 모듈(140)은 자막 텍스트를 이용하여 생성된 한글 자막 파일을 번역하여 하나 이상의 외국어 자막 파일을 생성할 수 있다(S340).Specifically, when a caption file is generated, the caption generation module 150 may transmit a foreign language translation request for the generated caption file to the caption translation module 140 (S335). In this case, the subtitle translation module 140 may generate one or more foreign language subtitle files by translating the Korean subtitle file generated using the subtitle text (S340).

외국어 자막 파일을 생성하는 방법에 대해서는 도 5를 참고하여 구체적으로 설명한다.A method of generating a foreign language subtitle file will be described in detail with reference to FIG. 5 .

도 5는 본 발명에 따른 외국어 자막 파일을 생성하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of generating a foreign language subtitle file according to the present invention.

자막 번역 모듈(140)은 자막 말뭉치를 이용하여 한글 자막 파일 내 문장들을 분리할 수 있다(S501). 이 경우 자막 번역 모듈(140)은 메모리 캐싱(1010)에 저장된 말뭉치 캐싱을 이용하여 문장들을 분리하거나, 메모리 캐싱(1010) 내 해당하는 말뭉치 캐싱이 존재하지 않는 경우에는 데이터 웨어 하우스(1020)에 저장된 말뭉치 데이터 셋을 이용하여 한글 자막 파일 내 문장들을 분리할 수 있다.The caption translation module 140 may separate sentences in the Korean caption file using the caption corpus (S501). In this case, the subtitle translation module 140 separates sentences by using the corpus caching stored in the memory caching 1010, or if there is no corresponding corpus caching in the memory caching 1010, the caption translation module 140 uses the corpus caching stored in the data warehouse 1020. Sentences in the Korean subtitle file can be separated using the corpus data set.

한편 문장은 형태소 들의 집합으로 구성되며, 형태소는 단어, 어간 및 어미로 구성될 수 있다.On the other hand, a sentence is composed of a set of morphemes, and morphemes can be composed of words, stems, and endings.

이 경우 자막 번역 모듈(140)은 문장을 구성하는 형태소, 형태소를 구성하는 단어, 어간 및 어미를 N-gram 확률 언어 모델에 제공할 수 있다. 이 경우 N-gram 확률 언어 모델은 형태소, 단어, 어간 및 어미를 분석하여 문장이 종료되는 지점을 획득하고, 한글 자막 파일 내 문장들을 번역에 적합하도록 분리할 수 있다.In this case, the caption translation module 140 may provide morphemes constituting sentences, words constituting morphemes, stems, and endings to the N-gram probabilistic language model. In this case, the N-gram probabilistic language model analyzes morphemes, words, stems, and endings to obtain a sentence ending point, and can separate sentences in the Korean subtitle file to be suitable for translation.

한편 기존에 번역되었던 번역 텍스트는 자막 데이터 셋을 구성하여 메모리 캐싱(1010)에 저장될 수 있다. 여기서 기존에 번역되었던 번역 텍스트란, 문장, 형태소, 단어 등을 포함할 수 있으며, 한글 텍스트와 한글 텍스트에 상응하는 번역 텍스트가 매칭되어 저장될 수 있다.Meanwhile, previously translated text may be stored in the memory caching 1010 by forming a subtitle data set. Here, the previously translated text may include sentences, morphemes, words, and the like, and Korean text and translated text corresponding to the Korean text may be matched and stored.

한편 메모리 캐싱(1010)에 저장된 번역 텍스트는, 자막 번역 모듈(140)의 엑세스 횟수에 기초하여 갱신될 수 있다.Meanwhile, the translated text stored in the memory caching 1010 may be updated based on the number of accesses of the subtitle translation module 140 .

구체적으로 메모리 캐싱(1010) 내 데이터가 가득 차는 경우, 메모리 캐싱(1010)은 자막 번역 모듈(140)에 의해 가장 적게 엑세스된 번역 텍스트를 삭제함으로써 저장 공간을 확보할 수 있다. 즉 메모리 캐싱(1010)에는 자막 번역 모듈(140)에 의해 가장 많이 엑세스되는 번역 텍스트들이 저장될 수 있다.Specifically, when the data in the memory caching 1010 is full, the memory caching 1010 may secure storage space by deleting the least accessed translation text by the caption translation module 140 . That is, translation texts most frequently accessed by the caption translation module 140 may be stored in the memory caching 1010 .

그리고 자막 번역 모듈(140)은 한글 자막 파일 내 텍스트가 메모리 캐싱(1010)에 존재하는지 확인할 수 있다(S502). 또한 한글 자막 파일 내 일부 텍스트가 메모리 캐싱(1010)에 존재하는 경우, 자막 번역 모듈(140)은 일부 텍스트에 대응하는 번역 텍스트를 메모리 캐싱으로부터 추출할 수 있다.Also, the caption translation module 140 may check whether the text in the Korean caption file exists in the memory caching 1010 (S502). Also, when some text in the Korean subtitle file exists in the memory caching 1010, the caption translation module 140 may extract translated text corresponding to the partial text from the memory caching.

한편 자막 번역 모듈(140)은 문장 내 사투리가 존재하는 경우, 사투리를 표준어로 변환할 수 있다(S503). 이 경우 자막 번역 모듈(140)은 메모리 캐싱(1010)에 저장된 표준어 캐싱을 이용하여 사투리를 표준어로 변환하거나, 메모리 캐싱(1010) 내 해당하는 표준어 캐싱이 존재하지 않는 경우에는 데이터 웨어 하우스(1020)에 저장된 표준어-사투리 데이터 셋을 이용하여 문장 내 사투리를 표준어로 변환할 수 있다.Meanwhile, when a dialect exists in a sentence, the caption translation module 140 may convert the dialect into a standard language (S503). In this case, the subtitle translation module 140 converts the dialect into standard language using the standard language caching stored in the memory caching 1010, or if the corresponding standard language caching does not exist in the memory caching 1010, the data warehouse 1020 The dialect in a sentence can be converted into standard language using the standard language-dialect data set stored in .

한편 S501, S502, S503을 거쳐 전처리 문장(510)이 생성되면, 자막 번역 모듈(140)은 전처리 문장(510)을 번역기(1030)에 제공할 수 있다.Meanwhile, when the preprocessed sentence 510 is generated through S501, S502, and S503, the caption translation module 140 may provide the preprocessed sentence 510 to the translator 1030.

이 경우 번역기(1030)는 전처리 문장(510)들을 하나 이상의 외국어로 번역하고, 자막 번역 모듈(1040)은 번역 결과에 기초하여 하나 이상의 외국어 자막 파일을 생성할 수 있다.In this case, the translator 1030 may translate the preprocessed sentences 510 into one or more foreign languages, and the subtitle translation module 1040 may generate one or more foreign language subtitle files based on the translation result.

한편 앞서 설명한 전처리 문장의 생성 및 번역은 AI 학습 모델(1040)에 기반하여 수행될 수도 있다.Meanwhile, the generation and translation of the preprocessed sentence described above may be performed based on the AI learning model 1040.

다시 도 3으로 돌아가서, 자막 번역 모듈(1040)은 자막 생성 모듈(150)에 하나 이상의 외국어 자막 파일을 전송할 수 있다(S345).Returning to FIG. 3 again, the caption translation module 1040 may transmit one or more foreign language caption files to the caption generation module 150 (S345).

이 경우 자막 생성 모듈(150)은 하나 이상의 외국어 자막 파일을 배포할 수 있다(S350).In this case, the subtitle generation module 150 may distribute one or more foreign language subtitle files (S350).

이와 같이 본 발명에 따르면, 방송 스트림으로부터 자막 텍스트를 미리 확보해 놓고, VOD용 방송 컨텐츠가 입고되면 미리 확보된 자막 텍스트를 간단히 처리하여 자막 파일로써 제공할 수 있기 때문에, VOD용 방송 컨텐츠가 입고된 즉시 자막(외국어 자막 포함)을 동반한 VOD 서비스를 제공할 수 있는 장점이 있다.As described above, according to the present invention, subtitle text is secured from a broadcast stream in advance, and when VOD broadcast content is received, the previously secured subtitle text can be simply processed and provided as a subtitle file. It has the advantage of providing VOD service with immediate subtitles (including foreign language subtitles).

또한 본 발명에 따르면, VOD용 방송 컨텐츠가 입고된 경우 자막 파일을 생성하고 자막 싱크를 맞추는 등의 처리를 수행함으로써, 리소스를 절약할 수 있는 장점이 있다. 즉 자막 텍스트의 추출은 다양한 채널에 대하여 24시간 지속적으로 수행하는데 반해, 자막 파일의 생성 및 자막 싱크의 처리는 VOD 서비스의 제공 대상인 방송 컨텐츠에만 수행함으로써, 불필요한 비용을 절약할 수 있는 장점이 있다.In addition, according to the present invention, when broadcast content for VOD is received, processing such as generating a subtitle file and synchronizing subtitles is performed, thereby having an advantage of saving resources. That is, subtitle text extraction is continuously performed for 24 hours for various channels, whereas subtitle file generation and subtitle sink processing are performed only for broadcast content that is a VOD service target, thereby reducing unnecessary costs.

또한 본 발명에 따르면, 자막 텍스트를 먼저 추출해 놓고, VOD용 방송 컨텐츠의 오디오를 활용하여 타임 스탬프를 조절함으로써, 자막과 음성 간의 싱크가 맞는 VOD 서비스를 제공할 수 있는 장점이 있다. 특히 속기사가 오디오를 듣고 나서 입력하게 되는 방송 자막의 특성 상 딜레이가 발생하는 경우, 실제 방송된 방송 컨텐츠가 편집되어 VOD용으로 제공되는 경우에도, 싱크가 맞는 자막을 제공할 수 있는 장점이 있다.In addition, according to the present invention, by first extracting subtitle text and then adjusting the time stamp using the audio of VOD broadcast content, there is an advantage in providing a VOD service in which the subtitle and audio are synchronized. In particular, when a delay occurs due to the nature of broadcast subtitles input after the stenographer listens to the audio, there is an advantage in providing subtitles that are in sync even when actually broadcast broadcast content is edited and provided for VOD.

또한, 다양한 채널에 대하여 자막 텍스트를 추출하고 번역을 진행하는 본 발명의 특성 상, 매우 많은 번역이 진행된다. 그리고 본 발명에 따르면 자막 번역 모듈의 엑세스 횟수에 기초하여 메모리 캐싱을 갱신하고, 메모리 캐싱을 이용하여 중복 번역을 방지함으로써 빠른 번역을 가능하게 하는 장점이 있다.In addition, due to the characteristics of the present invention in which subtitle text is extracted and translated for various channels, a great deal of translation is performed. Furthermore, according to the present invention, memory caching is updated based on the number of accesses of the subtitle translation module, and redundant translation is prevented using the memory caching, thereby enabling fast translation.

도 6은 본 발명에 따른 실시간 번역 서비스를 제공하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of providing a real-time translation service according to the present invention.

자막 추출 모듈(120)은 방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득할 수 있다(S605). 한편 방송 스트림과 마찬가지로 자막 데이터 역시 스트림의 형태로 전송되는 바, 이하에서는 자막 데이터를 자막 스트림이라고 명칭하도록 한다.The caption extracting module 120 may obtain caption text from caption data within a broadcast stream provided from a broadcasting company (S605). Meanwhile, like a broadcast stream, caption data is also transmitted in the form of a stream, and hence, the caption data will be referred to as a caption stream.

이 경우 자막 추출 모듈(120)은 자막 스트림을 자막 전송 모듈(130)에 전송할 수 있다(S610). 이 경우 자막 전송 모듈(130)은 자막 추출 모듈(120)로부터 미디어 재생 장치(400)에서 시청중인 채널의 자막 스트림을 수신하고, 작업 큐에 수신된 자막 스트림을 임시 저장할 수 있다(S615).In this case, the caption extraction module 120 may transmit the caption stream to the caption transmission module 130 (S610). In this case, the caption transmission module 130 may receive the caption stream of the channel being viewed in the media playback device 400 from the caption extraction module 120 and temporarily store the received caption stream in a task queue (S615).

한편 미디어 재생 장치(400)는 방송 스트림을 디코딩하여 방송 컨텐츠를 실시간으로 출력하는 장치로, TV 또는 셋탑 박스를 포함할 수 있다.Meanwhile, the media playback device 400 is a device that decodes a broadcast stream and outputs broadcast content in real time, and may include a TV or a set-top box.

한편 사용자로부터 외국어 자막을 요청하는 입력이 수신되면, 미디어 재생 장치(400)는 사용자에 의해 지정된 번역 언어를 포함하는 외국어 자막 요청을 자막 전송 모듈(130)에 전송할 수 있다(S620).Meanwhile, when an input requesting a foreign language subtitle is received from the user, the media playback device 400 may transmit a foreign language subtitle request including a translation language designated by the user to the subtitle transmission module 130 (S620).

한편 미디어 재생 장치(400)로부터 외국어 자막 요청이 수신되면, 자막 전송 모듈(130)는 번역 에이전트의 실행 여부를 확인할 수 있다(S625). 여기서 번역 에이전트의 실행 여부를 확인한 다는 것은, 해당하는 채널에 대응하는 번역 에이전트가 번역 서비스의 제공이 가능한지를 확인하는 것을 의미할 수 있다.Meanwhile, when a foreign language subtitle request is received from the media playback device 400, the subtitle transmission module 130 may check whether the translation agent is running (S625). Here, checking whether a translation agent is running may mean checking whether a translation agent corresponding to a corresponding channel can provide a translation service.

예를 들어 미디어 재생 장치(400)로부터 실시간 외국어 자막 요청이 수신되었으나 미디어 재생 장치(400)에서 시청하는 채널에서 광고가 방송되고 있는 관계로 자막 스트림이 존재하지 않는 경우가 발생할 수 있다. 이 경우 자막 전송 모듈(130)은 미디어 재생 장치(400)에 번역 불가의 메시지를 전송하거나, 이후에 방송 프로그램이 방송되어 자막 스트림이 수신되는 경우에 번역 서비스를 제공할 수 있다.For example, a real-time foreign language subtitle request is received from the media playback device 400, but a subtitle stream may not exist because an advertisement is being broadcast on a channel viewed in the media playback device 400. In this case, the caption transmission module 130 may transmit a translation impossible message to the media playback device 400 or provide a translation service when a broadcast program is broadcasted and a caption stream is received later.

한편 미디어 재생 장치(400)로부터 실시간 외국어 자막 요청이 수신되면, 자막 전송 모듈(130)은 자막 스트림을 번역하여 미디어 재생 장치(400)에 전송할 수 있다(S630, S635, S640). Meanwhile, when a real-time foreign language caption request is received from the media playback device 400, the caption transmission module 130 may translate the subtitle stream and transmit it to the media playback device 400 (S630, S635, S640).

여기서 자막 전송 모듈(130)이 자막 스트림을 번역한다는 것의 의미는, 자막 전송 모듈(130)이 자막 스트림을 직접 번역하는 것뿐만 아니라, 다른 모듈이나 장치(예를 들어 자막 번역 모듈(140) 또는 번역기(1030) 등)로 자막 스트림을 전송하여 자막 스트림이 번역되도록 하는 것을 의미할 수 있다.Here, the meaning that the caption transmission module 130 translates the caption stream means that the caption transmission module 130 directly translates the caption stream, as well as other modules or devices (eg, the caption translation module 140 or a translator). 1030, etc.) to transmit the subtitle stream to translate the subtitle stream.

자막 전송 모듈(130)의 동작에 대해서는 도 7을 참고하여 구체적으로 설명한다.The operation of the caption transmission module 130 will be described in detail with reference to FIG. 7 .

도 7은 본 발명에 따른 자막 전송 모듈(130)의 동작을 설명하기 위한 도면이다,7 is a diagram for explaining the operation of the caption transmission module 130 according to the present invention.

자막 전송 모듈(130)은 복수의 번역 에이전트(715, 725)를 포함할 수 있다. 여기서 복수의 번역 에이전트(715, 725)는, 복수의 채널에 각각 대응할 수 있다. 예를 들어 제1 번역 에이전트(715)는 제1 채널의 자막 스트림에 대한 번역 관리를 수행하는 에이전트이고, 제2 번역 에이전트(725)는 제2 채널의 자막 스트림에 대한 번역 관리를 수행하는 에이전트일 수 있다.The caption transmission module 130 may include a plurality of translation agents 715 and 725. Here, the plurality of translation agents 715 and 725 may respectively correspond to a plurality of channels. For example, the first translation agent 715 is an agent that manages translation for a subtitle stream of a first channel, and the second translation agent 725 is an agent that manages translation for a subtitle stream of a second channel. can

도 7에서는 두 개의 번역 에이전트를 도시하였으나 이에 한정되지 않으며, 번역 에이전트는 채널 별로 존재할 수 있다.Although two translation agents are shown in FIG. 7, it is not limited thereto, and translation agents may exist for each channel.

한편 복수의 번역 에이전트(715, 725)는, 해당하는 언어를 신청한 미디어 재생 장치들의 세션 정보를 저장하는 복수의 언어 게이지를 각각 포함할 수 있다. Meanwhile, each of the plurality of translation agents 715 and 725 may include a plurality of language gauges for storing session information of media playback devices that have applied for a corresponding language.

이와 관련해서는 도 8a를 함께 참고하여 설명한다.This will be described with reference to FIG. 8A together.

도 8a는 언어 게이지를 설명하기 위한 도면이다.8A is a diagram for explaining a language gauge.

복수의 번역 에이전트 중 제1 번역 에이전트(715)의 예를 들어 설명하면, 제1 번역 에이전트(715)는 복수의 언어에 각각 대응하는 복수의 언어 게이지를 포함할 수 있다.Taking the example of the first translation agent 715 among the plurality of translation agents, the first translation agent 715 may include a plurality of language gauges respectively corresponding to a plurality of languages.

예를 들어 제1 언어 게이지(810)는 중국어에 대응하는 언어 게이지고, 제2 언어 게이지(820)는 영어에 대응하는 언어 게이지이며, 제3 언어 게이지(830)는 한국어에 대응하는 언어 게이지일 수 있다.For example, the first language gauge 810 is a language gauge corresponding to Chinese, the second language gauge 820 is a language gauge corresponding to English, and the third language gauge 830 is a language gauge corresponding to Korean. can

한편 자막 서비스 제공 장치(100)에 접속된 복수의 미디어 재생 장치들은 사용자에 의해 지정된 번역 언어를 포함하는 외국어 자막의 요청을 전송할 수 있다. Meanwhile, a plurality of media playback devices connected to the caption service providing apparatus 100 may transmit a request for a foreign language caption including a translation language specified by a user.

이 경우 제1 채널을 시청중인 셋탑 박스들로부터 수신된 외국어 자막 요청이 제1 번역 에이전트(715)로 전송될 수 있다.In this case, requests for foreign language subtitles received from the set-top boxes watching the first channel may be transmitted to the first translation agent 715 .

이 경우 제1 번역 에이전트(715)는 외국어 자막 요청으로부터 번역 언어를 획득하고, 번역 언어에 대응하는 언어 게이지에 미디어 재생 장치의 세션 정보(미디어 재생 장치의 IP 정보)를 저장할 수 있다.In this case, the first translation agent 715 may obtain a translation language from the foreign language subtitle request and store session information (IP information of the media playback device) of the media playback device in a language gauge corresponding to the translation language.

예를 들어 제1 채널을 시청하는 제1 미디어 재생 장치가 중국어를 지정한 외국어 자막 요청을 전송한 경우, 제1 번역 에이전트(715)는 제1 미디어 재생 장치의 세션 정보를 중국어에 대응하는 제1 언어 게이지(810)에 저장할 수 있다. 다음으로 제1 채널을 시청하는 제2 미디어 재생 장치가 영어를 지정한 외국어 자막 요청을 전송한 경우, 제1 번역 에이전트(715)는 제2 미디어 재생 장치의 세션 정보를 중국어에 대응하는 제2 언어 게이지(820)에 저장할 수 있다. 다음으로 제1 채널을 시청하는 제3 미디어 재생 장치가 중국어를 지정한 외국어 자막 요청을 전송한 경우, 제1 번역 에이전트(715)는 제3 미디어 재생 장치의 세션 정보를 중국어에 대응하는 제1 언어 게이지(810)에 저장할 수 있다.For example, when the first media playback device watching the first channel transmits a request for a foreign language subtitle specifying Chinese, the first translation agent 715 converts session information of the first media playback device into a first language corresponding to Chinese. It can be stored in the gauge 810. Next, when the second media playback device watching the first channel transmits a request for a foreign language subtitle specifying English, the first translation agent 715 converts the session information of the second media playback device to a second language gauge corresponding to Chinese. (820). Next, when the third media playback device watching the first channel transmits a request for a foreign language subtitle specifying Chinese, the first translation agent 715 converts the session information of the third media playback device to a first language gauge corresponding to Chinese. (810).

한편 제1 번역 에이전트(715)는 언어 게이지에 세션 정보가 존재하는 경우 해당하는 언어로의 번역을 시작할 수 있다. Meanwhile, the first translation agent 715 may start translation into a corresponding language when session information exists in the language gauge.

예를 들어 제1 번역 에이전트(715)는, 제1 언어 게이지(810)에 세션 정보가 존재하지 않는 경우 중국어 번역을 시작하지 않으며, 제1 언어 게이지(810)에 세션 정보가 하나라도 존재하는 경우 중국어 번역을 시작할 수 있다.For example, the first translation agent 715 does not start Chinese translation when session information does not exist in the first language gauge 810, and if at least one session information exists in the first language gauge 810 You can start translating Chinese.

제1 번역 에이전트(715)는 자막 추출 모듈(120)이 제1 채널에서 획득하는 자막 스트림(즉, 제1 채널에 조인한 제1 자막 추출 에이전트(710)가 추출한 자막 스트림)을 수신하여 해당하는 언어로 번역할 수 있다. 구체적인 번역 방법은 도 5에서 설명하였는 바 이하에서는 생략하도록 한다.The first translation agent 715 receives the subtitle stream obtained from the first channel by the subtitle extraction module 120 (ie, the subtitle stream extracted by the first subtitle extraction agent 710 joined to the first channel) and converts the subtitle stream into a corresponding subtitle stream. can be translated into languages. The specific translation method has been described with reference to FIG. 5 and will be omitted below.

이하에서는 제1 언어 게이지(810)에 세션 정보가 존재하고, 제2 언어 게이지(820)에 세션 정보가 존재하는 상황을 가정하여 설명한다.Hereinafter, a situation in which session information exists in the first language gauge 810 and session information exists in the second language gauge 820 will be described.

제1 번역 에이전트(715)는, 자막 추출 모듈(120)이 제1 채널에서 획득한 자막 스트림을 각각 제1 언어 및 제2 언어로 번역하여 제1 채널-제1 언어 자막 스트림 및 제1 채널-제2 언어 자막 스트림을 생성할 수 있다.The first translation agent 715 translates the subtitle stream obtained from the first channel by the subtitle extracting module 120 into a first language and a second language, respectively, so that the first channel-the first language subtitle stream and the first channel- A second language subtitle stream may be generated.

그리고 제1 번역 에이전트(715)는, 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 제1 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다(S645). The first translation agent 715 may transmit the first channel-first language subtitle stream to media playback devices corresponding to the session information stored in the language gauge of the first language in a multicast manner (S645). .

예를 들어 중국어에 대응하는 언어 게이지에 제1 내지 제10 미디어 재생 장치의 세션 정보가 저장되어 있는 경우, 제1 번역 에이전트(715)는 제1 내지 제10 미디어 재생 장치들의 IP 정보들을 이용하여 제1 내지 제10 미디어 재생 장치들에 제1 채널-중국어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.For example, when session information of the 1st to 10th media playback devices is stored in the language gauge corresponding to Chinese, the first translation agent 715 uses the IP information of the 1st to 10th media playback devices. The first channel-Chinese subtitle stream may be transmitted to the first to tenth media playback devices in a multicast manner.

또한 제1 번역 에이전트(715)는 제2 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 제1 채널-제2 언어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다(S645).In addition, the first translation agent 715 may transmit the first channel-second language subtitle stream to media playback devices corresponding to the session information stored in the language gauge of the second language in a multicast manner (S645).

예를 들어 영어에 대응하는 언어 게이지에 제11 내지 제25 미디어 재생 장치의 세션 정보가 저장되어 있는 경우, 제1 번역 에이전트(715)는 제11 내지 제25 미디어 재생 장치들의 IP 정보들을 이용하여 제11 내지 제25 미디어 재생 장치들에 제1 채널-영어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.For example, when session information of the 11th to 25th media playback devices is stored in the language gauge corresponding to English, the first translation agent 715 uses the IP information of the 11th to 25th media playback devices to translate The first channel-English subtitle stream may be transmitted to the 11th to 25th media playback devices in a multicast manner.

이 경우 제1 번역 에이전트(715)는, 제1 멀티 캐스트 채널을 통하여 제1 내지 제10 미디어 재생 장치들에 제1 채널-중국어 자막 스트림을 멀티캐스트 방식으로 송출하고, 제2 멀티 캐스트 채널을 통하여 제11 내지 제25 미디어 재생 장치 들에 제1 채널-영어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.In this case, the first translation agent 715 multicasts the first channel-Chinese subtitle stream to the first to tenth media playback devices through the first multicast channel, and transmits the subtitle stream in Chinese through the second multicast channel. The first channel-English subtitle stream may be transmitted to the 11th to 25th media playback devices in a multicast manner.

한편 제1 채널-영어 자막 스트림을 멀티캐스트 방식으로 송출하는 중, 영어에 대응하는 언어 게이지에 제26 미디어 재생 장치의 세션 정보가 추가될 수 있다. 이 경우 제1 번역 에이전트(715)는 제11 내지 제26 미디어 재생 장치들의 IP 정보들을 이용하여 제11 내지 제26 미디어 재생 장치들에 제1 채널-영어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.Meanwhile, session information of the 26th media player may be added to a language gauge corresponding to English while the first channel-English subtitle stream is transmitted in a multicast manner. In this case, the first translation agent 715 may transmit the first channel-English subtitle stream to the 11th to 26th media playback devices in a multicast manner using the IP information of the 11th to 26th media playback devices. .

또한 제1 채널-중국어 자막 스트림을 멀티캐스트 방식으로 송출하고 제1 채널-영어 자막 스트림을 멀티 캐스트 방식으로 송출하는 중, 프랑스어에 대응하는 언어 게이지에 제27 미디어 재생 장치의 세션 정보가 저장될 수 있다. 이 경우 제1 번역 에이전트(715)는, 자막 추출 모듈(120)이 제1 채널에서 획득한 자막 스트림에 대한 제3 언어(프랑스 어)로의 번역을 시작하여, 제1 채널-제3 언어(프랑스어) 자막 스트림을 추가적으로 생성할 수 있다. 이 경우 제1 번역 에이전트(715)는, 제1 멀티 캐스트 채널을 통하여 제1 내지 제10 미디어 재생 장치들에 제1 채널-중국어 자막 스트림을 멀티캐스트 방식으로 송출하고, 제2 멀티 캐스트 채널을 통하여 제11 내지 제26 미디어 재생 장치 들에 제1 채널-영어 자막 스트림을 멀티캐스트 방식으로 송출하며, 제3 멀티 캐스트 채널을 통하여 제27미디어 재생 장치에 제1 채널-프랑스어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.In addition, while the first channel-Chinese subtitle stream is transmitted in a multicast method and the first channel-English subtitle stream is transmitted in a multicast method, session information of the 27th media playback device may be stored in a language gauge corresponding to French. there is. In this case, the first translation agent 715 starts translating the subtitle stream acquired from the first channel into a third language (French) by the subtitle extracting module 120, so that the first channel-third language (French) is translated. ) subtitle streams can be additionally created. In this case, the first translation agent 715 multicasts the first channel-Chinese subtitle stream to the first to tenth media playback devices through the first multicast channel, and transmits the subtitle stream in Chinese through the second multicast channel. The 1st channel-English subtitle stream is multicasted to the 11th to 26th media playback devices, and the 1st channel-French subtitle stream is multicasted to the 27th media playback device through a third multicast channel. can be sent

다음은 유휴 번역 에이전트의 리소스를 활용하는 방법에 대하여 도 8b를 참고하여 설명한다.Next, a method of utilizing idle translation agent resources will be described with reference to FIG. 8B.

도 8b는 유휴 번역 에이전트의 리소스를 활용하는 방법을 설명하기 위한 도면이다.8B is a diagram for explaining a method of utilizing resources of an idle translation agent.

복수의 번역 에이전트 각각은 독립적으로 구성되며 리소스가 할당된다. 그리고 유휴 번역 에이전트란 현재 번역을 하고 있지 않은(즉 직접 번역을 하고 있지 않으며 다른 모듈 또는 장치에 번역을 요청하고 있지도 않은) 번역 에이전트일 수 있다.Each of the plurality of translation agents is configured independently and resources are allocated. Also, the idle translation agent may be a translation agent that is not currently translating (that is, not directly translating and not requesting translation from another module or device).

즉 유휴 번역 에이전트란, 번역 에이전트에 대응하는 채널에 대한 번역 서비스를 제공하고 있지 않은 상태의 번역 에이전트를 의미할 수 있다. 예를 들어 제1 채널이 광고 중인 관계로 제1 번역 에이전트가 제1 채널에 대한 번역 서비스를 제공하고 있지 않은 경우, 제1 번역 에이전트는 유휴 번역 에이전트일 수 있다. 다른 예를 들어 제1 채널을 시청하고 있는 미디어 재생장치들이 외국어 자막 요청을 전송하지 않는 경우, 제1 번역 에이전트는 유휴 번역 에이전트일 수 있다.That is, the idle translation agent may refer to a translation agent that is not providing a translation service for a channel corresponding to the translation agent. For example, when the first translation agent is not providing a translation service for the first channel because the first channel is advertising, the first translation agent may be an idle translation agent. For another example, when media playback devices watching the first channel do not transmit a foreign language subtitle request, the first translation agent may be an idle translation agent.

한편 제1 번역 에이전트가 유휴 중인 경우, 제1 번역 에이전트(715)는 다른 채널의 자막 스트림에 대한 번역을 수행할 수 있다.Meanwhile, when the first translation agent is idle, the first translation agent 715 may translate subtitle streams of other channels.

구체적으로 제1 번역 에이전트(715)가 유휴 중인 경우, 제1 번역 에이전트(715)는 제2 채널에서 획득한 자막 스트림을 번역하여 제2 채널-제1 언어 자막 스트림을 생성할 수 있다.Specifically, when the first translation agent 715 is idle, the first translation agent 715 may generate a second channel-first language subtitle stream by translating a subtitle stream obtained from the second channel.

즉, 본래 제2 채널에서 획득한 자막 스트림에 대해서는, 제2 번역 에이전트(725)에서 번역을 수행한다. 다만 제1 번역 에이전트(715)가 유휴 중인 경우, 제1 번역 에이전트(715)가 제2 채널에서 획득한 자막 스트림에 대한 번역을 수행함으로써 유휴 리소스를 활용할 수 있다.That is, the second translation agent 725 performs translation on the subtitle stream originally obtained from the second channel. However, when the first translation agent 715 is idle, the first translation agent 715 can utilize idle resources by performing translation on the subtitle stream obtained from the second channel.

이 경우 제1 번역 에이전트(715)는 제2 채널 자막 추출 에이전트(720)로부터 제2 채널의 자막 스트림을 수신할 수 있다. 그리고 제1 번역 에이전트(715)는, 제2 채널의 자막 스트림을 제2 번역 에이전트(725)에서 요청한 제1 언어로 번역하여, 제2 채널-제1 언어 자막 스트림을 생성할 수 있다.In this case, the first translation agent 715 may receive the second channel caption stream from the second channel caption extraction agent 720 . The first translation agent 715 may translate the subtitle stream of the second channel into the first language requested by the second translation agent 725 to generate a second channel-first language subtitle stream.

한편 제2 번역 에이전트(725) 내 제1 언어에 대응하는 언어 게이지(840)는 제1 번역 에이전트(715)와 공유될 수 있다.Meanwhile, the language gauge 840 corresponding to the first language in the second translation agent 725 may be shared with the first translation agent 715 .

그리고 제1 번역 에이전트(715)는 제2 번역 에이전트(725) 내 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에, 제2 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.The first translation agent 715 multicasts the second channel-first language subtitle stream to media playback devices corresponding to the session information stored in the language gauge of the first language in the second translation agent 725. can be sent to

예를 들어 제2 번역 에이전트(725)의 중국어에 대응하는 언어 게이지에 제30 내지 제38 미디어 재생 장치의 세션 정보가 저장되어 있는 경우, 제1 번역 에이전트(715)는 제30 내지 제38 미디어 재생 장치들의 IP 정보들을 이용하여 제30 내지 제38 미디어 재생 장치들에 제2 채널-중국어 자막 스트림을 멀티캐스트 방식으로 송출할 수 있다.For example, if session information of the 30th to 38th media playback devices is stored in the language gauge corresponding to Chinese of the second translation agent 725, the first translation agent 715 plays the 30th to 38th media. The second channel-Chinese subtitle stream may be multicast to the 30th to 38th media playback devices using the IP information of the devices.

다양한 채널에 대하여 자막 텍스트를 추출하고 번역을 진행하는 본 발명의 특성 상, 다양한 채널, 다양한 번역 언어, 많은 수의 미디어 재생 장치 들에 대한 효율적인 관리가 요구된다. 그리고 본 발명에 따르면, 채널 별 번역 에이전트, 언어 별 언어 게이지를 이용하여 다양한 언어로의 실시간 번역, 번역된 자막의 송출을 효율적으로 관리할 수 있는 장점이 있다.Due to the characteristics of the present invention in which subtitle text is extracted and translated for various channels, efficient management of various channels, various translation languages, and a large number of media playback devices is required. According to the present invention, there is an advantage in that real-time translation into various languages and transmission of translated subtitles can be efficiently managed by using a translation agent for each channel and a language gauge for each language.

또한 본 발명에 다르면 유휴 번역 에이전트의 쓰레드 자원을 효과적으로 활용함으로써, 다른 번역 에이전트의 과부하를 방지하고 한정된 자원을 균형있게 사용하도록 하는 장점이 있다.In addition, according to the present invention, by effectively utilizing thread resources of idle translation agents, there is an advantage in that overload of other translation agents is prevented and limited resources are used in a balanced manner.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is Also, the computer may include a control unit. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 자막 서비스 제공 장치 110: 데이터베이스
120: 자막 추출 모듈 130: 자막 전송 모듈
140: 자막 번역 모듈 150: 자막 생성 모듈
100: caption service providing device 110: database
120: caption extraction module 130: caption transmission module
140: subtitle translation module 150: subtitle generation module

Claims (10)

방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득하는 자막 추출 모듈;
상기 자막 텍스트를 이용하여 상기 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성하고, 상기 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에 상기 자막 파일의 자막이 삽입되도록 상기 자막 파일을 배포하는 자막 생성 모듈; 및
자막 전송 모듈;을 포함하고,
상기 자막 전송 모듈은, 복수의 채널 중 제1 채널에 대응하는 제1 번역 에이전트;를 포함하고,
상기 제1 번역 에이전트는,
상기 제1 채널에서 획득한 자막 스트림을 번역하여 제1 채널-제1 언어 자막 스트림 및 제1 채널-제2 언어 자막 스트림을 생성하고,
제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출하고,
제2 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제2 언어 자막 스트림을 멀티캐스트 방식으로 송출하는
자막 서비스 제공 장치.
a caption extracting module that obtains caption text from caption data within a broadcast stream provided from a broadcasting company;
A caption file of broadcast content broadcast in real time by the broadcast stream is generated using the caption text, and the caption file is distributed so that the caption of the caption file is inserted into the broadcast content for VOD provided by the broadcaster to a VOD service provider. a subtitle generation module that does; and
Includes a subtitle transmission module;
The caption transmission module includes a first translation agent corresponding to a first channel among a plurality of channels;
The first translation agent,
translating the subtitle stream obtained from the first channel to generate a first channel-first language subtitle stream and a first channel-second language subtitle stream;
Transmitting the first channel-first language subtitle stream in a multicast method to media playback devices corresponding to session information stored in a language gauge of the first language;
Transmitting the first channel-second language subtitle stream in a multicast method to media playback devices corresponding to session information stored in a language gauge of a second language.
Caption service provider.
제 1항에 있어서,
상기 자막 생성 모듈은,
상기 VOD용 방송 컨텐츠를 제공 받은 상기 VOD 서비스 제공자로부터 상기 방송 컨텐츠에 대한 자막 파일 생성 요청이 수신되면, 상기 자막 텍스트를 이용하여 상기 자막 파일을 생성하는
자막 서비스 제공 장치.
According to claim 1,
The subtitle generation module,
Generating the caption file using the caption text when a request for generating a caption file for the broadcast content is received from the VOD service provider receiving the broadcast content for VOD
Caption service provider.
제 1항에 있어서,
상기 자막 생성 모듈은,
상기 VOD용 방송 컨텐츠 내 오디오로부터 오디오 텍스트를 획득하고, 상기 오디오 텍스트 내 키워드 및 상기 자막 텍스트 내 키워드를 매칭하여 상기 자막 파일의 타임 스탬프를 조절하는
자막 서비스 제공 장치.
According to claim 1,
The subtitle generation module,
Obtaining audio text from audio in the VOD broadcast content, and matching a keyword in the audio text with a keyword in the subtitle text to adjust a time stamp of the subtitle file
Caption service provider.
제 1항에 있어서,
상기 자막 텍스트를 이용하여 생성된 한글 자막 파일을 번역하여 하나 이상의 외국어 자막 파일을 생성하는 자막 번역 모듈;을 더 포함하고,
상기 자막 생성 모듈은, 상기 하나 이상의 외국어 자막 파일을 배포하는
자막 서비스 제공 장치.
According to claim 1,
A caption translation module for generating at least one foreign language caption file by translating the Korean caption file generated using the caption text;
The subtitle generating module distributes the one or more foreign language subtitle files.
Caption service provider.
제 1항에 있어서,
상기 자막 전송 모듈은,
미디어 재생 장치로부터 실시간 외국어 자막의 요청이 수신되면, 상기 미디어 재생 장치에서 시청중인 채널의 자막 스트림을 번역하여 상기 미디어 재생 장치에 전송하는
자막 서비스 제공 장치.
According to claim 1,
The subtitle transmission module,
When a request for real-time foreign language subtitles is received from the media playback device, the media playback device translates the subtitle stream of the channel being watched and transmits it to the media playback device.
Caption service provider.
제 5항에 있어서,
상기 자막 전송 모듈은,
상기 복수의 채널에 각각 대응하고, 해당하는 언어를 신청한 미디어 재생 장치들의 세션 정보를 저장하는 복수의 언어 게이지를 각각 포함하는 복수의 번역 에이전트를 포함하는
자막 서비스 제공 장치.
According to claim 5,
The subtitle transmission module,
A plurality of translation agents each including a plurality of language gauges corresponding to the plurality of channels and storing session information of media playback devices that have applied for a corresponding language.
Caption service provider.
삭제delete 제 6항에 있어서,
상기 복수의 번역 에이전트는, 제2 채널에 대응하는 제2 번역 에이전트를 더 포함하고,
상기 제1 번역 에이전트는,
상기 제1 번역 에이전트가 유휴 중인 경우, 상기 제2 채널에서 획득한 자막 스트림을 번역하여 제2 채널-제1 언어 자막 스트림을 생성하고,
상기 제2 번역 에이전트 내 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제2 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출하는
자막 서비스 제공 장치.
According to claim 6,
The plurality of translation agents further include a second translation agent corresponding to a second channel;
The first translation agent,
When the first translation agent is idle, translate the subtitle stream obtained from the second channel to generate a second channel-first language subtitle stream;
Transmitting the second channel-first language subtitle stream in a multicast method to media playback devices corresponding to session information stored in a language gauge of a first language in the second translation agent.
Caption service provider.
제 4항에 있어서,
상기 자막 번역 모듈은,
상기 한글 자막 파일 내 일부 텍스트에 대응하는 번역 텍스트를 메모리 캐싱으로부터 추출하여 상기 외국어 자막 파일을 생성하고,
상기 번역 텍스트는,
상기 자막 번역 모듈의 엑세스 횟수에 기초하여 갱신되는
자막 서비스 제공 장치.
According to claim 4,
The subtitle translation module,
Generating the foreign language subtitle file by extracting translated text corresponding to some text in the Korean subtitle file from memory caching;
The translated text is
Updated based on the number of accesses of the subtitle translation module
Caption service provider.
방송사로부터 제공되는 방송 스트림 내 자막 데이터로부터 자막 텍스트를 획득하는 단계;
상기 자막 텍스트를 이용하여 상기 방송 스트림에 의해 실시간 방송된 방송 컨텐츠의 자막 파일을 생성하는 단계;
상기 방송사가 VOD 서비스 제공자에게 제공한 VOD용 방송 컨텐츠에 상기 자막 파일의 자막이 삽입되도록 상기 자막 파일을 배포하는 단계;
복수의 채널 중 제1 채널에 대응하는 제1 번역 에이전트가, 상기 제1 채널에서 획득한 자막 스트림을 번역하여 제1 채널-제1 언어 자막 스트림 및 제1 채널-제2 언어 자막 스트림을 생성하는 단계;
상기 제1 번역 에이전트가, 제1 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제1 언어 자막 스트림을 멀티캐스트 방식으로 송출하는 단계; 및
상기 제1 번역 에이전트가, 제2 언어의 언어 게이지에 저장된 세션 정보들에 해당하는 미디어 재생 장치들에 상기 제1 채널-제2 언어 자막 스트림을 멀티캐스트 방식으로 송출하는 단계;를 포함하는
자막 서비스 제공 방법.
obtaining caption text from caption data within a broadcast stream provided from a broadcasting company;
generating a caption file of broadcast content broadcast in real time by the broadcast stream using the caption text;
distributing the caption file so that the caption of the caption file is inserted into VOD broadcast content provided by the broadcaster to a VOD service provider;
A first translation agent corresponding to a first channel among a plurality of channels translates a subtitle stream obtained from the first channel to generate a first channel-first language subtitle stream and a first channel-second language subtitle stream. step;
transmitting, by the first translation agent, the first channel-first language subtitle stream to media playback devices corresponding to session information stored in a language gauge of the first language in a multicast manner; and
Transmitting, by the first translation agent, the first channel-second language subtitle stream in a multicast manner to media playback devices corresponding to session information stored in a language gauge of a second language;
How to provide closed captioning services.
KR1020210101600A 2021-08-02 2021-08-02 Device and method for providing subtitle service KR102552533B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210101600A KR102552533B1 (en) 2021-08-02 2021-08-02 Device and method for providing subtitle service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210101600A KR102552533B1 (en) 2021-08-02 2021-08-02 Device and method for providing subtitle service

Publications (2)

Publication Number Publication Date
KR20230019731A KR20230019731A (en) 2023-02-09
KR102552533B1 true KR102552533B1 (en) 2023-07-05

Family

ID=85224576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210101600A KR102552533B1 (en) 2021-08-02 2021-08-02 Device and method for providing subtitle service

Country Status (1)

Country Link
KR (1) KR102552533B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102200827B1 (en) * 2014-10-07 2021-01-11 주식회사 케이티 Mothod and server for generating re-transmission broadcast data including subtitles
KR102044689B1 (en) * 2017-04-24 2019-12-04 주식회사 소리보기 System and method for creating broadcast subtitle
KR102229130B1 (en) * 2019-07-18 2021-03-18 북스타트 교육 주식회사 Apparatus for providing of digital broadcasting using real time translation

Also Published As

Publication number Publication date
KR20230019731A (en) 2023-02-09

Similar Documents

Publication Publication Date Title
US10034028B2 (en) Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs
US10567834B2 (en) Using an audio stream to identify metadata associated with a currently playing television program
US8589973B2 (en) Peer to peer media distribution system and method
KR100916717B1 (en) Advertisement Providing Method and System for Moving Picture Oriented Contents Which Is Playing
CN102802044A (en) Video processing method, terminal and subtitle server
CN101159839A (en) Media player apparatus and method thereof
US20110283324A1 (en) Method and apparatus of digital broadcasting service using automatic keyword generation
US20130151251A1 (en) Automatic dialog replacement by real-time analytic processing
KR101335595B1 (en) Advertisement Providing System for Moving Picture Oriented Contents Which Is Playing
US20120323900A1 (en) Method for processing auxilary information for topic generation
KR20150137383A (en) Apparatus and service method for providing many languages of digital broadcasting using real time translation
JP2010087658A (en) Broadcast receiver and program for extracting topical keyword from broadcast contents
KR102552533B1 (en) Device and method for providing subtitle service
JP7121378B2 (en) Video management method, video management device, and video management system
US10796089B2 (en) Enhanced timed text in video streaming
KR101001618B1 (en) Creation apparatus and its method of a speech recognition information, broadcasting service method using by it
JP2010032733A (en) Finger language image generating system, server, terminal device, information processing method, and program
KR100878909B1 (en) System and Method of Providing Interactive DMB Broadcast
KR101134267B1 (en) System and method for converting content
US20220353584A1 (en) Optimal method to signal web-based subtitles
KR20120038654A (en) Method for providing service for recognizing voice in broadcast and network tv/server for controlling the method
KR101172637B1 (en) System and method for converting content
PIPERIDIS MULTILINGUAL CONTENT PROCESSING FOR MEDIA AND INFORMATION SERVICE

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant