KR101461562B1 - Method and device for synchronizing subtitles of multimedia contents - Google Patents

Method and device for synchronizing subtitles of multimedia contents Download PDF

Info

Publication number
KR101461562B1
KR101461562B1 KR20140054584A KR20140054584A KR101461562B1 KR 101461562 B1 KR101461562 B1 KR 101461562B1 KR 20140054584 A KR20140054584 A KR 20140054584A KR 20140054584 A KR20140054584 A KR 20140054584A KR 101461562 B1 KR101461562 B1 KR 101461562B1
Authority
KR
South Korea
Prior art keywords
caption
subtitle
subtitles
synchronization
file
Prior art date
Application number
KR20140054584A
Other languages
Korean (ko)
Inventor
곽종혁
Original Assignee
(주)트리짓소프트웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트리짓소프트웨어 filed Critical (주)트리짓소프트웨어
Priority to KR20140054584A priority Critical patent/KR101461562B1/en
Application granted granted Critical
Publication of KR101461562B1 publication Critical patent/KR101461562B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)

Abstract

A method for synchronizing subtitles of multimedia content is disclosed. The method for synchronizing subtitles of multimedia content comprising the following steps. A display module generates an image instance. The display module loads a subtitle processing module. The subtitle processing module loads a subtitle file for the image instance. The subtitle processing module generates an arrangement of the subtitles for a page to be synchronized from the subtitle file. The subtitle processing module allocates the subtitle included in the arrangement to subtitle objects. The display module arranges the allocated subtitle objects so as to match with a predetermined synchronization time point of the image instance. The display module displays the image instance. In the step of allocating the subtitles to the subtitle objects, the arrangement of the subtitles is matched with the respective subtitle objects based on a serial number of the subtitle objects.

Description

멀티미디어 컨텐츠의 자막 동기화 방법 및 장치 {METHOD AND DEVICE FOR SYNCHRONIZING SUBTITLES OF MULTIMEDIA CONTENTS}[0001] METHOD AND DEVICE FOR SYNCHRONIZING SUBTITLES OF MULTIMEDIA CONTENTS [0002]

본 명세서는 멀티미디어 컨텐츠의 자막 동기화 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for caption synchronization of multimedia content.

멀티미디어 컨텐츠의 효과적인 활용을 위하여 자막을 함께 표시하는 것은 일반적인 소비 방법 중의 하나이다. 청각장애인과 같이 음성 데이터에 대한 접근성에 제약이 있는 사용자가 다른 사용자와 유사한 컨텐츠 소비를 할 수 있도록 돕기 위하여 자막이 사용될 수 있다. 자막의 사용에 있어서 영상과의 동기화가 올바른 컨텐츠 소비를 위하여 최대한 요구된다.Displaying subtitles for effective use of multimedia contents is one of the common consumption methods. Subtitles can be used to help a user with restricted access to voice data, such as a hearing-impaired person, to consume content similar to other users. In the use of subtitles, synchronization with video is required as much as possible for correct content consumption.

종래의 자막 제공 방법으로서 영상 삽입식 방법이 있다. 영상 삽입식 방법은 영상의 제작 시점에 영상의 타임라인에 따라 필요한 자막을 영상 자체에 삽입하는 방법이다. 이와 같은 영상 삽입식 방법은 제작자가 동기화를 같이 고려할 수 있다는 점에서 직관적인 동기화가 가능하다는 장점이 있으나, 자막 내용의 수정 또는 자막 동기 시점의 변경 등 영상을 제외하고 자막만을 변경해야 하는 상황에서 변경이 불필요한 영상을 함께 편집해야 한다는 번거로움이 있다.As a conventional method of providing subtitles, there is a video insertion type method. The image insertion method is a method of inserting a necessary subtitle into the image itself according to the timeline of the image at the time of producing the image. This method of inserting images is advantageous in that it enables synchronization intuitively since the author can consider synchronism in the same way. However, in case of changing only subtitles except for video such as modification of subtitle contents or change of subtitle synchronization point, It is troublesome to edit these unnecessary images together.

종래의 또 다른 자막 제공 방법으로서 외부 자막파일을 이용하는 방법이 있다. 이는, 구체적으로, 영상 컨텐츠와 별개로 동기화 시점에 대한 정보를 담고 있는 자막 파일을 제작하여 영상 컨텐츠의 렌더링 당시에 자막 파일을 동기화하여 재생하는 것을 말한다. 이 경우의 장점은 자막 자체의 오타 등으로 인하여 내용 수정이 있을 경우 간단한 편집에 의하여 바로 잡을 수 있다는 것이나, 동기화 시점이 앞당겨질 필요가 있는 경우 해당 시점 이후의 모든 시간을 변경해야 하는 불편을 초래하기도 한다.As another conventional method of providing subtitles, there is a method of using an external subtitle file. Specifically, this means that a subtitle file containing information on the synchronization time point separately from the video content is produced, and the subtitle file is synchronized and reproduced at the time of rendering the video content. The advantage of this case is that it can be corrected by simple editing if there is a content modification due to a typo or the like of the subtitles itself. However, if the synchronization time needs to be advanced, it is inconvenient to change all times after that point do.

최근 플래시 기술을 이용한 멀티미디어 컨텐츠 제작이 널리 이루어짐에 따라, 플래시 기술에 의한 멀티미디어 컨텐츠에 대해서도 위와 같은 동일한 동기화 방식들의 문제점이 존재하고 있다.Recently, as the production of multimedia contents using the flash technology has become widespread, there is a problem of the same synchronization methods for the multimedia contents by the flash technology.

플래시 기술을 이용한 멀티미디어 컨텐츠에서 일반적으로 특정 시간에 자막을 표시하기 위해서는 텍스트 필드가 이용 될 수 있다. 이와 같이 텍스트 필드를 특정 시점의 영상에 표시하도록 하는 것은 영상 삽입식 방식으로서, 플래시 컨텐츠 제작자가 손쉽게 시간 순서에 맞게 자막이 제시되도록 조절이 가능하다는 장점이 있다. 하지만, 이 경우에 있어서 자막에 오타가 있거나 기타 다른 이유로 내용 수정이 필요한 경우 각 플래시 컨텐츠의 소스 파일을 열어 해당 부분을 수정한 후에 퍼블리시(컴파일)해야 하므로 수정에 소요되는 시간이 늘어나는 단점이 있다.In multimedia contents using flash technology, a text field is generally used to display subtitles at a specific time. In this way, displaying the text field on the image at a specific time point is an image insertion type method, and it is advantageous that the flash content creator can easily control the presentation of the subtitles according to time order. However, in this case, if there is a typo in the subtitles, or if the contents need to be modified for other reasons, it is necessary to open the source file of each flash content and modify the corresponding part before publishing (compile) .

플래시 기술을 이용하는 경우에도 별도의 파일을 이용한 자막 표시가 가능하다. 대체로 확장자 swf를 가지는 플래시 컨텐츠 파일 외에 별도의 텍스트 형태의 자막파일이 이용될 수 있다. 일반적으로는 특정 시점을 나타내는 시간 정보와 해당 시점에 표시될 자막이 쌍을 이루며 나열되어 있는 형태의 XML(eXtensible Markup Language) 문법을 이용한 텍스트 파일이 자막으로서 사용된다. 별도의 XML을 이용하는 방법의 장점은 플래시 컨텐츠를 수정하지 않고도 XML 파일만 수정하여 자막에 있을 수 있는 오타 또는 내용 수정 사항 등을 쉽게 바로잡을 수 있다는 점이다. 일반적인 XML을 이용한 방식의 단점으로는 동기화를 위한 시점 정보를 대체로 1000분의 1초 단위로 표기해야 하며, 동기화 정보가 수정되어야 할 경우 그 이후의 시점 정보가 모두 변경되어야 하는 불편함이 있다. Even when the flash technology is used, subtitles can be displayed using a separate file. In addition to the flash content file having the extension swf, a subtitle file in a separate text form may be used. Generally, a text file using an XML (eXtensible Markup Language) grammar in which time information indicating a specific time point and a subtitle to be displayed at the time point are arranged in a pair is used as a subtitle. The advantage of using separate XML is that you can easily modify XML files without modifying the Flash content to easily correct typos or content modifications that may be in the subtitles. The disadvantage of the conventional method using XML is that the time information for synchronization should be expressed in units of a thousandth of a second, and if the synchronization information needs to be modified, all subsequent time information must be changed.

본 명세서는 자막 수정이 용이하도록 별도의 자막 파일을 사용하면서 자막 파일 내에서 동기화를 위한 시간 정보를 용이하게 다룰 수 있는 방법 및 장치를 제시하기 위한 것이다.The present invention is intended to suggest a method and apparatus for easily handling time information for synchronization in a subtitle file while using separate subtitle files for easy caption correction.

또한, 본 명세서는 플래시 기술을 이용한 자막 동기화 방법에 있어서 별도의 자막 파일을 이용하면서 자막 파일 내의 시간 정보를 용이하게 다룰 수 있는 방법 및 장치를 제시하기 위한 것이다.In addition, the present invention is intended to suggest a method and apparatus for easily handling time information in a subtitle file while using a subtitle file in a subtitle synchronization method using a flash technology.

본 명세서에 개시된 실시 예에 따른 멀티미디어 컨텐츠의 자막 동기화 방법은, 표시 모듈이, 영상 인스턴스를 생성하는 단계; 상기 표시 모듈이, 자막 처리 모듈을 로드하는 단계; 상기 자막 처리 모듈이, 상기 영상 인스턴스를 위한 자막 파일을 로드하는 단계; 상기 자막 처리 모듈이, 상기 자막 파일로부터, 동기화 대상 페이지를 위한 자막들의 배열을 생성하는 단계; 상기 자막 처리 모듈이, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 단계; 상기 표시 모듈이, 상기 할당된 자막 객체를 상기 영상 인스턴스의 미리 결정된 동기화 시점에 대응되도록 배치하는 단계; 및 상기 표시 모듈이, 상기 영상 인스턴스를 표시하는 단계를 포함하되, 상기 자막 객체에 할당하는 단계는 상기 자막 객체의 일련번호를 기초로 상기 자막들의 배열을 각 자막 객체에 대응시킨다.According to another aspect of the present invention, there is provided a caption synchronization method for multimedia contents, the method comprising: generating a video instance by a display module; The display module loading a caption processing module; The subtitle processing module loading a subtitle file for the video instance; The subtitle processing module generating an array of subtitles for a synchronization target page from the subtitles file; Wherein the caption processing module includes: assigning each caption included in the arrangement to a caption object; The display module arranging the allocated caption object so as to correspond to a predetermined synchronization point of time of the video instance; And displaying the image instance by the display module. In the step of assigning to the caption object, the arrangement of the captions is associated with each caption object based on the serial number of the caption object.

상기 자막 동기화 방법은 다음과 같은 특징들 중 어느 하나를 포함할 수 있다. The caption synchronization method may include any one of the following features.

상기 자막 처리 모듈이 상기 자막 배열을 생성하는 단계는, 상기 자막 파일로부터 자막들을 판독하는 단계; 상기 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 단계; 및 상기 동기화 대상 페이지를 위한 자막들을 순서에 따라 배열에 배치시키는 단계를 포함할 수 있다.Wherein the step of generating the caption array by the caption processing module comprises: reading captions from the caption file; Determining whether the subtitles correspond to the synchronization target page; And arranging the subtitles for the page to be synchronized in an orderly manner.

또한, 상기 멀티미디어 컨텐츠는 SWF(ShockWave Flash) 형식일 수 있다.In addition, the multimedia contents may be SWF (ShockWave Flash) format.

또한, 상기 자막 객체는 캡션 객체(Caption Object)일 수 있다.In addition, the caption object may be a caption object.

또한, 상기 자막 객체의 일련번호는 상기 캡션 객체의 이름의 일부에 해당할 수 있다.In addition, the serial number of the caption object may correspond to a part of the name of the caption object.

또한, 상기 자막 파일은 XML(eXtensible Markup Language) 형태일 수 있다.
In addition, the subtitle file may be in XML (eXtensible Markup Language) format.

한편, 본 명세서에 개시된 다른 실시 예에 따른 멀티미디어 컨텐츠의 자막 동기화 장치는 영상 인스턴스를 생성하고, 상기 영상 인스턴스에 자막 객체를 미리 결정된 동기화 시점에 대응되도록 배치하고, 상기 영상 인스턴스를 표시하는 표시 모듈; 및 상기 영상 인스턴스를 위한 자막 파일을 로드하고, 상기 자막 파일로부터 동기화 대상 페이지를 위한 자막들의 배열을 생성하고, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 자막 처리 모듈을 포함하되, 상기 표시 모듈은 상기 자막 처리 모듈을 로드하고, 상기 자막들은 상기 자막 객체의 일련번호를 기초로 상기 자막 객체에 각각 대응시킴으로써 상기 자막 객체에 할당되는 것일 수 있다.Meanwhile, the caption synchronization apparatus for multimedia contents according to another embodiment disclosed herein may include a display module for generating a video instance, arranging a caption object corresponding to a predetermined synchronization point in the image instance, and displaying the image instance; And a caption processing module for loading a caption file for the image instance, generating an array of captions for the synchronization target page from the caption file, and assigning each caption included in the array to a caption object, The module may be loaded with the caption processing module and the captions may be assigned to the caption objects by respectively associating the caption objects with the caption objects based on the serial number of the caption objects.

본 명세서에 개시된 실시 예를 따르는 자막 동기화 방법 및 장치에 의하면 동기화된 자막을 수정하기 위하여 자막 파일에 있는 동기화 시점에 대한 정보를 수정해야 하는 번거로운 과정을 생략할 수 있게 한다.According to the caption synchronization method and apparatus according to the embodiment disclosed herein, it is possible to omit the cumbersome process of correcting the information about the synchronization point in the subtitle file to correct the synchronized caption.

또한 본 명세서에 개시된 실시 예를 따르는 자막 동기화 방법에 따르면 외부 자막 파일을 이용함으로써 자막 내용 수정이 용이한 장점을 가지면서도, 해당 자막 파일의 추가 수정 사항의 양을 현저하게 감소시킬 수 있다.In addition, according to the caption synchronization method according to the embodiment described herein, it is possible to easily modify the caption contents by using the external caption file, but it is also possible to remarkably reduce the amount of additional correction of the caption file.

도 1은 본 명세서에 개시된 기술이 채택될 수 있는 자막 동기화 장치를 도시한다.
도 2는 본 명세서에 개시된 기술에 따른 자막 동기화 장치가 멀티미디어 처리 장치 형태로 구현된 예를 도시한다.
도 3은 본 명세서에 개시된 기술의 실시 예에 따른 자막 동기화 방법의 흐름도이다.
도 4는 표시 모듈이 영상 인스턴스를 생성하고 자막 처리 모듈을 로드하는 과정에 대한 예시이다.
도 5는 자막 파일의 예를 도시한다.
도 6은 상기 자막 처리 모듈이 상기 자막 파일을 판독함으로써 획득한 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 예를 도시한다.
도 7은 일련번호를 기초로 자막을 자막 객체에 할당하는 과정의 예를 도시한다.
도 8은 표시 모듈이 자막 객체를 배치하는 과정의 예를 도시한다.
1 illustrates a caption synchronization apparatus in which the techniques disclosed herein may be employed.
FIG. 2 shows an example in which the caption synchronization apparatus according to the technique disclosed in this specification is implemented in the form of a multimedia processing apparatus.
3 is a flowchart of a subtitle synchronization method according to an embodiment of the technique disclosed herein.
4 is an illustration of a process in which a display module creates a video instance and loads a caption processing module.
5 shows an example of a subtitle file.
FIG. 6 illustrates an example in which the caption processing module determines whether captions obtained by reading the caption file correspond to the synchronization target page.
7 shows an example of a process of assigning a subtitle to a subtitle object based on a serial number.
8 shows an example of a process in which a display module arranges a caption object.

본 명세서에 개시된 기술은 자막 동기화 방법 및 장치에 적용된다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 자막 처리 방법 및 장치, 멀티미디어 장치에도 적용될 수 있다.The techniques disclosed herein apply to a subtitle synchronization method and apparatus. However, the technique disclosed in this specification is not limited to this, and can be applied to all subtitle processing methods, apparatuses, and multimedia devices to which the technical idea of the present invention can be applied.

또한, 본 명세서에 개시된 기술을 설명하기 위하여 플래시 기술을 예시하였으나, 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 다른 컨텐츠 제작 기술에 의한 자막 동기화 방법 및 장치에도 적용될 수 있다.In addition, although the flash technology has been exemplified to describe the techniques disclosed in this specification, the techniques disclosed in this specification are not limited thereto, but may be applied to a method and apparatus for caption synchronization by other content production techniques to which the technical idea of the present invention can be applied .

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings. The spirit of the present invention should be construed as extending to all modifications, equivalents, and alternatives in addition to the appended drawings.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising ", or" comprising "and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
Further, the suffix "module" and "part" for components used in the present specification are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

도 1 - 자막 동기화 장치Figure 1 - Subtitle Synchronization Device

도 1을 참조하여 멀티미디어 컨텐츠의 자막 동기화 장치가 개시된다. 도 1은 본 명세서에 개시된 기술이 채택될 수 있는 자막 동기화 장치를 도시한다.Referring to FIG. 1, a subtitle synchronization apparatus for multimedia contents is disclosed. 1 illustrates a caption synchronization apparatus in which the techniques disclosed herein may be employed.

도 1을 참조하면, 본 명세서에 개시된 기술을 따르는 자막 동기화 장치(100)는 표시 모듈(110)과 자막 처리 모듈(120)을 포함하도록 구성될 수 있다. 그 밖에, 상기 자막 동기화 장치(100)는 상기 표시 모듈(110)이 동기화된 영상을 자막과 함께 표시할 수 있는 디스플레이(130) 또는 상기 자막 처리 모듈(120)이 처리할 자막 파일을 저장하기 위한 저장부(140)를 더 포함할 수 있다.Referring to FIG. 1, the caption synchronization apparatus 100 according to the technique disclosed herein may be configured to include a display module 110 and a caption processing module 120. In addition, the caption synchronization apparatus 100 may further include a display 130 for displaying the synchronized image of the display module 110 together with the caption, or a display 130 for displaying the caption file to be processed by the caption processing module 120 And may further include a storage unit 140.

상기 표시 모듈(110)은 영상 인스턴스를 생성하고, 상기 영상 인스턴스에 자막 객체를 미리 결정된 동기화 시점에 대응되도록 배치하고, 상기 영상 인스턴스를 표시하는 모듈이다.The display module 110 generates a video instance, arranges a caption object in the video instance so as to correspond to a predetermined synchronization point, and displays the video instance.

상기 영상 인스턴스는 자막이 동기화되어 함께 표시될 영상을 나타낸다. 상기 영상 인스턴스는, 플래시 기술의 경우 예를 들면, 자막 동기화 과정에서 사용하기 위하여 디스플레이 모듈을 통해 표시되기 이전에 미리 생성되는 영상 객체일 수 있다. 상기 표시 모듈(110)은 상기 영상 인스턴스에 대한 동기화 절차가 이루어진 후 영상의 타임 라인에 따라 배치하고 디스플레이에 표시할 수 있다.The video instance represents an image to be displayed together with the subtitles being synchronized. In the case of the flash technology, the image instance may be a previously generated image object before being displayed through a display module for use in a caption synchronization process. The display module 110 may arrange the image instance according to the time line of the image after the synchronization procedure for the image instance is performed and display the image on the display.

상기 자막 처리 모듈(120)은 상기 영상 인스턴스를 위한 자막 파일을 로드하고, 상기 자막 파일로부터 동기화 대상 페이지를 위한 자막들의 배열을 생성하고, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 모듈이다.The subtitle processing module 120 loads a subtitle file for the video instance, generates an array of subtitles for the synchronization target page from the subtitle file, and assigns the subtitles included in the array to the subtitle object .

상기 표시 모듈(110)은 상기 자막 처리 모듈(120)을 로드하고, 실행시킬 수 있다. 상기 표시 모듈(110)과 상기 자막 처리 모듈(120)은 별도의 플래시 파일 형태로 구현될 수도 있고, 단일 플래시 파일 내의 다른 함수의 형태로 구현될 수 있다.The display module 110 can load and execute the caption processing module 120. The display module 110 and the caption processing module 120 may be implemented as separate flash files or as other functions in a single flash file.

상기 자막들은 상기 자막 파일에서 획득된 것으로, 상기 자막 객체에 하나씩 할당된다. 상기 자막들의 할당 기준은 상기 자막 객체가 가지는 시간 순서에 따른 일련 번호 또는 시퀀스(sequence) 정보가 된다. 예를 들어, 상기 자막 객체의 일련번호 순서에 따라 상기 자막 파일 내의 자막들이 각각의 자막 객체에 할당될 수 있다.
The subtitles are obtained from the subtitle file, and are assigned to the subtitle objects one by one. The assignment criterion of the captions is a sequence number or sequence information according to the time sequence of the caption object. For example, subtitles in the subtitle file may be assigned to each subtitle object according to the sequence number sequence of the subtitle object.

도 2 - 멀티미디어 처리 장치 형태의 실시 예Figure 2 - Embodiment of the form of a multimedia processing device

도 2를 참조하여 멀티미디어 처리 장치가 개시된다. 도 2는 본 명세서에 개시된 기술에 따른 자막 동기화 장치가 멀티미디어 처리 장치 형태로 구현된 예를 도시한다.A multimedia processing apparatus is disclosed with reference to FIG. FIG. 2 shows an example in which the caption synchronization apparatus according to the technique disclosed in this specification is implemented in the form of a multimedia processing apparatus.

본 명세서에 개시된 실시 예를 따르는 멀티미디어 처리 장치(200)는 저장부(210) 및 제어부(220)를 포함하여 구현될 수 있다.The multimedia processing apparatus 200 according to an embodiment disclosed herein may be implemented by including a storage unit 210 and a control unit 220. [

상기 저장부(210)는 상기 멀티미디어 처리 장치(200)의 동작에 필요한 정보를 저장할 수 있다. 상기 저장부(210)에는 다양한 소프트웨어 컴포넌트들이 저장될 수 있다. 구체적으로, 상기 저장부(210)에는 운영 체제(Operating System; OS)(211), 응용 프로그램(Applications)(212) 및 사용자 데이터(213)가 저장될 수 있다. The storage unit 210 may store information necessary for the operation of the multimedia processing apparatus 200. The storage unit 210 may store various software components. The storage unit 210 may store an operating system (OS) 211, application programs 212, and user data 213.

상기 운영 체제(211)(예를 들어, LINUX, UNIX, OS X, WINDOWS, Chrome, Symbian, WinCE, Windows Mobile, iOS, Android, Tizen, VxWorks, pSOS 또는 기타 임베디드 운영 체제)는 메모리 관리, 전력 관리 등과 같이 시스템 작업(tasks)들을 제어하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함할 수 있다.The operating system 211 (e.g., LINUX, UNIX, OS X, WINDOWS, Chrome, Symbian, WinCE, Windows Mobile, iOS, Android, Tizen, VxWorks, pSOS or other embedded operating systems) And / or < / RTI > drivers for controlling system tasks, such as, e. G.

상기 응용 프로그램(212)은 상기 운영 체제(211) 상에서 실행되는 다양한 어플리케이션일 수 있다. 상기 응용 프로그램(212)은, 예를 들어, 실행 프로그램 형태로 구현된 교육용 컨텐츠일 수 있다.The application programs 212 may be various applications running on the operating system 211. The application program 212 may be, for example, educational contents implemented in the form of an executable program.

또한, 상기 응용 프로그램(212)는 플래시 컨텐츠를 실행시키기 위한 플랫폼일 수 있다. 즉, 상기 응용 프로그램(212)은 예시적으로 플래시 기술을 이용하여 자막 처리 방법이 구현된 플래시 컨텐츠를 실행시키기 위한 플랫폼일 수 있다. 이 경우, 상기 응용 프로그램(212) 플래시 기술을 이용하여 구현된 도 1의 표시 모듈(110) 및 자막 처리 모듈(120)일 수 있다. 예를 들어, 상기 응용 프로그램(212)은 도 1을 참조하여 설명된 표시 모듈(110)과 같이 영상 인스턴스를 생성하고, 상기 영상 인스턴스에 자막 객체를 미리 결정된 동기화 시점에 대응되도록 배치하고, 상기 영상 인스턴스를 표시하는 기능을 수행할 수 있으며, 도 1을 참조하여 설명된 자막 처리 모듈(120)과 같이 상기 영상 인스턴스를 위한 자막 파일을 로드하고, 상기 자막 파일로부터 동기화 대상 페이지를 위한 자막들의 배열을 생성하고, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 기능을 수행할 수 있다. 이하 중복되는 설명은 생략한다.Also, the application program 212 may be a platform for executing flash content. In other words, the application program 212 may be a platform for executing flash content in which a subtitle processing method is implemented using flash technology as an example. In this case, the application program 212 may be the display module 110 and the caption processing module 120 of FIG. 1 implemented using the flash technology. For example, the application program 212 generates a video instance as in the display module 110 described with reference to FIG. 1, arranges a caption object in the video instance so as to correspond to a predetermined synchronization point, And loads the subtitle file for the video instance as in the subtitle processing module 120 described with reference to FIG. 1, and arranges the subtitles for the synchronization target page from the subtitle file And assigns each of the captions included in the arrangement to the caption object. The following description will not be repeated.

상기 저장부(210)는 전원 공급에 따라 저장 기능이 유지되는지에 따라 휘발성 메모리와 비휘발성 메모리로 구분되어 구현될 수 있다. 또한, 상기 저장부(210)는 램(Random Access Memory, RAM), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 xD 메모리 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 상기 저장부(210)는 통신모듈을 통해 연결되는 네트워크 스토리지(network storage) 또는 클라우드 서비스(cloud service)에 의하여 제공되는 저장 기능을 사용하기 위한 모듈 형태일 수 있다.The storage unit 210 may be implemented as a volatile memory and a nonvolatile memory depending on whether a storage function is maintained according to power supply. The storage unit 210 may be a random access memory (RAM), a read only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) , A magnetic disk, an optical disk, a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or xD memory) And may include at least one type of storage medium. Also, the storage unit 210 may be a module for using a storage function provided by a network storage or a cloud service connected through a communication module.

상기 저장부(210)에는 사용자 데이터(213) 형태로 본 명세서에 개시된 실시 예를 따르는 자막 파일이 저장될 수 있다.In the storage unit 210, a caption file according to the embodiment disclosed herein may be stored in the form of user data 213.

상기 제어부(220)는 본 명세서에 실시 예로서 개시된 방법들을 수행하도록 상기 멀티미디어 처리 장치(200)의 구성 요소들을 제어한다. 상기 제어부(220)는 상기 저장부(210)에 저장된 소프트웨어 컴포넌트들을 실행하도록 구성될 수 있다.
The control unit 220 controls the components of the multimedia processing apparatus 200 to perform the methods disclosed in the embodiments of the present invention. The control unit 220 may be configured to execute software components stored in the storage unit 210.

도 3 - 자막 동기화 방법 및 기타 도면들Figure 3 - Method of synchronizing subtitles and other drawings

이하 도 3을 참조하여 자막 동기화 방법이 개시된다. 또한 도 4 내지 도 8을 참조하여 구체적인 자막 동기화의 예를 설명한다. A method for synchronizing subtitles is described below with reference to FIG. An example of subtitle synchronization will be described with reference to FIGS. 4 to 8. FIG.

도 3은 본 명세서에 개시된 기술의 실시 예에 따른 자막 동기화 방법의 흐름도이다.3 is a flowchart of a subtitle synchronization method according to an embodiment of the technique disclosed herein.

먼저, 표시 모듈이 영상 인스턴스를 생성한다(S10).First, the display module creates a video instance (S10).

상기 영상 인스턴스는 이후에 동기화될 자막과 함께 표시될 영상을 나타낸다. 상기 영상 인스턴스는, 플래시 기술의 경우 예를 들면, 자막 동기화 과정에서 사용하기 위하여 디스플레이 모듈을 통해 표시되기 이전에 미리 생성되는 영상 객체일 수 있다. 상기 표시 모듈은 상기 영상 인스턴스에 대한 동기화 절차가 이루어진 후 영상의 타임 라인에 따라 배치하고 디스플레이에 표시할 수 있다. 이후 단계에서 상술된다.The image instance represents an image to be displayed together with a subtitle to be subsequently synchronized. In the case of the flash technology, the image instance may be a previously generated image object before being displayed through a display module for use in a caption synchronization process. The display module may arrange according to the time line of the image after the synchronization procedure for the image instance is performed and display the image on the display. It will be detailed later.

예를 들어, 플래시 기술로 구현된 표시 모듈의 경우 액션 스크립트 상의 'createEmptyMovieClip'과 같은 방법을 호출하여 자막 동기화 작업을 위한 영상 인스턴스를 생성할 수 있다.For example, in the case of a display module implemented with flash technology, a method such as 'createEmptyMovieClip' on an action script can be called to create a video instance for a subtitle synchronization operation.

다음으로, 상기 표시 모듈이 자막 처리 모듈을 로드한다(S20). Next, the display module loads the caption processing module (S20).

상기 표시 모듈과 상기 자막 처리 모듈은, 예를 들어, 후술되는 기능을 각각 구현하기 위하여, 별도의 플래시 파일로 구현될 수 있다. 한편, 상기 표시 모듈과 상기 자막 처리 모듈은 하나의 플래시 파일로 구현될 수도 있으며, 이 경우 상기 자막 처리 모듈을 로드하는 단계는 함수 호출과 같은 의미로 해석될 수 있다.The display module and the caption processing module may be implemented as separate flash files, for example, in order to implement the functions described below. Meanwhile, the display module and the caption processing module may be implemented as a single flash file. In this case, the step of loading the caption processing module may be interpreted as a function call.

예를 들어, 플래시 기술로 구현된 표시 모듈의 경우 'loadMovie'와 같은 방법을 호출하여 자막 처리 모듈을 로드할 수 있다.For example, in the case of a display module implemented with flash technology, a method such as 'loadMovie' can be called to load the subtitle processing module.

도 4는 표시 모듈이 영상 인스턴스를 생성하고(401), 'script.swf'이라는 자막 처리 모듈을 로드하는(402) 단계를 나타낸 플래시 기술의 예시이다.Figure 4 is an illustration of an example flash technique that illustrates a display module creating (401) a video instance and loading (402) a subtitle processing module called 'script.swf'.

다음으로, 상기 자막 처리 모듈이 상기 영상 인스턴스를 위한 자막 파일을 로드한다(S30).Next, the subtitle processing module loads a subtitle file for the video instance (S30).

상기 자막 파일은 XML(eXtensible Markup Language) 형태일 수 있다. 일반적인 XML 형태를 이용한 자막 파일과 달리, 본 명세서에 개시된 기술에 따르는 자막 파일은 형태는 XML 문법을 따르는 텍스트 파일이나, 동기화 대상 페이지에 속한 자막들이 순서에 맞게 기재되어 있다는 점에서 차이가 있다.The subtitle file may be in XML (eXtensible Markup Language) format. Unlike a caption file using a general XML format, a caption file according to the technique disclosed in this specification differs in that a text file conforming to the XML syntax or a caption belonging to a synchronization target page are described in order.

도 5는 자막 파일의 예를 도시한다. XML 파일(410)은 영상 인스턴스 내에서 동기화 대상 페이지에 대응되는 페이지 구분 태그, 예를 들어 '<sco>' 태그(411) 또는 '<page>' 태그(413)를 가질 수 있다. 또한 상기 XML 파일(410)은 상기 페이지 구분 태그 내에는 예를 들어 '<caption>' 태그(415)를 이용하여 자막들을 포함하고 있을 수 있다.
5 shows an example of a subtitle file. The XML file 410 may have a page separation tag corresponding to the synchronization target page in the image instance, for example, a '<sco>' tag 411 or a '<page> tag 413. Also, the XML file 410 may include captions using the '<caption>' tag 415, for example, in the page separation tag.

다음으로, 상기 자막 처리 모듈이, 상기 자막 파일로부터, 동기화 대상 페이지를 위한 자막들의 배열을 생성한다(S40).Next, the caption processing module generates an array of captions for the synchronization target page from the caption file (S40).

구체적으로, 상기 자막 처리 모듈이 상기 자막 배열을 생성하는 과정은 상기 자막 파일(410)을 판독하는 단계와, 상기 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 단계와, 상기 동기화 대상 페이지를 위한 자막들을 순서에 따라 배열에 배치시키는 단계를 포함하도록 구성될 수 있다.In detail, the process of generating the caption array by the caption processing module may include reading the caption file 410, determining whether the captions correspond to the synchronization target page, And arranging the subtitles for the subtitles in an orderly manner.

상기 자막 파일(410)을 판독하는 단계는 XML 문법으로 이루어진 텍스트 파일을 파싱하는 과정, 또는 특정 XML 문법에 맞게 페이지 별 자막 데이터를 구분하는 과정을 포함할 수 있다.The step of reading the caption file 410 may include a process of parsing a text file composed of XML syntax or a process of separating caption data per page according to a specific XML grammar.

상기 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 단계는 동기화 대상 페이지의 페이지 번호와 자막 파일 내의 페이지 태그의 정보를 대비하는 과정일 수 있다.The step of determining whether the subtitles correspond to the synchronization target page may be a process of comparing the page number of the synchronization target page with the information of the page tag in the subtitle file.

도 6은 상기 자막 처리 모듈이 상기 자막 파일을 판독함으로써 획득한 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 예를 도시한다. 예를 들어, 상기 자막 처리 모듈은 자막들이 상기 동기화 대상 페이지가 속해있는 섹션 또는 페이지에 해당하는지 여부를 판단하는 과정을 거친다(421, 423). 이는 도 5에 도시된 예시에서 자막 파일(410) 내의 페이지 구분 태그(411, 413)를 확인하는 과정에 해당한다. 만약, 어떤 자막이 동기화 대상 페이지에 속한 것으로 판단되는 경우 상기 자막 처리 모듈은 해당 자막을 배열에 배치시키는 과정을 수행한다(425).
FIG. 6 illustrates an example in which the caption processing module determines whether captions obtained by reading the caption file correspond to the synchronization target page. For example, the subtitle processing module determines whether subtitles correspond to a section or a page to which the synchronization target page belongs (421, 423). This corresponds to the process of confirming the page classification tags 411 and 413 in the caption file 410 in the example shown in FIG. If it is determined that a certain subtitle belongs to the page to be synchronized, the subtitle processing module performs a process of arranging the subtitle into an array (425).

다음으로, 상기 자막 처리 모듈이, 상기 배열에 포함된 각 자막들을 자막 객체에 할당한다(S50).Next, the caption processing module assigns each caption included in the arrangement to a caption object (S50).

상기 자막 객체는 상기 영상 인스턴스에 자막을 표시하기 위한 객체이다. 예를 들어, 상기 자막 객체는 플래시 기술에서 캡션 객체(Caption Object)일 수 있다.The caption object is an object for displaying a caption on the video instance. For example, the caption object may be a caption object in the flash technology.

상기 자막 객체는 궁극적으로 자막 파일에서 판독한 자막들 중 상기 영상 인스턴스에 표시하고자 하는 특정 자막과 연관되어야 하며, 이를 위하여 자막 객체의 일련번호를 이용할 수 있다. 즉, 상기 자막 객체에 할당하는 단계는 상기 자막 객체의 일련번호를 기초로 상기 자막들의 배열을 각 자막 객체에 대응시키는 것일 수 있다. 상기 자막 객체의 일련번호는 상기 캡션 객체의 이름의 일부에 해당하거나 상기 자막 객체에 속한 별도의 속성일 수도 있다.The subtitle object is ultimately related to a specific subtitle to be displayed on the video instance among subtitles read from the subtitle file. For this purpose, the subtitle object serial number can be used. That is, the step of allocating to the caption object may correspond the arrangement of the captions to each caption object based on the serial number of the caption object. The serial number of the caption object may correspond to a part of the name of the caption object or may be a separate attribute belonging to the caption object.

자막 객체의 이름의 일부를 이용하는 경우를 예를 들면, 자막 객체가 "'mcCaption_' + 일련번호"의 형태의 이름을 갖는 경우, 상기 자막 처리 모듈은 동기화 대상 페이지 내의 자막들 중에서 순번이 'mcCaption_'을 제외한 일련번호와 동일한 자막을 선택하여 해당 자막 객체에 할당할 수 있다. 도 7을 참조하면 일련번호를 기초로 자막을 자막 객체에 할당하는 과정(427)을 확인할 수 있다.
For example, when the subtitle object has a name of the form "mcCaption_ + serial number", the subtitle processing module determines that the sequence number of the subtitles in the synchronization target page is 'mcCaption_' The subtitle having the same sequence number as the subtitle can be selected and assigned to the corresponding subtitle object. Referring to FIG. 7, a process 427 of assigning a caption to a caption object based on the serial number can be confirmed.

다음으로, 상기 표시 모듈이, 상기 할당된 자막 객체를 상기 영상 인스턴스의 미리 결정된 동기화 시점에 대응되도록 배치한다(S60).Next, the display module arranges the allocated caption object so as to correspond to a predetermined synchronization point of time of the video instance (S60).

상기 영상 인스턴스 내의 자막이 어느 시점에서 표시되어야 하는지에 대한 정보는 XML 형태의 자막 파일에 포함되어 있지 않는 것이 중요하다. 이는 자막 내용에 있는 발생할 수 있는 오류 또는 내용 수정 사항 등을 이유로 추가 작업이 불가피한 경우에 자막 내용에 대한 변경 작업은 이미 제작된 영상에 대한 수정 작업이 없이도 이루어질 수 있어야 하기 때문이다.It is important that the information about the time at which the caption in the video instance should be displayed is not included in the XML-type caption file. This is because, in the case where additional work is inevitable due to an error or contents correction in the subtitle contents, the modification of the subtitle contents must be possible without correcting the already produced image.

다만, 본 명세서에 개시된 기술은 동기화 시점에 대한 정보가 자막 파일에 표시되는 것으로 인한 단점을 개선하기 위하여, 위와 같이 할당된 자막 객체가 상기 영상 인스턴스의 정해진 시점에 표시될 수 있도록 배치되는 것을 특징으로 한다.However, the technique disclosed in this specification is characterized in that, in order to improve the disadvantage caused by the information on the synchronization point being displayed in the subtitle file, the subtitle object allocated in such a manner is displayed so that it can be displayed at a predetermined time point of the video instance do.

이를 위하여 상기 동기화 대상 페이지 내에서 각각의 자막 객체가 표시될 시점은 영상 제작 당시에 미리 결정되며, 상기 표시 모듈은 미리 결정된 동기화 시점에 맞게 상기 자막 객체를 배치하게 된다.To this end, the time at which each caption object is displayed in the synchronization target page is predetermined at the time of image production, and the display module arranges the caption object at a predetermined synchronization point.

도 8을 참조하면, 상기 표시 모듈은 자막 객체(431)를 배치하기 위하여, 상기 자막 객체의 이름(433)에 나타난 일련번호를 확인하고, 상기 자막 객체(431)의 위치를 상기 동기화 대상 페이지가 표시되는 도중의 특정 시점(435)에 표시될 수 있도록 배치한다.8, the display module confirms the serial number indicated in the name 433 of the caption object 433 in order to arrange the caption object 431, and determines the position of the caption object 431 based on the position of the caption object 431 Is displayed so as to be displayed at a specific time point (435) on the way of being displayed.

다음으로, 전술된 바와 같이 상기 영상 인스턴스에는 자막들이 할당된 자막 객체가 동기화 시점에 맞게 배치되어 있고, 상기 표시 모듈은 이와 같은 상기 영상 인스턴스를 표시(S70)함으로써 동기화된 자막이 영상과 함께 표시될 수 있게 한다.
Next, as described above, the caption object assigned with the captions is arranged in accordance with the synchronization point in the video instance, and the display module displays the caption in synchronization with the displayed image instance (S70) I will.

본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention can be modified, changed, or improved in various forms within the scope of the present invention and the claims.

Claims (7)

멀티미디어 컨텐츠의 자막 동기화 방법으로서,
표시 모듈이, 영상 인스턴스를 생성하는 단계;
상기 표시 모듈이, 자막 처리 모듈을 로드하는 단계;
상기 자막 처리 모듈이, 상기 영상 인스턴스를 위한 자막 파일을 로드하는 단계;
상기 자막 처리 모듈이, 상기 자막 파일로부터, 동기화 대상 페이지를 위한 자막들의 배열을 생성하는 단계;
상기 자막 처리 모듈이, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 단계;
상기 표시 모듈이, 상기 할당된 자막 객체를 상기 영상 인스턴스의 미리 결정된 동기화 시점에 대응되도록 배치하는 단계; 및
상기 표시 모듈이, 상기 영상 인스턴스를 표시하는 단계를 포함하되,
상기 자막 처리 모듈이 상기 자막 배열을 생성하는 단계는,
XML 문법으로 이루어진 상기 자막 파일을 파싱하여 자막들을 판독하는 단계;
상기 동기화 대상 페이지의 페이지 번호와 상기 자막 파일 내의 페이지 태그 정보를 대비하여 상기 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하는 단계; 및
상기 동기화 대상 페이지를 위한 자막들을 순서에 따라 배열에 배치시키는 단계를 포함하고,
상기 영상 인스턴스의 동기화 시점은 상기 영상 인스턴스에 관한 영상 컨텐츠의 제작 시점에 미리 결정된 각각의 자막 객체가 표시될 복수의 시점들로서, 상기 동기화 시점은 표시되는 순서에 따라 시계열적으로 배치되며,
상기 자막 객체에 할당하는 단계는 상기 자막 객체의 일련번호를 기초로 상기 자막들의 배열을 각 자막 객체에 대응시키는 것을 특징으로 하는 자막 동기화 방법.
A subtitle synchronization method of multimedia contents,
The display module creating a video instance;
The display module loading a caption processing module;
The subtitle processing module loading a subtitle file for the video instance;
The subtitle processing module generating an array of subtitles for a synchronization target page from the subtitles file;
Wherein the caption processing module includes: assigning each caption included in the arrangement to a caption object;
The display module arranging the allocated caption object so as to correspond to a predetermined synchronization point of time of the video instance; And
The display module displaying the image instance,
Wherein the caption processing module generates the caption array,
Parsing the subtitle file in XML grammar to read subtitles;
Comparing the page number of the synchronization target page with the page tag information in the subtitle file to determine whether the subtitles correspond to the synchronization target page; And
And arranging the subtitles for the page to be synchronized in an orderly manner,
Wherein the synchronization point of the image instance is a plurality of points of time at which each caption object determined at a production time of the image content related to the image instance is to be displayed and the synchronization points are arranged in a time-
Wherein the assigning of the caption object to the caption object associates the arrangement of the captions with each caption object based on the serial number of the caption object.
삭제delete 제 1 항에 있어서,
상기 멀티미디어 컨텐츠는
SWF 형식으로 이루어진 것을 특징으로 하는 자막 동기화 방법.
The method according to claim 1,
The multimedia content
SWF format.
제3 항에 있어서,
상기 자막 객체는
캡션 객체(Caption Object)인 것을 특징으로 하는 자막 동기화 방법.
The method of claim 3,
The subtitle object
Wherein the caption object is a caption object.
제4 항에 있어서,
상기 자막 객체의 일련번호는
상기 캡션 객체의 이름의 일부에 해당하는 것을 특징으로 하는 자막 동기화 방법.
5. The method of claim 4,
The serial number of the caption object is
Wherein the subtitle corresponds to a part of a name of the caption object.
제5 항에 있어서,
상기 자막 파일은
XML(eXtensible Markup Language) 형태인 것을 특징으로 하는 자막 동기화 방법.
6. The method of claim 5,
The subtitle file
Wherein the subtitle is in an eXtensible Markup Language (XML) format.
멀티미디어 컨텐츠의 자막 동기화 장치로서,
영상 인스턴스를 생성하고, 상기 영상 인스턴스에 자막 객체를 미리 결정된 동기화 시점에 대응되도록 배치하고, 상기 영상 인스턴스를 표시하는 표시 모듈; 및
상기 영상 인스턴스를 위한 자막 파일을 로드하고, 상기 자막 파일로부터 동기화 대상 페이지를 위한 자막들의 배열을 생성하고, 상기 배열에 포함된 각 자막들을 자막 객체에 할당하는 자막 처리 모듈을 포함하되,
상기 표시 모듈은 상기 자막 처리 모듈을 로드하고,
상기 자막 처리 모듈은 XML 문법으로 이루어진 상기 자막 파일을 파싱하여 자막들을 판독하고, 상기 동기화 대상 페이지의 페이지 번호와 상기 자막 파일 내의 페이지 태그 정보를 대비하여 상기 자막들이 상기 동기화 대상 페이지에 해당하는지 여부를 판단하여, 상기 동기화 대상 페이지를 위한 자막들을 순서에 따라 배열에 배치시켜서 상기 자막 배열을 생성하고,
상기 영상 인스턴스의 동기화 시점은 상기 영상 인스턴스에 관한 영상 컨텐츠의 제작 시점에 미리 결정된 각각의 자막 객체가 표시될 복수의 시점들로서, 상기 동기화 시점은 표시되는 순서에 따라 시계열적으로 배치되며,
상기 자막들은 상기 자막 객체의 일련번호를 기초로 상기 자막 객체에 각각 대응시킴으로써 상기 자막 객체에 할당되는 것을 특징으로 하는 자막 동기화 장치.
A subtitle synchronization apparatus for multimedia contents,
A display module for creating a video instance, arranging a caption object in the video instance so as to correspond to a predetermined synchronization point, and displaying the video instance; And
A caption processing module for loading a caption file for the image instance, generating an array of captions for the synchronization target page from the caption file, and assigning each caption contained in the array to a caption object,
The display module loads the caption processing module,
The subtitle processing module parses the subtitle file in XML syntax to read subtitles and compares the page number of the synchronization target page with the page tag information in the subtitle file to determine whether the subtitles correspond to the synchronization target page And arranges the subtitles for the page to be synchronized in an order in order to generate the subtitles array,
Wherein the synchronization point of the image instance is a plurality of points of time at which each caption object determined at a production time of the image content related to the image instance is to be displayed and the synchronization points are arranged in a time-
Wherein the subtitles are assigned to the subtitle object by respectively associating the subtitles with the subtitle object based on the serial number of the subtitle object.
KR20140054584A 2014-05-08 2014-05-08 Method and device for synchronizing subtitles of multimedia contents KR101461562B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140054584A KR101461562B1 (en) 2014-05-08 2014-05-08 Method and device for synchronizing subtitles of multimedia contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140054584A KR101461562B1 (en) 2014-05-08 2014-05-08 Method and device for synchronizing subtitles of multimedia contents

Publications (1)

Publication Number Publication Date
KR101461562B1 true KR101461562B1 (en) 2014-11-13

Family

ID=52290330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140054584A KR101461562B1 (en) 2014-05-08 2014-05-08 Method and device for synchronizing subtitles of multimedia contents

Country Status (1)

Country Link
KR (1) KR101461562B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030044561A (en) * 2001-11-30 2003-06-09 주식회사 하빈 A method for recording and/or outputing caption data of a digital content file, and an apparatus thereof
JP2005109695A (en) 2003-09-29 2005-04-21 Dainippon Printing Co Ltd Subtitle data creating system
JP4500957B2 (en) 2003-05-12 2010-07-14 独立行政法人情報通信研究機構 Subtitle production system
JP2012142881A (en) 2011-01-06 2012-07-26 Kddi Corp Caption editing device, caption editing method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030044561A (en) * 2001-11-30 2003-06-09 주식회사 하빈 A method for recording and/or outputing caption data of a digital content file, and an apparatus thereof
JP4500957B2 (en) 2003-05-12 2010-07-14 独立行政法人情報通信研究機構 Subtitle production system
JP2005109695A (en) 2003-09-29 2005-04-21 Dainippon Printing Co Ltd Subtitle data creating system
JP2012142881A (en) 2011-01-06 2012-07-26 Kddi Corp Caption editing device, caption editing method, and computer program

Similar Documents

Publication Publication Date Title
US10740114B2 (en) Component invoking method and apparatus, and component data processing method and apparatus
CN108415702B (en) Dynamic rendering method and device for application interface of mobile terminal
US9338422B2 (en) Display control method, recording medium, display control device
CN106250104B (en) A kind of remote operating system for server, method and device
CN106657757B (en) Image preview method and device for camera application and camera application system
CN105208442A (en) Video playing method of video playing application program and apparatus thereof
CN105653284A (en) Method and device for generating scene file of android platform
CN104918097A (en) Subtitle generation method and device
US20200021774A1 (en) Systems and Methods for Generating a Video Clip and Associated Closed-Captioning Data
WO2017114188A1 (en) Printing apparatus and printing method
CN101770371A (en) Application theme content preview method and device
WO2014198109A1 (en) Systems and methods for multimedia processing
CN106210918A (en) The update method of a kind of user interface and system
CN107153563B (en) Software version generation method and device
KR101461562B1 (en) Method and device for synchronizing subtitles of multimedia contents
CN106293671B (en) Method and device for generating component template
CN105260353A (en) Typesetting method and device for mobile terminal
CN104363466A (en) Image generating method and device
CN106843921B (en) Resource loading method and device
CN104503753A (en) Software management method and system based on modular design
CN104753986A (en) Terminal, server and e-book synchronization method
KR101728786B1 (en) Component-based dynamic image display system and method using the svg file format
KR102168323B1 (en) Electronic terminal apparatus for document editing to handle synchronization of format attribute between objects inserted in a document and operating method thereof
US8532423B2 (en) Representing high-resolution media content in a lower resolution system
CN104780148A (en) Server, terminal, system and method for document online operation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170904

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180828

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190902

Year of fee payment: 6