KR100644719B1 - Method of reproducing subtitle files - Google Patents

Method of reproducing subtitle files Download PDF

Info

Publication number
KR100644719B1
KR100644719B1 KR1020060058888A KR20060058888A KR100644719B1 KR 100644719 B1 KR100644719 B1 KR 100644719B1 KR 1020060058888 A KR1020060058888 A KR 1020060058888A KR 20060058888 A KR20060058888 A KR 20060058888A KR 100644719 B1 KR100644719 B1 KR 100644719B1
Authority
KR
South Korea
Prior art keywords
subtitle
text
information
output
data
Prior art date
Application number
KR1020060058888A
Other languages
Korean (ko)
Other versions
KR20060084412A (en
Inventor
강만석
문성진
정현권
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20060084412A publication Critical patent/KR20060084412A/en
Application granted granted Critical
Publication of KR100644719B1 publication Critical patent/KR100644719B1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

서브 타이틀을 재생하는 방법이 개시된다. A method of playing a subtitle is disclosed.

본 발명에 따른 서브 타이틀 재생 방법은, 텍스트 기반의 서브 타이틀 데이터에서 텍스트의 렌더링에 사용되는 렌더링 정보와 렌더링된 텍스트를 프리젠테이션하는데 사용되는 제어정보를 분리하여 추출하는 파싱 단계와, 추출된 렌더링 정보에 따라 서브 타이틀 텍스트를 렌더링하여 서브 타이틀 텍스트에 대한 비트맵 이미지를 생성하는 단계를 포함하는 것을 특징으로 한다. The subtitle reproduction method according to the present invention includes a parsing step of separating and extracting rendering information used for rendering text and control information used for presenting rendered text from text-based subtitle data, and extracted rendering information. And generating a bitmap image for the subtitle text by rendering the subtitle text.

이에 의해 텍스트 서브 타이틀 데이터에 포함되어 있는 각 서브 타이틀 항목의 출력 시간이 중복될 수 있고, 서브 타이틀 파일을 용이하게 제작할 수 있으며, AV 스트림에 대한 서브 타이틀을 보다 다양한 형태로 출력할 수 있다.As a result, the output time of each subtitle item included in the text subtitle data can be duplicated, the subtitle file can be easily produced, and the subtitle for the AV stream can be output in more various forms.

Description

서브 타이틀 재생 방법{Method of reproducing subtitle files}How to play subtitles {Method of reproducing subtitle files}

도 1은 텍스트 기반의 서브 타이틀 파일의 구조를 도시한 도면,1 is a diagram showing the structure of a text-based subtitle file;

도 2는 텍스트 기반의 서브 타이틀을 기록한 정보저장매체를 재생하는 재생장치의 블록도,2 is a block diagram of a playback apparatus for playing an information storage medium recording a text-based subtitle;

도 3은 텍스트 서브 타이틀 처리부(220)의 상세 블록도,3 is a detailed block diagram of the text subtitle processing unit 220;

도 4는 프리젠테이션 엔진없이 비트맵 이미지를 생성하는 것을 설명하기 위한 참조도,4 is a reference diagram for explaining generating a bitmap image without a presentation engine;

도 5는 구성 정보, 위치 정보, 오브젝트 정보 및 색상정보가 기록된 구조체들의 상관관계의 일예를 도시한 도면,FIG. 5 is a diagram showing an example of correlation between structures in which configuration information, location information, object information, and color information are recorded; FIG.

도 6a 내지 도 6c는 복수개의 서브 타이틀에 대해 하나의 구성정보와 하나의 위치정보를 사용하여 이미지를 생성하는 것을 설명하기 위한 도면,6A to 6C are diagrams for describing an image generation using one configuration information and one location information for a plurality of subtitles;

도 7a 내지 도 7c는 복수개의 서브 타이틀에 대해 하나의 구성정보와 복수개의 위치정보를 사용하여 이미지를 생성하는 것을 설명하기 위한 도면,7A to 7C are diagrams for describing generating an image using one configuration information and a plurality of location information for a plurality of subtitles;

도 8a 내지 도 8c는 복수의 서브 타이틀에 대해 복수의 구성정보를 구성하여 하나의 구성정보에 하나의 이미지 오브젝트가 각각 포함되도록 이미지를 생성하는 것을 설명하기 위한 도면이다.8A to 8C are diagrams for describing an example in which a plurality of pieces of configuration information are configured for a plurality of subtitles to generate an image so that one image object is included in one piece of configuration information.

본 발명은 서브 타이틀에 관한 것으로, 보다 상세하게는 적어도 하나의 서브 타이틀을 동일한 시간에 화면에 출력할 수 있도록 하는 서브 타이틀 재생 방법에 관한 것이다.The present invention relates to a subtitle, and more particularly, to a subtitle reproducing method for outputting at least one subtitle on a screen at the same time.

종래의 서브 타이틀은 비트맵 이미지 형태로 만들어져 AV 스트림내에 포함되어 있다. 비트맵 이미지 형태이기 때문에 서브 타이틀을 만들기가 불편할 뿐만 아니라, 서브 타이틀 제작자에 의해 정의된 서브 타이틀의 다양한 속성들을 사용자는 선택할 수 없이 수동적으로 받아들일 수 밖에 없다. 즉, 폰트, 글자크기, 글자색 등의 속성들이 이미 결정되어 비트맵 이미지 형태로 AV 스트림내에 포함되어 있기 때문에 사용자가 그 속성을 임의로 변경할 수가 없다.Conventional subtitles are created in the form of bitmap images and included in the AV stream. Since it is a bitmap image form, not only is it inconvenient to create a subtitle, but the user has no choice but to manually accept various attributes of the subtitle defined by the subtitle creator. That is, since attributes such as font, font size and font color are already determined and included in the AV stream in the form of a bitmap image, the user cannot arbitrarily change the attributes.

또한, 서브 타이틀이 AV 스트림과 함께 압축 부호화되어 있기 때문에 서브 타이틀의 출력 시작 시간과 출력 완료 시간이 AV 스트림에 대응하여 명확히 지정되어 있고, 서브 타이틀 비트맵 이미지가 출력되는 시간이 서로 중복되지 않는다. 즉, 어느 하나의 시간대에는 하나의 서브 타이틀 비트맵 이미지가 출력된다.In addition, since the subtitle is compressed and encoded together with the AV stream, the output start time and the output completion time of the subtitle are clearly specified corresponding to the AV stream, and the time for outputting the subtitle bitmap image does not overlap with each other. In other words, one subtitle bitmap image is output at any one time zone.

그러나, AV 스트림과 별도로 생성된 텍스트 기반의 서브 타이틀을 기록한 저장매체 및 그 재생장치에서는 각각의 서브 타이틀이 출력되는 출력 시작 시간과 출력 완료 시간이 서브 타이틀의 제작자에 의해 임의로 지정되므로 그 출력 시작 시간과 출력 완료 시간이 복수의 서브 타이틀간에 겹쳐서 존재할 수 있다. 다시 말하면, 어느 시간 구간에서는 두 개 이상의 복수의 서브 타이틀이 출력될 수 있는데, 이를 처리하는 방법이 필요하다.However, in the recording medium and the playback apparatus recording the text-based subtitles generated separately from the AV stream, the output start time is output since the output start time and output completion time of each subtitle are arbitrarily designated by the producer of the subtitle. And the output completion time may overlap each other between the plurality of subtitles. In other words, two or more subtitles may be output in a certain time interval, and there is a need for a method of processing the same.

따라서, 본 발명이 이루고자 하는 기술적 과제는 텍스트 기반의 서브 타이틀을 기록한 정보저장매체에서 복수의 서브 타이틀의 출력시간이 중복되어 있는 경우에 그 서브 타이틀을 출력하는 방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a method of outputting a subtitle when an output time of a plurality of subtitles is duplicated in an information storage medium on which a text-based subtitle is recorded.

상기와 같은 과제를 해결하기 위한 본 발명의 하나의 특징은, 텍스트 서브 타이틀 재생 방법에 있어서, 텍스트 기반의 서브 타이틀 데이터에서 텍스트의 렌더링에 사용되는 렌더링 정보와 렌더링된 텍스트를 프리젠테이션하는데 사용되는 제어정보를 분리하여 추출하는 파싱 단계와, 상기 추출된 렌더링 정보에 따라 서브 타이틀 텍스트를 렌더링하여 서브 타이틀 텍스트에 대한 비트맵 이미지를 생성하는 단계를 포함하는 것이다.One feature of the present invention for solving the above problems is, in the text subtitle playback method, a control used to present the rendered information and the rendering information used for rendering the text in the text-based subtitle data Parsing step of separating and extracting information, and rendering the sub-title text according to the extracted rendering information to generate a bitmap image for the sub-title text.

상기 파싱 단계는, 상기 제어정보를 소정의 정보 구조체 포맷에 맞추어 구성하여, 프리젠테이션 엔진으로 전송하는 단계를 더 포함할 수 있다.The parsing step may further include configuring the control information in accordance with a predetermined information structure format and transmitting the control information to a presentation engine.

상기 텍스트 서브 타이틀 재생 방법은, 비트맵 서브 타이틀 데이터를 처리하는 프리젠테이션 엔진과 독립적으로 상기 제어정보를 이용하여 상기 생성된 비트맵 이미지를 화면에 직접 출력하도록 제어하는 단계를 더 포함할 수 있다.The text subtitle reproduction method may further include controlling to output the generated bitmap image directly to the screen using the control information independently of the presentation engine that processes the bitmap subtitle data.

상기 서브 타이틀 데이터는 출력 시간이 중복되는 복수개의 서브 타이틀 데이터일 수 있다.The subtitle data may be a plurality of subtitle data having overlapping output times.

상기 비트맵 이미지 생성 단계는, 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 하나의 구성 정보, 하나의 위치 정보 및, 하나의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함할 수 있다.The generating the bitmap image may include generating one bitmap image by generating one piece of configuration information, one piece of location information, and one piece of object information with respect to a plurality of subtitle data having overlapping output times. Can be.

상기 비트맵 이미지 생성 단계는, 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 하나의 구성 정보, 복수의 위치 정보 및 복수의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함할 수 있다.The generating a bitmap image may include generating a bitmap image by generating one configuration information, a plurality of location information, and a plurality of object information with respect to a plurality of sub-title data having an overlapping output time. have.

상기 비트맵 이미지 생성 단계는, 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 복수의 구성 정보, 각 구성 정보마다 대응되는 하나의 위치 정보 및 하나의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함할 수 있다.The bitmap image generating step may generate a bitmap image by generating a plurality of pieces of configuration information, one location information corresponding to each piece of configuration information, and one object information, for a plurality of subtitle data having an overlapping output time. It may include the step.

상기 비트맵 이미지 생성 단계는, 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 동일한 출력 스타일을 적용하여 렌더링하고, 하나의 이미지로 구성된 하나의 페이지로 만드는 단계를 포함할 수 있다.The bitmap image generating step may include rendering the plurality of sub-title text data by applying the same output style to each other and creating a single page composed of one image.

상기 비트맵 이미지 생성 단계는, 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 다른 출력 스타일을 적용하여 렌더링하고, 렌더링된 복수의 이미지를 하나의 페이지로 구성하는 단계를 포함할 수 있다.The step of generating a bitmap image may include applying different output styles to the plurality of sub-title text data to render, and configuring the rendered plurality of images into one page.

상기 비트맵 이미지 생성 단계는, 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 다른 출력 스타일을 적용하여 렌더링하고, 렌더링된 복수의 이미지로 복수의 페이지를 구성하는 단계를 포함할 수 있다.The step of generating a bitmap image may include applying different output styles to the plurality of sub-title text data to render and constructing a plurality of pages from the rendered plurality of images.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 상세히 설 명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 텍스트 기반의 서브 타이틀 파일의 구조를 도시한 도면이다.1 is a diagram illustrating the structure of a text-based subtitle file.

텍스트 기반의 서브 타이틀 파일(100)은 다이얼로그 정보(Dialog Information, 110), 프리젠테이션 정보(Presentation Information, 120) 및 메타 데이터(Meta data, 130a, 130b)를 포함한다.The text-based subtitle file 100 includes dialog information 110, presentation information 120, and meta data 130a and 130b.

다이얼로그 정보(110)는 자막 텍스트와 그 텍스트의 출력 시작 시간, 출력 종료 시간, 텍스트 렌더링에 사용할 스타일 그룹(stylegroup) 또는 스타일(style) 정보, 페이드-인/페이드-아웃(Fade-In/Fade-Out) 등과 같은 텍스트 변화 효과 정보, 그리고 텍스트에 대한 포맷팅 코드(formatting code)를 포함한다. 포맷팅 코드는 텍스트를 굵게 표시하는 코드, 이탤릭체로 표시하는 코드, 밑줄 그음을 나타내는 코드, 줄바꿈을 나타내는 코드 등을 포함하고 있다.The dialog information 110 includes subtitle text, the start time of output of the text, the end time of output, the stylegroup or style information to be used for text rendering, and the fade-in / fade-out. Text change effect information such as Out), and a formatting code for the text. Formatting code includes code for bold text, code for italics, code for underscores, code for line breaks, and the like.

프리젠테이션 정보(120)는 자막 텍스트의 렌더링에 사용될 스타일 정보를 포함하며, 복수개의 스타일 그룹으로 구성된다. 스타일 그룹은 스타일 정보가 기록되어 있는 스타일들의 묶음이다. 스타일은 자막 텍스트의 렌더링 및 화면 출력에 사용될 정보를 포함하고 있다. 그 정보의 예로는 스타일의 명칭, 폰트, 텍스트 색깔, 배경색, 텍스트 크기, 줄간격, 텍스트 출력 영역, 텍스트 출력의 시작 위치, 출력 방향, 정렬 방식 등이 있다.The presentation information 120 includes style information to be used for rendering caption text, and is composed of a plurality of style groups. A style group is a collection of styles in which style information is recorded. The style contains information that will be used to render the subtitle text and output the screen. Examples of information include the name of the style, font, text color, background color, text size, line spacing, text output area, start position of text output, output direction, and alignment.

메타 데이터(130a, 130b)는 동영상에 대한 부가 정보로 서브 타이틀의 출력 이외의 부가 기능을 수행하는데 필요한 정보를 포함하고 있다.The meta data 130a and 130b are additional information about a moving picture and include information necessary for performing an additional function other than outputting of a subtitle.

도 2는 텍스트 기반의 서브 타이틀을 기록한 정보저장매체를 재생하는 재생 장치의 블록도이다.2 is a block diagram of a reproduction apparatus for reproducing an information storage medium recording a text-based subtitle.

텍스트 서브 타이틀 처리부(220)는 텍스트 기반의 서브 타이틀을 처리하기 위해서 텍스트를 렌더링한다. 텍스트 서브 타이틀 처리부(220)는 서브 타이틀에서 프리젠테이션 정보와 다이얼로그 정보를 추출하기 위한 텍스트 서브 타이틀 파서(Text-ST parser, 221)와 추출된 프리젠테이션 정보에 따라 텍스트를 렌더링하여 출력될 이미지를 생성하는 텍스트 이미지 생성부(Text layout/Font Renderer, 222)를 구비한다.The text subtitle processing unit 220 renders text in order to process the text-based subtitle. The text subtitle processing unit 220 generates an image to be output by rendering text based on a text subtitle parser 221 for extracting presentation information and dialog information from the subtitle and the extracted presentation information. And a text image generation unit (Text layout / Font Renderer) 222.

텍스트 기반의 서브 타이틀은 정보저장매체에 기록되어 있거나 재생 장치에 구비된 메모리에 기록되어 있을 수 있다. 도 2에서는 텍스트 기반의 서브 타이틀이 기록되어 있는 정보저장매체 또는 메모리를 서브 타이틀 정보 저장부(200)라 하였다.The text-based subtitle may be recorded in an information storage medium or in a memory provided in the reproduction device. In FIG. 2, the information storage medium or memory in which the text-based subtitle is recorded is referred to as the subtitle information storage unit 200.

재생중인 동영상에 대응하여 제작된 텍스트 기반의 서브 타이틀 파일과 서브 타이틀의 렌더링에 사용될 폰트 데이터가 서브 타이틀 정보 저장부(200)로부터 읽혀져 버퍼(210)에 저장된다. 버퍼에 저장된 서브 타이틀 파일은 텍스트 서브 타이틀 파서(221)로 전달되어 서브 타이틀의 렌더링에 필요한 정보들을 파싱한다. 그리고 텍스트 렌더링에 필요한 자막 텍스트, 폰트 정보, 렌더링 스타일 정보 등은 텍스트 이미지 생성부(222)로 전송되고, 텍스트 서브 타이틀의 제어 정보는 프리젠테이션 엔진(230)의 구성버퍼(233)로 전송된다. 제어정보는 서브 타이틀을 가지고 화면을 구성하기 위한 정보로서, 출력 영역, 출력시작위치 등의 정보가 있다.The text-based subtitle file produced corresponding to the video being played and the font data to be used for rendering the subtitle are read from the subtitle information storage unit 200 and stored in the buffer 210. The subtitle file stored in the buffer is transferred to the text subtitle parser 221 to parse information necessary for rendering the subtitle. Subtitle text, font information, and rendering style information necessary for text rendering are transmitted to the text image generation unit 222, and control information of the text subtitle is transmitted to the configuration buffer 233 of the presentation engine 230. The control information is information for constructing a screen with subtitles, and includes information such as an output area and an output start position.

텍스트 이미지 생성부(222)는 텍스트 서브 타이틀 파서(221)로부터 전송된 텍스트 렌더링 정보와 버퍼(210)로부터 전송된 폰트 데이터를 이용하여 텍스트 서브 타이틀을 렌더링하여 비트맵 이미지를 생성하고 자막의 각 항목의 출력 시작 시간과 출력 완료 시간을 지정하여 하나의 서브 타이틀 페이지를 구성한 후 프리젠테이션 엔진(230)의 오브젝트 버퍼(234)로 전송한다. The text image generator 222 renders a text subtitle using text rendering information transmitted from the text subtitle parser 221 and font data transmitted from the buffer 210 to generate a bitmap image, and each item of the subtitle. A subtitle page is configured by specifying an output start time and an output completion time, and then transmitted to the object buffer 234 of the presentation engine 230.

한편, 서브 타이틀 정보 저장부(200)로부터 읽혀진 비트맵 이미지 형태의 서브 타이틀은 코디드 데이터 버퍼(coded data buffer, 231)로 입력되고, 그래픽 처리부(232)에 의해 처리되어 비트맵 이미지가 생성된다. 생성된 비트맵 이미지는 오브젝트 버퍼(234)로 전송되고, 그 비트맵 이미지의 제어정보는 구성버퍼(233)로 전송된다. 제어정보는 오브젝트 버퍼(234)에 저장된 비트맵 이미지가 그래픽 플레인(240)에 출력될 시간과 위치를 지정하고, 그래픽 플레인(240)에 출력된 비트맵 이미지에 적용될 색 정보가 기록된 CLUT(Color Lookup Table, 250)를 지정하는 정보이다.Meanwhile, a subtitle in the form of a bitmap image read from the subtitle information storage unit 200 is input to a coded data buffer 231 and processed by the graphic processor 232 to generate a bitmap image. . The generated bitmap image is transmitted to the object buffer 234, and the control information of the bitmap image is transmitted to the configuration buffer 233. The control information specifies a time and a position at which the bitmap image stored in the object buffer 234 is output to the graphic plane 240, and the CLUT (Color) in which the color information to be applied to the bitmap image output to the graphic plane 240 is recorded. Lookup Table (250).

구성버퍼(233)는 텍스트 서브 타이틀 파서(221)로부터 전송된 오브젝트 구성정보와 그래픽 처리부(232)에 의해 처리된 비트맵 서브 타이틀 데이터를 입력받아 화면 출력용 제어정보를 그래픽 제어부(235)로 전송한다. 오브젝트 버퍼(234)는 그래픽 처리부(232)에 의해 처리된 비트맵 서브 타이틀 데이터와 텍스트 이미지 생성부(222)로부터 수신한 렌더링된 텍스트 서브 타이틀 오브젝트를 합쳐 그래픽 플레인(240)으로 만들어 CLUT(250)를 참조하여 디스플레이 장치로 출력한다.The configuration buffer 233 receives the object configuration information transmitted from the text subtitle parser 221 and the bitmap subtitle data processed by the graphic processor 232 and transmits the screen output control information to the graphic controller 235. . The object buffer 234 combines the bitmap subtitle data processed by the graphic processor 232 and the rendered text subtitle object received from the text image generator 222 into a graphic plane 240 to form the CLUT 250. Reference to the output to the display device.

도 3은 텍스트 서브 타이틀 처리부(220)의 상세 블록도이다. 3 is a detailed block diagram of the text subtitle processing unit 220.

텍스트 기반의 서브 타이틀 파일 정보인 서브 타이틀은 텍스트 서브 타이틀 파서(221)에 입력되고, 텍스트 서브 타이틀 파서(221)는 입력된 서브 타이틀을 파싱하여 서브 타이틀 제어 정보는 프리젠테이션 엔진(230)으로 전송하고, 텍스트 렌더링 관련 정보는 텍스트 이미지 생성부(222)로 전송한다. 텍스트 이미지 생성부(222)는 텍스트 서브 타이틀 파서(221)로부터 텍스트 렌더링에 관련된 정보를 전송받아 자막 항목의 제어 정보는 엘리먼트 제어버퍼(Element Control Data Buffer, 290)에, 자막 데이터는 텍스트 데이터 버퍼(Text Data Buffer, 291)에, 렌더링에 사용될 스타일 정보는 스타일 데이터 버퍼(Style Data Buffer, 292)에 각각 저장하고, 텍스트의 렌더링에 사용할 폰트 데이터는 폰트 데이터 버퍼(Font Data Buffer, 293)에 저장한다.The subtitle, which is text-based subtitle file information, is input to the text subtitle parser 221, the text subtitle parser 221 parses the input subtitle, and the subtitle control information is transmitted to the presentation engine 230. The text rendering related information is transmitted to the text image generator 222. The text image generator 222 receives information related to text rendering from the text subtitle parser 221, and control information of the caption item is provided in an element control buffer 290, and caption data is a text data buffer. In the Text Data Buffer 291, the style information to be used for rendering is stored in the Style Data Buffer 292, and the font data to be used for rendering the text is stored in the Font Data Buffer 293. .

엘리먼트 제어버퍼(290)에 저장되는 제어정보는 포맷팅 코드 등이 될 수 있는데, 포맷팅 코드는 텍스트를 굵게 표시하는 코드, 이탤릭체로 표시하는 코드, 밑줄 그음을 나타내는 코드, 줄바꿈을 나타내는 코드 등을 포함하고 있다. 텍스트 데이터 버퍼(291)에 저장되는 텍스트 데이터는 자막으로 출력될 텍스트 데이터이다. 스타일 데이터 버퍼(292)에 저장되는 스타일 데이터는 폰트, 텍스트 색깔, 배경색, 텍스트 크기, 줄간격, 텍스트 출력 영역, 텍스트 출력의 시작 위치, 출력 방향, 정렬 방식 등에 대한 데이터가 될 수 있다. 텍스트 렌더러(Text Renderer, 294)는 각각의 버퍼에 기록된 정보를 참조하여 서브 타이틀 이미지를 생성하여 프리젠테이션 엔진(230)으로 전송한다.The control information stored in the element control buffer 290 may be a formatting code, etc. The formatting code includes a code for bold text, an italic code, an underline code, a line break code, and the like. Doing. The text data stored in the text data buffer 291 is text data to be output as subtitles. The style data stored in the style data buffer 292 may be data about a font, a text color, a background color, a text size, a line spacing, a text output area, a start position of a text output, an output direction, an alignment method, and the like. The text renderer 294 generates a subtitle image by referring to the information recorded in each buffer and transmits the subtitle image to the presentation engine 230.

도 4는 프리젠테이션 엔진없이 비트맵 이미지를 생성하는 것을 설명하기 위한 참조도이다.4 is a reference diagram for describing generating a bitmap image without a presentation engine.

즉, 텍스트 서브 타이틀 처리부의 동작에 대한 또 다른 일 실시예를 기술한 것으로써, 프리젠테이션 엔진 대신 텍스트 서브 타이틀 제어부(410)를 구비한다. 여기에서, 텍스트 이미지 생성부(222)는 구성 정보, 위치 정보, 오브젝트 정보 및 색상 정보를 생성하고 이를 바탕으로 비트맵 이미지를 만든다. 텍스트 서브 타이틀 제어부(410)는, 텍스트 서브 타이틀 처리부(220)로부터 오브젝트 구성 정보를 입력받고, 텍스트 이미지 생성부(222)가 생성한 비트맵 이미지를 직접 그래픽 플레인(240) 및 CLUT(250)으로 출력하도록 텍스트 이미지 생성부(222)를 제어한다.That is, another exemplary embodiment of the operation of the text subtitle processing unit is described, and the text subtitle control unit 410 is provided instead of the presentation engine. Here, the text image generating unit 222 generates configuration information, location information, object information, and color information, and creates a bitmap image based on this. The text subtitle control unit 410 receives the object configuration information from the text subtitle processing unit 220 and directly transfers the bitmap image generated by the text image generation unit 222 to the graphic plane 240 and the CLUT 250. The text image generation unit 222 is controlled to output.

도 5는 구성 정보, 위치 정보, 오브젝트 정보 및 색상정보가 기록된 구조체들의 상관관계의 일예를 도시한 도면이다.5 is a diagram illustrating an example of correlation between structures in which configuration information, location information, object information, and color information are recorded.

화면에 출력되는 서브 타이틀은 페이지 단위로 구성된다. 이 페이지에는 서브 타이틀외에도 다른 용도로 사용되는 데이터를 포함할 수 있다. 하나의 페이지를 구성하는데 사용되는 정보들을 기록하고 있는 정보를 구성 정보라 하며, 구성 정보에는 페이지의 출력 시간을 지시하고 있는 출력 시간 정보, 출력될 이미지 오브젝트를 지시하는 오브젝트 정보 참조값, 오브젝트의 출력 위치를 지시하는 위치 정보 참조값 및 오브젝트에 대한 색상 정보를 지시하는 색상 정보 참조값을 포함한다. The subtitles output on the screen are organized in page units. This page may contain data used for other purposes besides the subtitle. Information that records information used to compose one page is called configuration information. The configuration information includes output time information indicating an output time of a page, an object information reference value indicating an image object to be output, and an output position of an object. Location information reference value indicating a color information reference value indicating color information on the object.

도 5에서 도시하는 각 정보들의 상관 관계는 정보 구성의 일 실시예로써, 위치 정보, 오브젝트 정보 및 색상 정보들의 상관 관계를 도 5와는 다른 형식으로 구성하는 것도 가능하다. Correlation of each of the information shown in FIG. 5 is an embodiment of the information configuration, and it is also possible to configure the correlation between the position information, the object information, and the color information in a format different from that of FIG. 5.

도 5를 참조하면, 하나의 페이지는 화면상에 이미지가 출력되는 영역을 하나 이상 포함할 수 있다. 이들 영역은 위치 정보 참조값으로 구분된다. 그리고 이들 영역을 구성하는데 필요한 정보를 기록하고 있는 구조체가 위치 정보이다. 위치 정보는 각 영역의 수평 및 수직좌표, 폭과 높이에 대한 정보를 포함한다. 오브젝트 정보는 화면상에 오브젝트 데이터를 기록하고 있다. 오브젝트 정보는 오브젝트의 데이터 타입 정보 및 오브젝트 데이터 등을 포함한다. Referring to FIG. 5, one page may include one or more regions in which an image is output on the screen. These areas are divided by location information reference values. The positional information is a structure that records information necessary to form these areas. The position information includes information about horizontal and vertical coordinates, widths, and heights of each region. The object information records object data on the screen. The object information includes data type information and object data of the object.

텍스트 서브 타이틀 처리부의 동작을 예를 들어 설명하면, 텍스트 서브 타이틀 처리부는 텍스트 기반의 서브 타이틀을 제공하기 위해 화면에 출력될 각각의 렌더링된 서브 타이틀 이미지에 대해 상술한 구성정보, 위치정보, 오브젝트 정보 및 색상 정보를 생성한다. 그리고 이렇게 생성된 구성정보, 위치정보, 오브젝트 정보 및 색상 정보는 프리젠테이션 엔진으로 전송된다. The operation of the text subtitle processing unit will be described by way of example. The text subtitle processing unit may include the above-described configuration information, location information, and object information for each rendered subtitle image to be output on the screen to provide a text-based subtitle. And color information. The generated configuration information, location information, object information, and color information are transmitted to the presentation engine.

상술한 바과 같이 텍스트 형태로 만들어진 서브 타이틀을 기록한 정보저장매체를 재생하는데 있어, 하나 이상의 서브 타이틀을 동일한 시간에 출력하는 방법으로 여러 가지가 있다.As described above, in reproducing an information storage medium on which subtitles made in text form are recorded, there are various methods of outputting one or more subtitles at the same time.

첫 번째 방법은 텍스트 서브 타이틀 처리부가 서브 타이틀 텍스트의 출력 시간이 겹치는 복수의 서브 타이틀에 대해 새로운 이미지를 생성하여, 하나의 구성정보내에서 하나의 위치 정보에 출력되도록 만들어진 오브젝트로 구성된 서브 타이틀을 프리젠테이션 엔진으로 전송하는 방법이다. In the first method, a text subtitle processor generates a new image for a plurality of subtitles whose output times of subtitle text overlap, and presents a subtitle composed of objects which are made to be output in one position information in one composition information. How to send to the presentation engine.

두 번째 방법은 자막 텍스트의 출력 시간이 겹치는 각 서브 타이틀이 서로 다른 위치 정보를 갖도록 구성하는 방법이다. 즉, 텍스트 서브 타이틀 처리부는 서브 타이틀 텍스트의 출력 시간이 겹치는 복수의 서브 타이틀에 대하여, 하나의 구성정보내에서 서로 다른 위치 정보를 사용하여 이미지를 만들어 프리젠테이션 엔진 으로 전송하는 방법이다.The second method is a method in which each subtitle whose output time of the caption text overlaps has different position information. That is, the text subtitle processing unit is a method of creating an image using different positional information in one piece of configuration information and transmitting the same to the presentation engine for a plurality of subtitles whose output times of the subtitle text overlap.

세 번째 방법으로는 자막 텍스트의 출력 시간이 겹치는 각 서브 타이틀을 서로 다른 구성정보를 사용하여 만드는 방법이다. 즉, 텍스트 서브 타이틀 처리부는 서브 타이틀의 출력 시간이 겹치는 복수의 서브 타이틀에 대하여, 각 서브 타이틀별로 서로 다른 구성정보를 만들어 하나의 구성정보에는 하나의 오브젝트만이 포함되도록 구성하는 방법이다. 이하에서는 각각의 방법에 대하여 도면을 참조하여 보다 상세히 설명한다.The third method is to create subtitles with overlapping output time of subtitle text using different composition information. That is, the text subtitle processing unit is configured to generate different configuration information for each subtitle for a plurality of subtitles in which the output time of the subtitles overlaps, so that only one object is included in one configuration information. Hereinafter, each method will be described in more detail with reference to the accompanying drawings.

도 6a 내지 도 6c는 복수개의 서브 타이틀에 대해 하나의 구성정보와 하나의 위치정보를 사용하여 이미지를 생성하는 것을 설명하기 위한 도면이다.6A to 6C are diagrams for describing an image generation using one configuration information and one location information for a plurality of subtitles.

도 6a는 서브 타이틀 텍스트의 렌더링에 사용될 스타일 정보로서 스타일 "Script"를 정의한 것이다. 도 6a를 참조하면, 스타일 "Script"는 "Arial.ttf"라는 폰트를 사용하며, 글자색은 "black", 배경색은 "white", 글자 크기는 "16pt", 텍스트의 기준 위치는 좌표 (x, y), 정렬 방식은 "center", 출력 방향은 "left-to-right-top-to-bottom", 출력 영역은 "left, top, width, height", 줄 간격은 "40px"임을 알 수 있다.6A defines a style "Script" as style information to be used for rendering subtitle text. Referring to FIG. 6A, the style "Script" uses a font called "Arial.ttf", the font color is "black", the background color is "white", the font size is "16pt", and the reference position of the text is coordinate (x , y), the alignment is "center", the output direction is "left-to-right-top-to-bottom", the output area is "left, top, width, height", and the line spacing is "40px". have.

도 6b는 스타일 "Script"를 사용하여 렌더링 되는 서브 타이틀 텍스트(610, 620, 630)를 정의한 것이다. 도 6b를 참조하면, 서브 타이틀 텍스트 Hello(610)는 시간 "00:10:00"부터 "00:15:00"까지 출력되며, 서브 타이틀 텍스트 Subtitle(620)은 시간 "00:12:00"부터 "00:17:00"까지 출력되며, 서브 타이틀 텍스트 World(630)는 시간 "00:14:00"부터 "00:19:00"까지 출력됨을 알 수 있다. 따라서, 시간 "00:12:00"부터 "00:17:00"까지는 2개 또는 3개의 서브 타이틀 텍스트가 출력된다. 여기에서 "<br>"은 줄 바꿈을 나타내는 정보이다. <br> 태그를 사용함으로써 하나의 스타일을 사용한다고 하더라도 여러개의 서브 타이틀이 하나의 영역에 겹쳐서 출력되는 것을 방지할 수 있다.6B defines the subtitle text 610, 620, 630 rendered using the style "Script". Referring to FIG. 6B, the subtitle text Hello 610 is output from time "00:10:00" to "00:15:00", and the subtitle text Subtitle 620 is time "00:12:00". From "00:17:00", the subtitle text World 630 is output from "00:14:00" to "00:19:00". Therefore, two or three subtitle texts are output from the time "00:12:00" to "00:17:00". Where "<br>" is information indicating a line break. By using the <br> tag, you can prevent multiple subtitles from being overlaid on one area even if you use a single style.

도 6c는 도 6a와 도 6b에 의해 정의된 서브 타이틀이 출력된 결과를 도시한 도면이다. 이에 따라 각 시간대별로 텍스트 서브 타이틀 처리부의 각 버퍼에 저장되어 있는 데이터를 상세히 설명하면 다음과 같다.6C is a diagram illustrating a result of outputting a subtitle defined by FIGS. 6A and 6B. Accordingly, the data stored in each buffer of the text subtitle processing unit for each time zone will be described in detail as follows.

① 시간 "00:10:00"까지 : 공백 서브 타이틀 이미지를 포함하는 구성정보 출력① Until time "00:10:00": Configuration information output including blank subtitle image

엘리먼트 제어 데이터 버퍼 : 비어있음Element Control Data Buffer: Empty

텍스트 데이터 버퍼 : 비어있음Text data buffer: empty

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

② 시간 "00:10:00"부터 "00:12:00"까지 : 서브 타이틀 텍스트 Hello(610)가 렌더링된 이미지를 포함하는 구성정보 출력② From "00:10:00" to "00:12:00": Outputs the configuration information including the rendered image of the subtitle text Hello (610)

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(610)에 대한 제어정보Element control data buffer: control information for the subtitle text Hello 610

텍스트 데이터 버퍼 : "Hello"Text data buffer: "Hello"

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

③ 시간 "00:12:00"부터 "00:14:00"까지 : 서브 타이틀 텍스트 Hello(610)와서브 타이틀 텍스트 Subtitle(620)의 렌더링된 이미지를 포함하는 구성정보 출력③ From time "00:12:00" to "00:14:00": Configuration information output including rendered images of subtitle text Hello (610) and subtitle text Subtitle (620)

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(610)와 서브 타이틀 텍스트 Subtitle(620)에 대한 제어정보Element control data buffer: control information for subtitle text Hello (610) and subtitle text Subtitle (620)

텍스트 데이터 버퍼 : "Hello"와 "<br>Subtitle"Text Data Buffers: "Hello" and "<br> Subtitle"

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

④ 시간 "00:14:00"부터 "00:15:00"까지 : 서브 타이틀 텍스트 Hello(610), 서브 타이틀 텍스트 Subtitle(620), 서브 타이틀 텍스트 World(630)의 렌더링된 이미지를 포함하는 구성정보 출력④ From time "00:14:00" to "00:15:00": configuration including rendered images of subtitle text Hello (610), subtitle text Subtitle (620), subtitle text World (630) Information output

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(610), 서브 타이틀 텍스트 Subtitle(620), 서브 타이틀 텍스트 World(630)에 대한 제어정보Element control data buffer: control information for subtitle text Hello 610, subtitle text Subtitle 620, and subtitle text World 630

텍스트 데이터 버퍼 : "Hello"와 "<br>Subtitle"과 "<br><br>World"Text Data Buffers: "Hello" and "<br> Subtitle" and "<br> <br> World"

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑤ 시간 "00:15:00"부터 "00:17:00"까지 : 서브 타이틀 텍스트 Subtitle(620), 서브 타이틀 텍스트 World(630)의 렌더링된 이미지를 포함하는 구성정보 출력⑤ From time "00:15:00" to "00:17:00": Configuration information including the rendered image of the subtitle text Subtitle (620) and the sub title text World (630)

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Subtitle(620), 서브 타이틀 텍스트 World(630)에 대한 제어정보Element control data buffer: control information for the subtitle text Subtitle 620 and the sub title text World 630

텍스트 데이터 버퍼 : "<br>Subtitle"과 "<br><br>World"Text Data Buffers: "<br> Subtitle" and "<br> <br> World"

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑥ 시간 "00:17:00"부터 "00:19:00"까지 : 서브 타이틀 텍스트 World(630)의 렌더링된 이미지를 포함하는 구성정보 출력⑥ From time "00:17:00" to "00:19:00": Output of configuration information including the rendered image of the subtitle text World 630

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 World(630)에 대한 제어정보Element control data buffer: control information for the subtitle text world 630

텍스트 데이터 버퍼 : "<br><br>World"Text data buffer: "<br> <br> World"

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑦ 시간 "00:19:00"까지 : 공백 서브 타이틀 이미지를 포함하는 구성정보 출력⑦ Until time "00:19:00": Configuration information output including blank subtitle image

엘리먼트 제어 데이터 버퍼 : 비어있음Element Control Data Buffer: Empty

텍스트 데이터 버퍼 : 비어있음Text data buffer: empty

스타일 데이터 버퍼 : 스타일 "Script" 정보Style data buffer: style "script" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

상기 서브 타이틀의 출력 과정에서 알 수 있듯이, 첫 번째 방법에서는 중복된 출력 시간을 갖는 복수의 자막 항목에 대해 동일한 스타일을 적용하여 하나의 서브 타이틀 이미지를 생성하고, 이를 포함하도록 하나의 구성정보를 생성하여 프리젠테이션 엔진으로 전송한다. 이때, 전송된 구성정보가 화면에서 사라지는 시간 인 page_time_out은 서로 중복된 출력 시간을 갖는 복수의 서브 타이틀중 마지막으로 출력이 완료되는 서브 타이틀이 사라지는 시간 또는 새로운 서브 타이틀이 추가되는 시간이다.As can be seen in the output process of the subtitle, the first method generates one subtitle image by applying the same style to a plurality of subtitle items having duplicate output times, and generates one configuration information to include the same. To the presentation engine. At this time, page_time_out, which is a time when the transmitted configuration information disappears from the screen, is a time when a subtitle for which output is completed last disappears or a time when a new sub title is added among a plurality of sub titles having duplicate output times.

그리고, 출력되는 서브 타이틀은 텍스트 서브 타이틀 처리부에서 서브 타이틀에 대한 디코딩을 수행하는 시간(Tdecoding)과 렌더링된 서브 타이틀이 오브젝트 버퍼에서 그래픽 플레인으로 출력되는데 필요한 시간(Tcomposition)을 고려하여 텍스트 서브 타이틀 처리가 빨리 수행되어야 한다. 텍스트 서브 타이틀 처리부에서 서브 타이틀이 재생장치에서 출력되는 시간을 Tstart이라고 하고, 텍스트 서브 타이틀 처리부에 서브 타이틀이 도착하는 시간을 Tarrival이라고 하면, 이들 시간들간의 상관관계는 다음 수학식 1과 같다.The output subtitle is a text subtitle in consideration of the time (T decoding ) of decoding the subtitle in the text subtitle processing unit and the time (T composition ) required for the rendered subtitle to be output from the object buffer to the graphics plane. Title processing must be performed quickly. If the time when the subtitle is output from the playback apparatus in the text subtitle processing unit is called T start , and the time when the sub title arrives in the text subtitle processing unit is called T arrival , the correlation between these times is as shown in Equation 1 below. .

Figure 112006046472924-pat00001
Figure 112006046472924-pat00001

수학식 1을 참조하면, 텍스트 서브 타이틀이 얼마나 빨리 처리되어야 하는가를 알 수 있다. 그리고 Tdecoding은 출력되어야 할 서브 타이틀을 렌더링하여, 렌더링된 오브젝트를 포함하는 구성정보를 생성하여 오브젝트 버퍼로 전송하는데 소요되 는 시간이다. Tstart의 출력시간을 갖는 서브 타이틀은 적어도 Tdecoding과 Tcomposition을 더한 시간 이전에는 처리가 시작되어야 한다. Tdecoding은 자막 텍스트를 렌더링하여 오브젝트 버퍼에 전송하는 시간인 Trendering과 렌더링된 오브젝트를 포함하는 구성정보를 생성하여 그래픽 플레인으로 전송하는 시간인 T구성정보생성를 더한 시간이다. 그리고 Tchar는 하나의 글자(character)를 렌더링하는데 소요되는 시간이며, 따라서 Trendering은 각각의 글자를 모두 렌더링하는데 걸리는 시간의 합이다.Referring to Equation 1, it can be seen how quickly the text subtitle should be processed. T decoding is a time required to render a subtitle to be output, generate configuration information including the rendered object, and transmit the configuration information to the object buffer. Sub having the output time of T start title should be at least T decoding and T composition plus the previous time by starting the process. T decoding is a time obtained by adding T rendering information, which is a time for rendering caption text to be transmitted to an object buffer, and T construction information generation , which is a time for generating configuration information including a rendered object and transmitting the same to the graphics plane. And T char is the time it takes to render a character, so T rendering is the sum of the time it takes to render each character.

그리고, 오브젝트 버퍼의 크기는 오브젝트의 크기보다 크거나 같아야 한다. 여기에서 오브젝트의 크기는 각각의 글자(character) 데이터의 크기들의 합이다. 따라서, 하나의 서브 타이틀을 구성하는 글자의 수는 오브젝트 버퍼에 저장될 수 있는 글자의 수로 제한된다. 또한 오브젝트 버퍼는 복수개의 서브 타이틀을 저장할 수 있으므로 이 경우에 복수개의 서브 타이틀을 구성하는 글자들의 수도 오브젝트 버퍼에 저장될 수 있는 글자의 수로 제한된다.And, the size of the object buffer must be greater than or equal to the size of the object. Where the size of the object is the sum of the sizes of each character data. Therefore, the number of characters constituting one subtitle is limited to the number of characters that can be stored in the object buffer. In addition, since the object buffer can store a plurality of subtitles, in this case, the number of characters constituting the plurality of subtitles is also limited to the number of characters that can be stored in the object buffer.

도 7a 내지 도 7c는 복수개의 서브 타이틀에 대해 하나의 구성정보와 복수개의 위치정보를 사용하여 이미지를 생성하는 것을 설명하기 위한 도면이다.7A to 7C are diagrams for describing an image generation using one piece of configuration information and a plurality of location information for a plurality of subtitles.

도 7a는 서브 타이틀 텍스트의 렌더링에 사용될 스타일 정보로서 스타일 "Script1", "Script2", "Script3"을 정의한 것이다. 도 7a를 참조하면, 세 가지 스타일은 "Arial.ttf" 폰트를 사용하며 글자색은 "black", 배경색은 "white", 글자 크기는 "16pt", 정렬 방식은 "center", 출력 방향은 "left-to-right-top-to- bottom", 줄 간격 "40px"임을 알 수 있다. 그리고, 서브 타이틀 텍스트의 기준 위치로써 "Script1"은 좌표 (x1, y1)를, "Script2"는 좌표 (x2, y2)를, "Script3"은 좌표 (x3, y3)를 갖는다. 출력 영역으로는 각각 Script1은 "left1, top1, width1, height1", Script2는 "left2, top2, width2, height2", Script3은 "left3, top3, width3, height3"임을 알 수 있다.7A defines styles "Script1", "Script2", and "Script3" as style information to be used for rendering subtitle text. Referring to FIG. 7A, the three styles use the font "Arial.ttf" and the font color is "black", the background color is "white", the font size is "16pt", the alignment method is "center", and the output direction is " left-to-right-top-to-bottom ", line spacing" 40px ". As a reference position of the subtitle text, "Script1" has coordinates (x1, y1), "Script2" has coordinates (x2, y2), and "Script3" has coordinates (x3, y3). As the output area, it can be seen that Script1 is "left1, top1, width1, height1", Script2 is "left2, top2, width2, height2", and Script3 is "left3, top3, width3, height3".

도 7b는 스타일 "Script1", "Script2", "Script3"을 사용하여 렌더링 되는 서브 타이틀 텍스트(710, 720, 730)를 정의한 것이다. 도 7b를 참조하면, 서브 타이틀 텍스트 Hello(710)는 스타일 "Script1"을 사용하고 시간 "00:10:00"부터 "00:15:00"까지 출력되며, 서브 타이틀 텍스트 Subtitle(720)은 스타일 "Script2"를 사용하고 시간 "00:12:00"부터 "00:17:00"까지 출력되고, 서브 타이틀 텍스트 World(730)는 스타일 "Script3"을 사용하고 시간 "00:14:00"부터 "00:19:00"까지 출력됨을 알 수 있다. 따라서, 시간 "00:12:00"부터 "00:17:00"까지는 2개 또는 3개의 서브 타이틀 텍스트가 출력된다. 서로 다른 스크립트를 사용하였기 때문에 이 경우에는 줄바꿈 태그인 <br>이 불필요하다.FIG. 7B defines the subtitle text 710, 720, 730 rendered using the styles "Script1", "Script2", "Script3". Referring to FIG. 7B, the subtitle text Hello 710 uses style "Script1" and outputs from "00:10:00" to "00:15:00", and the subtitle text Subtitle 720 is styled. Using "Script2" and outputting from "00:12:00" to "00:17:00", subtitle text World (730) uses style "Script3" and starts from "00:14:00" It can be seen that "00:19:00" is output. Therefore, two or three subtitle texts are output from the time "00:12:00" to "00:17:00". In this case, the newline tag <br> is unnecessary because you used different scripts.

도 7c는 도 7a와 도 7b에 의해 정의된 자막이 출력된 결과를 도시한 도면이다. 이에 따라 각 시간대별로 텍스트 서브 타이틀 처리부의 각 버퍼에 저장되어 있는 데이터를 상세히 설명하면 다음과 같다.7C is a diagram illustrating a result of outputting a caption defined by FIGS. 7A and 7B. Accordingly, the data stored in each buffer of the text subtitle processing unit for each time zone will be described in detail as follows.

① 시간 "00:10:00"까지 : 공백 서브 타이틀 이미지를 포함하는 구성정보 출력① Until time "00:10:00": Configuration information output including blank subtitle image

엘리먼트 제어 데이터 버퍼 : 비어있음Element Control Data Buffer: Empty

텍스트 데이터 버퍼 : 비어있음Text data buffer: empty

스타일 데이터 버퍼 : 비어있음Style data buffer: empty

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

② 시간 "00:10:00"부터 "00:12:00"까지 : 서브 타이틀 텍스트 Hello(710)의 렌더링된 이미지를 포함하는 구성정보 출력② Time "00:10:00" to "00:12:00": Configuration information output including the rendered image of the subtitle text Hello 710

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(710)에 대한 제어정보Element control data buffer: control information for the subtitle text Hello 710

텍스트 데이터 버퍼 : "Hello"Text data buffer: "Hello"

스타일 데이터 버퍼 : 스타일 "Script1" 정보Style data buffer: style "Script1" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

③ 시간 "00:12:00"부터 "00:14:00"까지 : 서브 타이틀 텍스트 Hello(710)와 서브 타이틀 텍스트 Subtitle(720)을 포함하는 구성정보 출력③ From time "00:12:00" to "00:14:00": Configuration information output including subtitle text Hello (710) and subtitle text Subtitle (720)

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(710)와 서브 타이틀 텍스트 Subtitle(720)에 대한 제어정보Element control data buffer: control information for the subtitle text Hello (710) and the subtitle text Subtitle (720)

텍스트 데이터 버퍼 : "Hello"와 "Subtitle"Text Data Buffers: "Hello" and "Subtitle"

스타일 데이터 버퍼 : 스타일 "Script1"과 스타일 "Script2" 정보Style data buffer: style "Script1" and style "Script2" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

④ 시간 "00:14:00"부터 "00:15:00"까지 : 서브 타이틀 텍스트 Hello(710), 서브 타이틀 텍스트 Subtitle(720) 및 서브 타이틀 텍스트 World(730)을 포함하는 구성정보 출력④ Time "00:14:00" to "00:15:00": Configuration information output including subtitle text Hello (710), subtitle text Subtitle (720) and subtitle text World (730)

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(710), 서브 타이틀 텍스트 Subtitle(720) 및 서브 타이틀 텍스트 World(730)에 대한 제어정보Element control data buffer: control information for subtitle text Hello 710, subtitle text Subtitle 720, and subtitle text World 730

텍스트 데이터 버퍼 : "Hello"와 "Subtitle"과 "World"Text data buffer: "Hello" and "Subtitle" and "World"

스타일 데이터 버퍼 : 스타일 "Script1"과 스타일 "Script2"와 스타일 "Script3" 정보Style data buffer: style "Script1" and style "Script2" and style "Script3" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑤ 시간 "00:15:00"부터 "00:17:00"까지 : 서브 타이틀 텍스트 Subtitle(720) 및 서브 타이틀 텍스트 World(730)를 포함하는 구성정보 출력⑤ From "00:15:00" to "00:17:00": Configuration information output including subtitle text Subtitle 720 and sub title text World 730

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Subtitle(720) 및 서브 타이틀 텍스트 World(730)에 대한 제어정보Element control data buffer: control information for the subtitle text Subtitle 720 and the sub title text World 730

텍스트 데이터 버퍼 : "Subtitle"과 "World"Text Data Buffers: "Subtitle" and "World"

스타일 데이터 버퍼 : 스타일 "Script2"와 스타일 "Script3" 정보Style data buffer: style "Script2" and style "Script3" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑥ 시간 "00:17:00"부터 "00:19:00"까지 : 서브 타이틀 텍스트 World(730)를 포함하는 구성정보 출력⑥ From time "00:17:00" to "00:19:00": Configuration information output including subtitle text World 730

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 World(730)에 대한 제어정보Element control data buffer: control information for the subtitle text world 730

텍스트 데이터 버퍼 : "World"Text data buffer: "World"

스타일 데이터 버퍼 : 스타일 "Script3" 정보Style data buffer: style "Script3" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑦ 시간 "00:19:00"까지 : 공백 서브 타이틀 이미지를 포함하는 구성정보 출력⑦ Until time "00:19:00": Configuration information output including blank subtitle image

엘리먼트 제어 데이터 버퍼 : 비어있음Element Control Data Buffer: Empty

텍스트 데이터 버퍼 : 비어있음Text data buffer: empty

스타일 데이터 버퍼 : 비어있음Style data buffer: empty

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

상술한 두 번째 방법에서는 중복된 출력 시간을 갖는 복수의 자막 항목에 대해 서로 다른 스타일을 적용하여 자막 항목별로 각각 서브 타이틀 이미지를 생성하고 이들을 포함하는 하나의 구성정보를 생성하여 프리젠테이션 엔진으로 전송한다. 텍스트 서브 타이틀의 처리시간은 첫 번째 방법에서와 동일하다. 즉, 출력되는 서브 타이틀은 텍스트 서브 타이틀 처리부에서 서브 타이틀에 대한 디코딩을 수행하는 시간(Tdecoding)과 렌더링된 서브 타이틀이 오브젝트 버퍼에서 그래픽 플레인으로 출력되는데 필요한 시간(Tcomposition)을 고려하여 텍스트 서브 타이틀 처리가 빨리 수행되어야 한다. 다만 이 경우에는 복수개의 오브젝트가 존재하기 때문에, 렌더링 시간은 이들 각각의 오브젝트가 렌더링되는데 걸리는 시간의 합이 되므로 다음 수학식 2에 의해 계산된다.In the second method described above, subtitle images are generated for each subtitle item by applying different styles to a plurality of subtitle items having duplicate output times, and one piece of configuration information including them is generated and transmitted to the presentation engine. . The processing time of the text subtitle is the same as in the first method. That is, the output subtitle is the text subtitle in consideration of the time (T decoding ) for decoding the subtitle in the text subtitle processing unit and the time (T composition ) required for the rendered subtitle to be output from the object buffer to the graphics plane. Title processing must be performed quickly. In this case, however, since there are a plurality of objects, the rendering time is the sum of the time taken for each of these objects to be rendered, and is calculated by the following equation (2).

Figure 112006046472924-pat00002
Figure 112006046472924-pat00002

오브젝트 버퍼에 저장될 수 있는 서브 타이틀 텍스트의 글자수의 제한은 첫 번째 방법과 동일하다.The limit on the number of characters of the subtitle text that can be stored in the object buffer is the same as in the first method.

도 8a 내지 도 8c는 복수의 서브 타이틀에 대해 복수의 구성정보를 구성하여 하나의 구성정보에 하나의 이미지 오브젝트가 각각 포함되도록 이미지를 생성하는 것을 설명하기 위한 도면이다.8A to 8C are diagrams for describing an example in which a plurality of pieces of configuration information are configured for a plurality of subtitles to generate an image so that one image object is included in one piece of configuration information.

도 8a는 자막 텍스트의 렌더링에 사용되는 스타일 정보로서 스타일 "Script1", "Script2", "Script3"을 정의한 것이다. 도 8a를 참조하면, 세 가지 스타일은 "Arial.ttf" 폰트를 사용하며 글자색은 "black", 배경색은 "white", 글자 크기는 "16pt", 정렬 방식은 "center", 출력 방향은 "left-to-right-top-to-bottom", 줄 간격으로 "40px"임을 알 수 있다. 그리고, 텍스트 이미지의 기준 위치로써 "Script1"은 좌표 (x1, y1)을, "Script2"는 좌표 (x2, y2)를, "Script3"은 좌표 (x3, y3)를 가지며, 출력 영역으로써 "Script1"은 "left1, top1, width1, height1", "Script2"은 "left2, top2, width2, height2", "Script3"은 "left3, top3, width3, height3"을 가진다.8A defines styles "Script1", "Script2", and "Script3" as style information used for rendering caption text. Referring to FIG. 8A, three styles use the font "Arial.ttf", the font color is "black", the background color is "white", the font size is "16pt", the alignment method is "center", and the output direction is " left-to-right-top-to-bottom "," 40px "in line spacing. As a reference position of the text image, "Script1" has coordinates (x1, y1), "Script2" has coordinates (x2, y2), and "Script3" has coordinates (x3, y3). "" Has left1, top1, width1, height1 "," Script2 "has" left2, top2, width2, height2 ", and" Script3 "has" left3, top3, width3, height3 ".

도 8b는 스타일 "Script1", "Script2", "Script3"을 사용하여 렌더링 되는 서브 타이틀 텍스트(810, 820, 830)를 정의한 것이다. 도 8b를 참조하면, 서브 타이틀 텍스트 Hello(810)는 스타일 "Script1"을 사용하고 시간 "00:10:00"부터 "00:15:00"까지 출력되며, 서브 타이틀 텍스트 Subtitle(820)은 스타일 "Script2"를 사용하고 시간 "00:12:00"부터 "00:17:00"까지 출력되고, 서브 타이틀 텍스트 World(830)는 스타일 "Script3"을 사용하고 시간 "00:14:00"부터 "00:19:00"까지 출력됨을 알 수 있다. 따라서 시간 "00:12:00"부터 "00:17:00"까지는 2개 또는 3개의 서브 타이틀 텍스트가 중복되어 있다.8B defines subtitle text 810, 820, 830 rendered using styles "Script1", "Script2", "Script3". Referring to FIG. 8B, the subtitle text Hello 810 uses style "Script1" and outputs from "00:10:00" to "00:15:00", and the subtitle text Subtitle 820 is styled. Using "Script2" and outputting from "00:12:00" to "00:17:00", subtitle text World (830) uses style "Script3" and starts from "00:14:00" It can be seen that "00:19:00" is output. Therefore, two or three subtitle texts overlap from "00:12:00" to "00:17:00".

도 8c는 도 8a와 도 8b에 의해 정의된 자막이 출력된 결과를 도시한 도면이다. 이에 따라 각 시간대별로 텍스트 서브 타이틀 처리부의 각 버퍼에 저장되어 있는 데이터를 상세히 설명하면 다음과 같다.8C is a diagram illustrating a result of outputting a caption defined by FIGS. 8A and 8B. Accordingly, the data stored in each buffer of the text subtitle processing unit for each time zone will be described in detail as follows.

① 시간 "00:00:00"에서 : 공백 서브 타이틀 이미지를 포함하는 구성정보 출력① At time "00:00:00": Configuration information output including blank subtitle image

엘리먼트 제어 데이터 버퍼 : 비어있음Element Control Data Buffer: Empty

텍스트 데이터 버퍼 : 비어있음Text data buffer: empty

스타일 데이터 버퍼 : 비어있음Style data buffer: empty

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

② 시간 "00:10:00"에서 : 서브 타이틀 텍스트 Hello(810)의 렌더링된 이미지를 포함하는 구성정보 출력② At time "00:10:00": Outputs the configuration information including the rendered image of the subtitle text Hello 810

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Hello(810)에 대한 제어정보Element control data buffer: control information for the subtitle text Hello 810

텍스트 데이터 버퍼 : "Hello"Text data buffer: "Hello"

스타일 데이터 버퍼 : 스타일 "Script1" 정보Style data buffer: style "Script1" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

③ 시간 "00:12:00"에서 : 서브 타이틀 텍스트 Hello(810)를 포함하는 구성정보와 서브 타이틀 텍스트 Subtitle(820)를 포함하는 구성정보를 각각 출력③ At time "00:12:00": Outputs the configuration information including the subtitle text Hello 810 and the configuration information including the subtitle text Subtitle 820, respectively.

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 Subtitle(820)에 대한 제어정보 로드Element control data buffer: load control information for subtitle text Subtitle (820)

텍스트 데이터 버퍼 : "Subtitle"Text data buffer: "Subtitle"

스타일 데이터 버퍼 : 스타일 "Script2" 정보Style data buffer: style "Script2" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

④ 시간 "00:14:00"에서 : 서브 타이틀 텍스트 Hello(810)를 포함하는 구성정보와 서브 타이틀 텍스트 Subtitle(820)를 포함하는 구성정보와 서브 타이틀 텍스트 World(830)를 포함하는 구성정보를 각각 출력④ at time "00:14:00": configuration information including subtitle text Hello 810 and configuration information including subtitle text Subtitle 820 and configuration information including subtitle text World 830. Each output

엘리먼트 제어 데이터 버퍼 : 서브 타이틀 텍스트 World(830)에 대한 제어정보 로드Element Control Data Buffer: Load Control Information for Subtitle Text World 830

텍스트 데이터 버퍼 : "World"Text data buffer: "World"

스타일 데이터 버퍼 : 스타일 "Script3" 정보Style data buffer: style "Script3" information

폰트 데이터 버퍼 : "Arial.ttf"의 폰트 정보Font data buffer: Font information of "Arial.ttf"

⑤ 시간 "00:15:00" 이후 : 텍스트 서브 타이틀 처리부는 시간 “00:19:00”이후에 출력될 다음 자막 항목에 대한 출력 준비를 할 때까지 아무런 동작을 하지 않는다. 따라서, 시간 “00:15:00”에서부터 시간“00:19:00” 사이에서 출력되는 서브 타이틀의 변화는 텍스트 서브 타이틀 처리부로부터 수신된 서브 타이틀 Hello, Subtitle, World 각각에 대한 구성정보를 프리젠테이션 엔진이 제어함으로써 수행된다.⑤ After time “00:15:00”: The text subtitle processing unit does not operate until it prepares to output the next subtitle item to be output after the time “00:19:00”. Therefore, the change of the subtitle output between the time "00:15:00" and the time "00:19:00" presents the configuration information for each of the subtitles Hello, Subtitle, and World received from the text subtitle processing unit. This is done by the engine controlling.

즉, 시간 “00:15:00”에서 프리젠테이션 엔진은 서브 타이틀 Hello에 대한 구성정보와 비트맵 이미지 오브젝트를 구성버퍼와 오브젝트 버퍼에서 제거하고 서브 타이틀 Subtitle, World에 대한 구성정보만을 화면에 출력한다. 그리고, 시간 “00:17:00”에서 프리젠테이션 엔진은 서브 타이틀 Subtitle에 대한 구성정보와 비트맵 이미지 오브젝트를 구성버퍼와 오브젝트 버퍼에서 제거하고 서브 타이틀 World에 대한 구성정보만을 화면에 출력한다. 또한, 시간 “00:19:00”에서는 프리젠테이션 엔진은 서브 타이틀 World에 대한 구성정보와 비트맵 이미지 오브젝트를 구성버퍼와 오브젝트 버퍼에서 제거하여 더 이상 화면에 서브 타이틀을 출력하지 않는다.That is, at time “00:15:00”, the presentation engine removes the configuration information for the subtitle Hello and the bitmap image object from the configuration buffer and the object buffer, and outputs only the configuration information for the subtitle Subtitle, World on the screen. . At time "00:17:00", the presentation engine removes the configuration information for the subtitle Subtitle and the bitmap image object from the configuration buffer and the object buffer, and outputs only the configuration information for the subtitle World on the screen. In addition, at time "00:19:00", the presentation engine removes the configuration information and the bitmap image object for the subtitle world from the configuration buffer and the object buffer and no longer outputs the subtitle on the screen.

세 번째 방법에서는 중복된 출력 시간을 갖는 복수의 자막 항목에 대해 서로 다른 스타일을 적용하여 자막 항목별로 하나의 서브 타이틀 이미지를 생성하고, 하나의 자막 이미지에 대해 하나의 구성정보를 생성하여 복수의 구성정보가 프리젠테이션 엔진으로 전송된다. 텍스트 서브 타이틀의 출력시간은 첫 번째 방법과 동일하다. 상기 첫 번째, 두 번째 방법에서는 출력 시간이 중복되는 복수의 자막 항목에 대해 하나의 구성정보를 구성하여 출력하므로 한번에 하나의 구성정보에 대한 처리 시간만을 고려하는 반면, 세 번째 방법에서는 각각의 자막 항목이 하나의 구성정보를 구성하므로 복수의 구성정보가 생성되고 출력된다. 그러므로 세 번째 방법에서 자막 항목의 처리 시작 시간은, 최악의 경우인 동일한 출력 시작 시간을 갖는 복수의 서브 타이틀에 대해 동시에 복수의 구성정보가 동시에 생성되고 출력되는 경우를 가정하여야 하며, 이는 다음 수학식 3에 의하여 설명된다.In the third method, one subtitle image is generated for each subtitle item by applying different styles to a plurality of subtitle items having overlapping output times, and one configuration information is generated for one subtitle image. The information is sent to the presentation engine. The output time of the text subtitle is the same as in the first method. In the first and second methods, since one configuration information is composed and output for a plurality of subtitle items having overlapping output times, only a processing time for one configuration information is considered at a time, whereas in the third method, each subtitle item is considered. Since one piece of configuration information is configured, a plurality of pieces of configuration information are generated and output. Therefore, in the third method, the processing start time of the subtitle item should be assumed that a plurality of pieces of configuration information are simultaneously generated and output for a plurality of subtitles having the same output start time, which is the worst case. It is explained by 3.

Figure 112006046472924-pat00003
Figure 112006046472924-pat00003

복수의 구성정보를 생성하는 시간인 T구성정보생성은 하나의 서브 타이틀에 대한 구성정보 생성 시간인 T구성정보 들의 합으로 나타낸다. Trendering은 복수의 서브 타이틀을 렌더링하여 복수의 오브젝트를 생성하는 시간으로, 하나의 서브 타이틀에 대한 렌더링 시간인 TOBJ들의 합으로 나타낸다. TOBJ는 하나의 서브 타이틀을 렌더링하는데 소요되는 시간으로, 해당 서브타이틀이 포함하는 글자 각각의 렌더링 시간인 Tchar들 의 합이다. 수학식 3을 참조하면, 복수의 글자를 포함하고 있는 복수의 서브 타이틀이 동시에 출력되기 위해서는 적어도 각각의 서브 타이틀이 포함하는 모든 글자들이 렌더링되고 복수의 구성정보를 구성하여 출력되는데 소요되는 시간의 합이 서브 타이틀의 출력시간과 텍스트 서브 타이틀 처리부에서 서브 타이틀이 처리되기 시작하는 시간의 차보다 작아야 함을 알 수 있다.The T configuration information generation, which is a time for generating a plurality of configuration information, is represented as the sum of the T configuration informations , which is the time for generating the configuration information for one subtitle. T rendering is a time for generating a plurality of objects by rendering a plurality of subtitles, and is expressed as a sum of T OBJs which are rendering times for one subtitle. T OBJ is the time taken to render one subtitle, which is the sum of the T chars that are the rendering times of each character included in the subtitle. Referring to Equation 3, in order for a plurality of subtitles including a plurality of characters to be output at the same time, at least the sum of the time required to render all the characters included in each subtitle and to configure and output the plurality of configuration information. It can be seen that the difference between the output time of this subtitle and the time at which the subtitle starts to be processed in the text subtitle processing unit.

오브젝트 버퍼에 저장될 수 있는 서브 타이틀 텍스트의 글자수의 제한은 첫 번째 방법 및 두 번째 방법의 경우와 동일하다.The limit of the number of characters of the subtitle text that can be stored in the object buffer is the same as that of the first method and the second method.

상술한 세 번째 방법에서와 같이 동시에 복수의 구성정보의 출력을 지원하는 구조로 구성된 정보저장매체 및 재생 장치에서는 동영상에 대한 텍스트 기반의 서브 타이틀과 서브 타이틀 이외의 비트맵 이미지를 동시에 화면상에 출력할 수도 있다.As in the third method described above, the information storage medium and the playback device configured to simultaneously support the output of a plurality of pieces of configuration information simultaneously output text-based subtitles and bitmap images other than subtitles on a screen. You may.

AV 스트림과 함께 압축 부호화되어 있는 데이터에는 비디오 데이터, 오디오 데이터 외에 비트맵 형식의 서브 타이틀, 그리고 서브 타이틀이 아닌 비트맵 이미지가 있다. 서브 타이틀이 아닌 비트맵 이미지의 예를 들면, TV 방송에서 15세 이상 관람 가능한 프로그램이라는 것을 표시하기 위해 화면 상단에 ⑮와 같은 이미지를 표시할 수 있는데, 이것이 그의 한 예이다. 종래에는 어느 한 순간에는 하나의 구성정보만이 화면에 출력되므로 비트맵 서브 타이틀과 그 외의 비트맵 이미지를 동시에 출력하기 위해서는 서브 타이틀을 출력하기 위한 영역과 그 외의 비트맵 이미지를 출력하기 위한 영역을 구성정보가 별도로 정의하여 각 영역에 출력하였다.The data encoded with the AV stream includes video data, audio data, sub-titles in bitmap format, and bitmap images that are not subtitles. For example, a bitmap image that is not a subtitle, an image such as ⑮ can be displayed at the top of the screen to indicate that the program can be watched over 15 years in a TV broadcast. In the past, only one piece of configuration information is output to the screen at any one time. Therefore, in order to simultaneously output a bitmap subtitle and other bitmap images, an area for outputting a subtitle and an area for outputting other bitmap images are provided. The configuration information is defined separately and output in each area.

따라서, 사용자가 서브 타이틀의 출력을 원하지 않아 출력을 오프(off)하면, 디코더는 서브 타이틀의 디코딩만을 중지한다. 따라서, 오브젝트 버퍼에 서브 타이틀 데이터는 전달되지 않아 서브 타이틀은 사라지고 서브 타이틀이 아닌 비트맵 이미지만 계속 출력되었다.Thus, if the user turns off the output because the user does not want the output of the subtitle, the decoder stops decoding the subtitle only. Therefore, the subtitle data is not transferred to the object buffer, so the subtitle disappears and only the bitmap image, not the subtitle, is continuously output.

만일 서브 타이틀을 출력하기 위해 텍스트 서브 타이틀 처리부가 하나의 구성정보로 서브 타이틀을 위한 이미지를 만들어 프리젠테이션 엔진으로 전송하는 경우, 서브 타이틀의 출력을 오프하면, AV 스트림에 기록되어 있는 서브 타이틀 외의 비트맵 이미지도 출력되지 않는다. 따라서, 본 발명의 세 번째 방법에서 설명한 바와 같이 복수의 구성정보를 동시에 화면상에 출력할 수 있는 경우에는, 비트맵 서브 타이틀 대신 텍스트 서브 타이틀을 선택했을 경우에 AV 스트림에 기록되어 있는 구성정보에서는 비트맵 서브 타이틀을 제외한 나머지 이미지를 계속 출력하고, 텍스트 서브 타이틀 처리부가 생성한 구성정보를 사용하여 서브 타이틀을 출력하는 것이 가능하다. 즉, 텍스트 서브 타이틀을 출력하면서 동시에 서브 타이틀 이외의 다른 비트맵 이미지도 함께 화면상에 출력할 수 있다.If the text subtitle processing unit generates an image for the subtitle with one piece of configuration information and outputs it to the presentation engine to output the subtitle, when the output of the subtitle is turned off, the bits other than the subtitle recorded in the AV stream are turned off. No map image is printed. Therefore, as described in the third method of the present invention, when a plurality of pieces of configuration information can be output on the screen at the same time, when the text subtitle is selected instead of the bitmap subtitle, It is possible to continue to output the remaining images except for the bitmap subtitle, and to output the subtitle using the configuration information generated by the text subtitle processing unit. That is, the text subtitle can be output and at the same time, other bitmap images other than the subtitle can also be output on the screen.

한편, 상술한 서브 타이틀 출력방법은 컴퓨터 프로그램으로 작성 가능하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 참조 픽처 결정 방법 및 그 움직임 보상 방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체, 및 캐리어 웨이브 매체를 포함한다.The subtitle output method described above can be created by a computer program. Codes and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the program is stored in a computer readable media, and read and executed by a computer to implement the reference picture determination method and the motion compensation method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.

전술한 바와 같이 본 발명에 따르면, 서브 타이틀 파일을 용이하게 제작할 수 있으며, AV 스트림에 대한 서브 타이틀을 보다 다양한 형태로 출력할 수 있다.As described above, according to the present invention, the subtitle file can be easily produced, and the subtitle for the AV stream can be output in more various forms.

Claims (10)

텍스트 기반의 서브 타이틀 데이터에서 텍스트의 렌더링에 사용되는 렌더링 정보와 렌더링된 텍스트를 프리젠테이션하는데 사용되는 제어정보를 분리하여 추출하는 파싱 단계와,A parsing step of separately extracting rendering information used for rendering the text from the text-based subtitle data and control information used for presenting the rendered text; 상기 추출된 렌더링 정보에 따라 서브 타이틀 텍스트를 렌더링하여 서브 타이틀 텍스트에 대한 비트맵 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And rendering a subtitle text according to the extracted rendering information to generate a bitmap image for the subtitle text. 제1항에 있어서, 상기 파싱 단계는 The method of claim 1, wherein the parsing step 상기 제어정보를 소정의 정보 구조체 포맷에 맞추어 구성하여, 프리젠테이션 엔진으로 전송하는 단계를 더 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And constructing the control information in accordance with a predetermined information structure format and transmitting the control information to a presentation engine. 제1항에 있어서,The method of claim 1, 비트맵 서브 타이틀 데이터를 처리하는 프리젠테이션 엔진과 독립적으로 상기 제어정보를 이용하여 상기 생성된 비트맵 이미지를 화면에 직접 출력하도록 제어하는 단계를 더 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And controlling to output the generated bitmap image directly to the screen by using the control information independently of the presentation engine that processes the bitmap subtitle data. 제1항에 있어서,The method of claim 1, 상기 서브 타이틀 데이터는 출력 시간이 중복되는 복수개의 서브 타이틀 데이터인 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And the sub title data is a plurality of sub title data having an overlapping output time. 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 하나의 구성 정보, 하나의 위치 정보 및, 하나의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And generating and outputting a bitmap image by generating one configuration information, one location information, and one object information for a plurality of sub title data having overlapping output times. Way. 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 하나의 구성 정보, 복수의 위치 정보 및 복수의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And generating a bitmap image by generating one configuration information, a plurality of location information, and a plurality of object information for a plurality of subtitle data having an overlapping output time. . 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 출력 시간이 중복되는 복수의 서브 타이틀 데이터에 대해, 복수의 구성 정보, 각 구성 정보마다 대응되는 하나의 위치 정보 및 하나의 오브젝트 정보를 생성하여 비트맵 이미지를 만들어 출력하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And generating a bitmap image by generating a plurality of configuration information, one location information corresponding to each configuration information, and one object information, for a plurality of subtitle data having overlapping output times. How to play a text subtitle. 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 동일한 출력 스타일을 적용하여 렌더링하고, 하나의 이미지로 구성된 하나의 페이지로 만드는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And applying the same output style to the plurality of subtitle text data and rendering the same, and forming one page composed of one image. 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 다른 출력 스타일을 적용하여 렌더링하고, 렌더링된 복수의 이미지를 하나의 페이지로 구성하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And applying a different output style to the plurality of sub-title text data and rendering the plurality of sub-title text data, and configuring the rendered plurality of images into one page. 제1항에 있어서, 상기 비트맵 이미지 생성 단계는The method of claim 1, wherein the bitmap image generating step 복수개의 상기 서브 타이틀 텍스트 데이터에 대해 서로 다른 출력 스타일을 적용하여 렌더링하고, 렌더링된 복수의 이미지로 복수의 페이지를 구성하는 단계를 포함하는 것을 특징으로 하는 텍스트 서브 타이틀 재생 방법.And applying a different output style to a plurality of the sub-title text data and rendering a plurality of pages with the rendered plurality of images.
KR1020060058888A 2003-11-10 2006-06-28 Method of reproducing subtitle files KR100644719B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20030079181 2003-11-10
KR1020030079181 2003-11-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020040083517A Division KR100619053B1 (en) 2003-11-10 2004-10-19 Information storage medium for subtitle and apparatus therefor

Publications (2)

Publication Number Publication Date
KR20060084412A KR20060084412A (en) 2006-07-24
KR100644719B1 true KR100644719B1 (en) 2006-11-10

Family

ID=37174456

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060058888A KR100644719B1 (en) 2003-11-10 2006-06-28 Method of reproducing subtitle files

Country Status (1)

Country Link
KR (1) KR100644719B1 (en)

Also Published As

Publication number Publication date
KR20060084412A (en) 2006-07-24

Similar Documents

Publication Publication Date Title
KR100619053B1 (en) Information storage medium for subtitle and apparatus therefor
CN1922682B (en) Device for reproducing text-based subtitle data
JP4988914B2 (en) Information recording medium and playback apparatus for providing text-based subtitles
CN1864220B (en) Apparatus for processing text-based subtitle
KR100644719B1 (en) Method of reproducing subtitle files
MXPA06005152A (en) Information storage medium containing subtitles and processing apparatus therefor

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121030

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131030

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141030

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151029

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161028

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171030

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20191030

Year of fee payment: 14