KR20050088035A - Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method thereof - Google Patents
Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method thereof Download PDFInfo
- Publication number
- KR20050088035A KR20050088035A KR1020040032290A KR20040032290A KR20050088035A KR 20050088035 A KR20050088035 A KR 20050088035A KR 1020040032290 A KR1020040032290 A KR 1020040032290A KR 20040032290 A KR20040032290 A KR 20040032290A KR 20050088035 A KR20050088035 A KR 20050088035A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- style
- text
- presentation
- subtitle
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/20—Disc-shaped record carriers
- G11B2220/25—Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
- G11B2220/2537—Optical discs
- G11B2220/2541—Blu-ray discs; Blue laser DVR discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
- H04N5/85—Television signal recording using optical recording on discs or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/806—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
- H04N9/8063—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8233—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Studio Circuits (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 발명은 멀티미디어 영상의 재생에 관한 것으로, 보다 상세하게는 멀티미디어 영상 스트림과 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체, 재생 장치 및 그 재생 방법에 관한 것이다. The present invention relates to the reproduction of a multimedia image, and more particularly, to a storage medium, a reproduction apparatus, and a reproduction method for recording a multimedia image stream and a text-based subtitle stream.
현재 HD(High Definition)급 고화질의 멀티미디어 영상을 제공하기 위한 저장 매체에 기록된 AV 데이터에는, 비디오 스트림, 오디오 스트림, 서브타이틀을 제공하기 위한 프리젠테이션 그래픽 스트림(presentation graphic stream) 및 사용자와의 상호 작용을 위해 버튼 또는 메뉴를 제공하기 위한 인터랙티브 그래픽 스트림(interactive graphic stream)이 다중화(multiplexing)되어 있다. 특히, 서브타이틀을 제공하기 위한 프리젠테이션 그래픽 스트림은 자막을 표시하기 위하여 비트맵(bitmap) 기반의 이미지를 제공한다.AV data recorded on a storage medium for providing a high definition (HD) -quality high-definition multimedia image currently includes a presentation graphic stream for providing a video stream, an audio stream, a subtitle, and a mutual interaction with a user. Interactive graphic streams for providing buttons or menus for operation are multiplexed. In particular, the presentation graphics stream for providing subtitles provides a bitmap based image for displaying subtitles.
이러한 비트맵 기반의 자막 데이터는 그 크기가 클 뿐만 아니라, 비디오, 오디오, 인터랙티브 그래픽 등의 다른 스트림과 함께 다중화 되기 때문에, 자막 데이터의 제작과 일단 제작된 자막 데이터의 편집이 매우 어려운 문제점이 있다. 나아가, 자막 데이터의 출력 스타일을 다양하게 변경할 수 없는 문제점도 있다.Since the bitmap-based subtitle data is not only large in size but also multiplexed with other streams such as video, audio, interactive graphics, etc., there is a problem in that the production of the subtitle data and the editing of the produced subtitle data are very difficult. Furthermore, there is a problem in that the output style of the caption data cannot be variously changed.
따라서, 본 발명의 목적은 전술한 문제점을 해결하기 위하여, 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체, 재생 장치 및 그 재생 방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a storage medium, a reproducing apparatus, and a reproducing method for recording a text-based subtitle stream, in order to solve the above problems.
전술한 목적은, 영상 데이터 및 영상 데이터에 기초한 영상 위에 자막을 표시하기 위한 텍스트 기반의 서브타이틀 데이터가 기록된 저장 매체를 재생하는 장치에 있어서, 영상 데이터를 디코딩하는 비디오 디코더; 및 서브타이틀 데이터 중, 자막의 출력 스타일을 지정하는 스타일 정보에 기초하여 자막의 표시 단위인 프리젠테이션 정보를 비트맵 이미지로 변환하며, 변환된 프리젠테이션 정보를 디코딩된 영상 데이터에 동기시켜(synchronized) 출력하도록 제어하는 서브타이틀 디코더를 포함하는 것을 특징으로 하는 장치에 의해 달성된다.The above object is an apparatus for reproducing image data and a storage medium on which text-based subtitle data for displaying subtitles on an image based on the image data is recorded, the apparatus comprising: a video decoder for decoding image data; And converting the presentation information, which is a display unit of the subtitle, into a bitmap image based on the style information specifying the output style of the subtitle among the subtitle data, and synchronizing the converted presentation information with the decoded image data. And a subtitle decoder for controlling to output.
서브타이틀 디코더는 영상 데이터와 별도로 분리되어 기록된 서브타이틀 데이터를 디코딩하여, 디코딩된 영상 데이터와 오버레이하여 출력하는 것이 바람직하다.The subtitle decoder preferably decodes the subtitle data recorded separately from the image data, and overlays the detitle image data to output the detitle data.
또한, 스타일 정보 및 프리젠테이션 정보는 패킷화된 요소 스트림(packetized elementary stream: PES) 단위로 구성되며, 서브타이틀 디코더는 PES 단위로 스타일 정보 및 프리젠테이션 정보를 해석하고 처리하는 것이 바람직하다.In addition, the style information and the presentation information are configured in a packetized elementary stream (PES) unit, and the subtitle decoder preferably interprets and processes the style information and the presentation information in the PES unit.
스타일 정보는 하나의 PES로 구성되며 서브타이틀 데이터의 맨 처음 부분에 기록되고, 프리젠테이션 정보는 스타일 정보 이후에 PES 단위로 복수개가 기록되며, 서브타이틀 디코더는 복수의 프리젠테이션 정보에 대하여 하나의 스타일 정보를 적용하는 것이 바람직하다.The style information is composed of one PES and is recorded at the beginning of the subtitle data, and a plurality of presentation information are recorded in PES units after the style information, and the subtitle decoder has one style for the plurality of presentation information. It is desirable to apply the information.
또한, 프리젠테이션 정보는 자막의 내용을 나타내는 텍스트 정보와, 비트맵 이미지로 변환된 텍스트 정보의 출력을 제어하기 위한 구성 정보를 포함하며, 서브타이틀 디코더는 구성 정보를 참조하여, 변환된 텍스트 정보가 출력되는 시간을 제어하는 것이 바람직하다.In addition, the presentation information includes text information indicating the content of the caption and configuration information for controlling the output of the text information converted into the bitmap image. The subtitle decoder refers to the configuration information, and the converted text information is It is desirable to control the output time.
프리젠테이션 정보는 자막이 출력될 적어도 하나 이상의 윈도우 영역을 지정하며, 서브타이틀 디코더는 적어도 하나 이상의 윈도우 영역에 동시에 변환된 텍스트 정보를 출력하는 것이 바람직하다.The presentation information designates at least one or more window regions to which a subtitle is to be output, and the subtitle decoder may output the converted text information simultaneously to the at least one or more window regions.
구성 정보 중, 프리젠테이션 정보의 출력 시작 시간 및 출력 종료 시간은, 영상 데이터의 재생 단위인 플레이리스트에서 사용되는 글로벌 시간 축 상의 시간 정보로 정의되며, 서브타이틀 디코더는 출력 시작 시간 및 출력 종료 시간을 참조하여, 변환된 텍스트 정보와 디코딩된 영상 데이터의 출력을 동기화 하는 것이 바람직하다.Among the configuration information, the output start time and output end time of the presentation information are defined as time information on a global time axis used in a playlist that is a playback unit of video data, and the subtitle decoder determines the output start time and the output end time. For reference, it is preferable to synchronize the output of the decoded image data with the converted text information.
서브타이틀 디코더는, 현재 재생 중인 프리젠테이션 정보의 출력 종료 시간이 다음 프리젠테이션 정보의 출력 시작 시간 정보와 동일한 경우, 두 개의 프리젠테이션 정보를 연속하여 재생하는 것이 바람직하다.When the output end time of the presentation information currently being reproduced is the same as the output start time information of the next presentation information, the subtitle decoder preferably reproduces the two presentation information continuously.
서브타이틀 디코더는, 다음 프리젠테이션 정보가 연속 재생을 요구하지 아니하면 출력 종료 시간과 출력 종료 시간 사이에 서브타이틀 디코더 내의 버퍼를 리셋하며, 연속 재생을 요구하면 버퍼를 리셋하지 않고 유지하는 것이 바람직하다.The subtitle decoder resets the buffer in the subtitle decoder between the output end time and the output end time if the next presentation information does not require continuous playback. If the subtitle decoder requires continuous playback, the subtitle decoder is preferably maintained without resetting the buffer. .
또한, 스타일 정보는, 저장 매체의 제작자가 미리 정의한, 프리젠테이션 정보에 적용될 출력 스타일의 집합이며, 서브타이틀 디코더는 스타일 정보에 기초하여 이후에 기록된 복수의 프리젠테이션 정보를 비트맵 이미지로 변환하는 것이 바람직하다.Also, the style information is a set of output styles to be applied to the presentation information, predefined by the producer of the storage medium, and the subtitle decoder converts the plurality of presentation information recorded thereafter into a bitmap image based on the style information. It is preferable.
또한, 프리젠테이션 정보 중 텍스트 정보는 비트맵 이미지로 변환될 텍스트와, 텍스트의 일부분에만 적용되는 인라인 스타일 정보를 포함하며, 서브타이틀 디코더는 제작자가 미리 정의한 스타일 정보가 적용된 텍스트의 일부분에만 인라인 스타일 정보를 적용하여, 텍스트의 일부분을 강조하는 기능을 제공하는 것이 바람직하다.In addition, the text information in the presentation information includes text to be converted into a bitmap image and inline style information applied only to a portion of the text. The subtitle decoder includes inline style information only in a portion of the text to which the pre-defined style information is applied. It is desirable to provide a function to highlight a portion of text by applying.
서브타이틀 디코더는 인라인 스타일 정보로서 제작자가 미리 정의한 스타일 정보에 포함된 소정의 폰트 정보에 대한 상대값, 또는 소정의 절대값을 텍스트의 일부분에 적용하는 것이 바람직하다.The subtitle decoder preferably applies a relative value, or a predetermined absolute value, to a portion of the text, relative to predetermined font information included in the style information predefined by the manufacturer as inline style information.
또한, 스타일 정보는, 사용자가 변경할 수 있는 스타일 정보를 더 포함하며, 서브타이틀 디코더는, 사용자로부터 사용자가 변경할 수 있는 스타일 정보 중 하나의 스타일에 대한 선택 정보를 입력받아, 제작자가 미리 정의한 스타일 정보를 적용한 후, 인라인 스타일 정보를 적용하고, 최종적으로 선택 정보에 해당하는 사용자가 변경할 수 있는 스타일 정보를 텍스트에 적용하는 것이 특히 바람직하다.The style information further includes style information that can be changed by the user, and the subtitle decoder receives selection information about one style from among the style information that can be changed by the user, and the style information predefined by the producer. After applying, it is particularly preferable to apply inline style information, and finally apply style information that can be changed by the user corresponding to the selection information to the text.
서브타이틀 디코더는 사용자가 변경할 수 있는 스타일 정보로서 제작자가 미리 정의한 스타일 정보 중 소정의 폰트 정보에 대한 상대값을 텍스트에 적용하는 것이 바람직하다. The subtitle decoder is a style information that can be changed by the user. The subtitle decoder preferably applies a relative value of predetermined font information among the pre-defined style information to the text.
서브타이틀 디코더는, 저장 매체가 제작자가 미리 정의한 스타일 정보 이외에 재생 장치에서 정의한 소정의 스타일 정보를 허용하는 경우에, 소정의 스타일 정보를 텍스트에 적용하는 것이 바람직하다.The subtitle decoder preferably applies the predetermined style information to the text when the storage medium allows predetermined style information defined by the playback apparatus in addition to the style information predefined by the producer.
또한, 스타일 정보는, 프리젠테이션 정보에 적용될 색상 파레트의 집합을 포함하며, 서브타이틀 디코더는 색상 파레트에 정의된 색상에 기초하여 스타일 정보 이후의 모든 프리젠테이션 정보를 비트맵 이미지로 변환하는 것이 바람직하다.In addition, the style information includes a set of color palettes to be applied to the presentation information, and the subtitle decoder preferably converts all presentation information after the style information into a bitmap image based on the colors defined in the color palette. .
스타일 정보에 포함된 색상 파레트의 집합과 별도로, 프리젠테이션 정보는 색상 파레트의 집합과 색상 업데이트 플래그를 더 포함하며, 서브타이틀 디코더는 색상 업데이트 플래그가 1로 설정되면, 프리젠테이션 정보에 포함된 색상 파레트의 집합을 적용하고, 색상 업데이트 플래그가 0으로 설정되면 원래대로 스타일 정보에 포함된 색상 파레트의 집합을 적용하는 것이 바람직하다.Apart from the set of color palettes included in the style information, the presentation information further includes a set of color palettes and a color update flag, and the subtitle decoder, when the color update flag is set to 1, sets of color palettes included in the presentation information. If the color update flag is set to 0, it is preferable to apply the set of color palettes included in the style information as it is.
서브타이틀 디코더는, 색상 업데이트 플래그를 1로 설정하고 연속하는 복수의 프리젠테이션 정보에 포함된 색상 파레트의 투명도 값을 점차 변화시켜 페이드 인/아웃 효과(fade in-out effect)를 구현하며, 페이드 인/아웃 효과가 끝나면 원래대로 스타일 정보에 포함된 색상 파레트 집합에 기초하여 서브타이틀 디코더 내의 색상 참조 테이블(CLUT)을 리셋하는 것이 바람직하다.The subtitle decoder sets the color update flag to 1 and gradually changes the transparency value of the color palette included in a plurality of consecutive presentation information to implement a fade in / out effect. After the / out effect is finished, it is preferable to reset the color reference table (CLUT) in the subtitle decoder based on the set of color palettes originally included in the style information.
또한, 스타일 정보는 변환된 프리젠테이션 정보가 영상 위에 출력될 윈도우 영역의 위치를 나타내는 영역 정보와, 프리젠테이션 정보를 비트맵 이미지로 변환하기 위해 필요한 폰트 정보를 포함하며, 서브타이틀 디코더는 영역 정보 및 폰트 정보를 이용하여 변환된 프리젠테이션 정보를 비트맵 이미지로 변환하는 것이 바람직하다.The style information may include region information indicating a position of a window region in which the converted presentation information is to be output on an image, and font information necessary for converting the presentation information into a bitmap image. The subtitle decoder may include region information and It is preferable to convert the converted presentation information into a bitmap image using font information.
폰트 정보는 변환된 프리젠테이션 정보의 출력 시작 위치, 출력 방향, 정렬, 줄 간격, 폰트의 식별자, 폰트의 스타일, 폰트의 크기, 색상 중 적어도 하나를 포함하며, 서브타이틀 디코더는 폰트 정보에 기초하여 프리젠테이션 정보를 비트맵 이미지로 변환하는 것이 바람직하며,The font information includes at least one of an output start position, output direction, alignment, line spacing, font identifier, font style, font size, and color of the converted presentation information, and the subtitle decoder is based on the font information. It is desirable to convert the presentation information into bitmap images.
서브타이틀 디코더는, 폰트의 식별자로서, 영상 데이터의 기록 단위에 대한 속성 정보를 기록한 클립 인포메이션 파일에 포함된 폰트 파일에 대한 지시 정보를 참조하는 것이 바람직하다. As the identifier of the font, the subtitle decoder preferably refers to the instruction information for the font file included in the clip information file in which the attribute information for the recording unit of the video data is recorded.
또한, 서브타이틀 디코더는 서브타이틀 데이터와 서브타이틀 데이터가 참조하는 폰트 파일을 영상 데이터의 재생 전에 미리 버퍼링 하는 것이 바라직하다.In addition, the subtitle decoder preferably buffers the subtitle data and the font file referred to by the subtitle data before reproduction of the video data.
또한, 저장 매체에 복수의 언어를 지원하는 복수의 서브타이틀 데이터가 기록된 경우, 서브타이틀 디코더는 사용자로부터 원하는 언어에 대한 선택 정보를 전달받아 복수의 서브타이틀 데이터 중 해당하는 서브타이틀 데이터를 재생하는 것이 바람직하다.In addition, when a plurality of subtitle data supporting a plurality of languages are recorded on the storage medium, the subtitle decoder receives selection information regarding a desired language from a user and reproduces corresponding subtitle data among the plurality of subtitle data. It is preferable.
한편, 본 발명의 다른 분야에 따르면, 전술한 목적은, 영상 데이터 및 영상 데이터에 기초한 영상 위에 자막을 표시하기 위한 텍스트 기반의 서브타이틀 데이터가 기록된 저장 매체를 재생하는 방법에 있어서, 자막의 출력 스타일을 지정하는 스타일 정보와 자막의 표시 단위인 프리젠테이션 정보를 포함하는 서브타이틀 데이터를 읽어들이는 단계; 스타일 정보에 기초하여 프리젠테이션 정보를 비트맵 이미지로 변환하는 단계; 및 변환된 프리젠테이션 정보를 영상 데이터에 동기시켜(synchronized) 출력하도록 제어하는 단계를 포함하는 것을 특징으로 하는 재생 방법에 의해 달성된다.On the other hand, according to another field of the present invention, the above object is, in the method for reproducing a subtitle data in a method of reproducing a text-based subtitle data for displaying a subtitle on the image based on the image data and the image data, the caption output Reading subtitle data including style information specifying a style and presentation information which is a display unit of a subtitle; Converting the presentation information into a bitmap image based on the style information; And controlling to output the converted presentation information in synchronization with the image data.
한편, 본 발명의 다른 분야에 따르면, 전술한 목적은, 영상 데이터; 및 영상 데이터에 기초한 영상 위에 자막을 표시하기 위한 텍스트 기반의 서브타이틀 데이터가 기록되며, 서브타이틀 데이터는 자막의 출력 스타일을 지정하는 하나의 스타일 정보와, 자막의 표시 단위인 복수의 프리젠테이션 정보를 포함하며, 영상 데이터와 분리되어 별도로 기록되는 것을 특징으로 하는 저장 매체에 의해 달성된다.On the other hand, according to another field of the present invention, the above object is, image data; And text-based subtitle data for displaying a subtitle on an image based on the image data. The subtitle data includes one style information specifying an output style of the subtitle and a plurality of presentation information which is a display unit of the subtitle. It is achieved by a storage medium, characterized in that it is recorded separately from the image data.
이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.
도 1은 본 발명의 바람직한 실시예에 따른 저장 매체에 기록된 멀티미디어 데이터 구조를 설명하기 위한 도면이다.1 is a diagram illustrating a multimedia data structure recorded in a storage medium according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 저장 매체는 멀티미디어 영상 스트림을 관리하기 위하여 4개의 계층(layer) 구조로 이루어져 있음을 알 수 있다. 각 계층은 멀티미디어 영상의 기록 단위인 클립(100 및 110), 멀티미디어 영상의 재생 단위인 플레이리스트(120), 멀티미디어 영상을 재생하기 위한 네비게이션 명령어를 포함하는 무비 오브젝트(130), 및 최초로 재생될 무비 오브젝트 및 각각의 타이틀을 지정하는 인덱스 테이블(140)을 포함한다. Referring to FIG. 1, it can be seen that a storage medium according to the present invention has four layer structures for managing a multimedia video stream. Each layer is composed of clips 100 and 110, which are recording units of a multimedia image, a playlist 120, which is a playback unit of a multimedia image, a movie object 130 including navigation instructions for playing a multimedia image, and a movie to be reproduced first. An index table 140 specifying the objects and respective titles is included.
클립(100 및 110)은, 고화질 영화를 위한 AV 데이터 스트림과 해당 AV 데이터 스트림의 속성을 하나의 오브젝트로 구현한 것이다. AV 데이터 스트림을 클립 AV 스트림(100)이라 부르고, AV 데이터 스트림의 속성 정보를 클립 인포메이션(110)이라고 부른다. 플레이리스트(120)는, 전술한 클립들의 재생 구간의 집합으로 각 재생 구간을 플레이아이템(122)이라고 한다. 무비 오브젝트(130)는, 네비게이션 명령어 프로그램들로 이루어져 있으며, 이러한 네비게이션 명령어들은 플레이리스트의 재생을 시작하거나 무비 오브젝트 간의 전환이나 혹은 사용자의 선호에 따라 플레이리스트의 재생을 관리한다. 인덱스 테이블(140)은, 복수의 타이틀과 메뉴를 정의하기 위한 최상위 계층의 테이블로서, 모든 타이틀들과 메뉴의 시작 위치 정보를 포함하고 있어서, 타이틀 검색이나 메뉴 콜과 같은 사용자 입력(User Operation)을 통해 선택된 타이틀이나 메뉴를 재생할 수 있다. 또한 저장 매체가 재생장치에 삽입되었을 때, 자동 실행되는 최초 재생될 타이틀이나 메뉴의 시작 위치 정보도 포함한다. The clips 100 and 110 implement the AV data stream for the high definition movie and the attributes of the AV data stream as one object. The AV data stream is called a clip AV stream 100 and the attribute information of the AV data stream is called a clip information 110. The playlist 120 is a set of playback sections of the above-described clips, and each playback section is called a playitem 122. The movie object 130 is composed of navigation command programs, which initiate playback of playlists, switch between movie objects, or manage playback of playlists according to user preferences. The index table 140 is a top-level table for defining a plurality of titles and menus. The index table 140 includes information on starting positions of all titles and menus, and performs user input such as title search or menu call. You can play the selected title or menu. It also includes information on the start position of the title or menu to be automatically reproduced first when the storage medium is inserted into the playback apparatus.
이 중, 멀티미디어 영상이 압축 부호화된 클립 AV 스트림(100)의 구조를 살펴보면 다음과 같다. 도 2는 도 1에 도시된 클립 동영상 스트림(100)의 구조와 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 나타내는 도면이다.Among them, the structure of the clip AV stream 100 in which the multimedia image is compressed and encoded is as follows. FIG. 2 is a diagram illustrating a structure of a clip video stream 100 shown in FIG. 1 and a text-based subtitle stream according to the present invention.
도 2를 참조하면, 전술한 바와 같은 비트맵 기반의 자막 데이터의 문제점을 해결하기 위하여 본 발명에 따른 텍스트 기반의 서브타이틀(220)이 제공된다. 본 발명에 따른 저장 매체에는 비디오 스트림(202), 오디오 스트림(204), 프리젠테이션 그래픽 스트림(206), 및 인터랙티브 그래픽 스트림(208)이 다중화된 AV 데이터 스트림(210)이 포함된다. 또한, AV 데이터 스트림과는 별도로 분리된 텍스트 기반의 서브타이틀(220) 데이터도 포함된다. Referring to FIG. 2, a text-based subtitle 220 according to the present invention is provided to solve the problem of the bitmap-based subtitle data as described above. Storage media according to the present invention include an AV data stream 210 in which a video stream 202, an audio stream 204, a presentation graphics stream 206, and an interactive graphics stream 208 are multiplexed. Also included is text-based subtitle 220 data separate from the AV data stream.
본 발명에 따른 텍스트 기반의 서브타이틀(220) 데이터는 XML(eXtended Markup Language)와 같은 마크업 언어를 이용하여 구현할 수도 있으나, 본 발명에서는 이진(binary)데이터를 이용하여 멀티미디어 영상의 자막을 제공하는 경우를 주로 살펴본다. 이하에서는 이진 데이터를 이용하여 멀티미디어 영상의 자막을 제공하는 텍스트 기반의 서브타이틀 데이터를 "텍스트 기반의 서브타이틀 스트림"이라 약칭한다.The text-based subtitle 220 data according to the present invention may be implemented using a markup language such as XML (eXtended Markup Language), but in the present invention, a subtitle of a multimedia image is provided using binary data. Mainly look at the case. Hereinafter, text-based subtitle data providing subtitles of a multimedia image using binary data will be referred to as "text-based subtitle stream."
텍스트 기반의 서브타이틀 스트림은 비트맵 그래픽 이미지로 변환되어 멀티미디어 영상 위에 오버레이되어 출력된다. 이와 같이 텍스트 기반의 데이터를 그래픽 기반의 비트맵 이미지로 변환하는 과정을 랜더링(rendering)이라 한다. 텍스트 기반 서브타이틀 스트림에는 자막 텍스트를 랜더링하기 위해 필요한 정보가 포함된다. The text-based subtitle stream is converted into a bitmap graphic image and overlaid on the multimedia image. This process of converting text-based data into graphic-based bitmap images is called rendering. The text-based subtitle stream contains information necessary for rendering the subtitle text.
이하에서는 랜더링 정보가 포함된 텍스트 기반의 서브타이틀 스트림(220)의 구조를 상세히 살펴본다. 도 3은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)의 데이터 구조를 설명하기 위한 도면이다.Hereinafter, the structure of the text-based subtitle stream 220 including the rendering information will be described in detail. 3 is a diagram illustrating a data structure of a text-based subtitle stream 220 according to the present invention.
도 3을 참조하면, 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)은 대사 스타일 단위(Dialog Style Unit: 이하 DSU라 약칭함)(310)와 복수의 대사 프리젠테이션 단위(Dialog Presentation Unit: 이하 DPU라 약칭함)(320 내지 340)를 포함한다. 대사 스타일 단위(DSU)나 대사 프리젠테이션 단위(DPU)를 대사 단위(Dialog Unit)이라고도 한다. 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)을 구성하는 대사 단위들은 패킷화된 요소 스트림(Packetized Elementary Stream: 이하 PES라 약칭함)의 형태로 기록된다. 또한, 텍스트 기반의 서브타이틀 스트림의 PES들은 전송 패킷(transport packet: 이하 TP라 약칭함)단위로 기록되고 전송된다. 이러한 전송 패킷들의 연속을 전송 스트림(transport stream: 이하 TS라 약칭함)이라 한다.Referring to FIG. 3, the text-based subtitle stream 220 according to the present invention includes a dialogue style unit (hereinafter, abbreviated as DSU) 310 and a plurality of dialogue presentation units. Abbreviated as DPU) (320 to 340). The dialogue style unit (DSU) or dialogue presentation unit (DPU) is also called a dialogue unit. Metabolic units constituting the text-based subtitle stream 220 according to the present invention are recorded in the form of a packetized elementary stream (hereinafter, abbreviated as PES). In addition, PESs of a text-based subtitle stream are recorded and transmitted in units of a transport packet (hereinafter, abbreviated as TP). Such a series of transport packets is called a transport stream (hereinafter referred to as TS).
그러나, 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)은 도 2에 도시한 바와 같이, AV 데이터 스트림(210)과 함께 다중화 되지 않고 별도의 전송 스트림(TS)으로 기록된다. However, the text-based subtitle stream 220 according to the present invention is not multiplexed with the AV data stream 210 as shown in FIG. 2 and is recorded as a separate transport stream TS.
다시 도 3을 참조하면, 텍스트 기반의 서브타이틀 스트림(220)에 포함된 하나의 PES 패킷은 하나의 대사 단위를 기록한다. 텍스트 기반의 서브타이틀 스트림(220)은 맨 처음에 위치한 하나의 대사 스타일 단위(DSU)와 이후에 위치한 복수의 대사 프리젠테이션 단위(DPU)를 포함한다. 대사 스타일 단위(DSU)는 멀티미디어 영상이 재생되는 화면 위에 표시되는 자막에서 대사의 출력 스타일을 지정하는 정보를 포함한다. 한편, 복수의 대사 프리젠테이션 단위(DPU)들은 출력될 대사 내용에 대한 텍스트 정보들과 각각의 출력 시간에 대한 정보들을 포함한다.Referring to FIG. 3 again, one PES packet included in the text-based subtitle stream 220 records one metabolic unit. The text-based subtitle stream 220 includes one dialogue style unit (DSU) located first and a plurality of dialogue presentation units (DPUs) located thereafter. The dialogue style unit (DSU) includes information for specifying an output style of dialogue in a caption displayed on a screen on which a multimedia image is played. On the other hand, the plurality of dialogue presentation units (DPU) includes text information on the dialogue content to be output and information on each output time.
도 4는 도 3에 도시된 데이터 구조를 갖는 텍스트 기반의 서브타이틀 스트림(220)을 구현한 일 실시예를 나타내는 도면이다.4 is a diagram illustrating an embodiment of implementing a text-based subtitle stream 220 having the data structure shown in FIG. 3.
도 4를 참조하면, 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)은 하나의 대사 스타일 단위(DSU)(410)와 복수개의 대사 프리젠테이션 단위(DPU)(420)를 포함한다. 본 실시예에서는 대사 프리젠테이션 단위(DPU)의 개수를 num_of_dialog_presentation_units로 정의하고 있다. 그러나, 대사 프리젠테이션 단위(DPU)의 개수를 별도로 지정하지 않을 수도 있다. 예를 들면, while(processed_length < end_of_file)과 같은 구문을 사용하는 경우가 그 예이다.Referring to FIG. 4, the text-based subtitle stream 220 according to the present invention includes one metabolic style unit (DSU) 410 and a plurality of metabolic presentation units (DPU) 420. In this embodiment, the number of metabolic presentation units (DPUs) is defined as num_of_dialog_presentation_units. However, the number of metabolic presentation units (DPUs) may not be specified separately. For example, if you use a syntax such as while (processed_length <end_of_file).
이하에서는 대사 스타일 단위(DSU)와 대사 프리젠테이션 단위(DPU)의 보다 구체적인 데이터 구조를 살펴본다. 도 5는 도 3에 도시된 대사 스타일 단위(DSU)(310)를 구현한 일 실시예를 나타내는 도면이다.Hereinafter, a more detailed data structure of the dialogue style unit (DSU) and the dialogue presentation unit (DPU) will be described. FIG. 5 is a diagram illustrating an embodiment of implementing the metabolic style unit (DSU) 310 illustrated in FIG. 3.
도 5를 참조하면, 자막으로 출력되는 대사의 출력 스타일 정보를 모아놓은 대사 스타일 정보들의 집합인 dialog_styleset()(510)이 정의되어 있다. 대사 스타일 단위(DSU)는 자막에 대사가 표시되는 영역(region)의 위치에 대한 정보와, 대사의 랜더링에 필요한 정보와, 사용자가 제어할 수 있는 스타일에 대한 정보 등을 포함한다. 구체적인 데이터의 내용은 후술한다.Referring to FIG. 5, dialog_styleset () 510, which is a set of dialogue style information that collects output style information of dialogue lines that are output as subtitles, is defined. The dialogue style unit (DSU) includes information on the location of a region where dialogue is displayed in the caption, information necessary for rendering the dialogue, information on a style that can be controlled by the user, and the like. The content of specific data is mentioned later.
도 6은 본 발명의 일 실시예로서 대사 스타일 단위(DSU)의 데이터 구조의 일 예를 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining an example of a data structure of a metabolic style unit (DSU) as an embodiment of the present invention.
도 6을 참조하면, 대사 스타일 단위(DSU)(310)는 파레트 모음(610)과 영역 스타일 모음(620)을 포함한다. 파레트 모음(610)은 자막에 사용될 색상을 정의한 복수의 색상 파레트의 집합이다. 파레트 모음에 포함된 색상의 조합 또는 투명도 등의 색상 정보는 대사 스타일 단위(DSU) 이후에 위치하는 복수의 대사 프리젠테이션 단위(DPU)에 모두 적용할 수 있다.Referring to FIG. 6, the dialogue style unit (DSU) 310 includes a palette collection 610 and an area style collection 620. The palette collection 610 is a collection of a plurality of color palettes defining colors to be used for the subtitles. Color information such as color combination or transparency included in the palette collection may be applied to all the plurality of metabolic presentation units (DPUs) located after the metabolic style unit (DSU).
영역 스타일 모음(620)은 자막을 구성하는 각 대사들의 출력 스타일 정보들의 집합이다. 각 영역 스타일은, 대사가 표시될 위치를 나타내는 영역 정보(622)와 각 대사의 텍스트에 적용될 출력 스타일을 나타내는 텍스트 스타일 정보(624)를 포함한다. 또한, 사용자가 임의로 변경할 수 있는 스타일을 나타내는 사용자 변경 가능한 스타일 모음(626)을 더 포함할 수도 있다.The area style set 620 is a set of output style information of each dialogue constituting the subtitle. Each region style includes region information 622 indicating where the dialogue is to be displayed and text style information 624 indicating the output style to be applied to the text of each dialogue. In addition, the user may further include a user changeable style set 626 indicating a style that can be changed by the user.
도 7은 본 발명의 다른 실시예로서 대사 스타일 단위(DSU)의 데이터 구조의 일 예를 설명하기 위한 도면이다.7 is a diagram for explaining an example of a data structure of a metabolic style unit (DSU) according to another embodiment of the present invention.
도 7을 참조하면, 도 6과는 달리 파레트 모음(610)이 포함되지 않는 경우를 나타낸다. 즉, 대사 스타일 단위(DSU)에 색상 파레트 모음을 정의하지 않고, 후술할 대사 프리젠테이션 단위(DPU)에 파레트 모음(610)을 정의하는 경우이다(도 12a 및 도 12b 참조). 각 영역 스타일(710)의 데이터 구조는 도 6에서 상술한 바와 동일하다.Referring to FIG. 7, unlike the case of FIG. 6, the pallet collection 610 is not included. That is, the case where the palette collection 610 is defined in the dialogue presentation unit DPU to be described later without defining the palette palette in the dialogue style unit DSU (see FIGS. 12A and 12B). The data structure of each region style 710 is the same as described above in FIG.
도 8은 도 6 또는 도 7에 도시된 대사 스타일 단위(DSU)를 구현한 일 실시예를 나타낸 도면이다.FIG. 8 is a diagram illustrating an embodiment of implementing the metabolic style unit (DSU) illustrated in FIG. 6 or 7.
도 8 및 도 6을 참조하면, 본 발명에 따른 대사 스타일 단위(DSU)에는 파레트 모음(860)(610)과 복수의 영역 스타일(820)(620)이 포함된다. 전술한 바와 같이 파레트 모음(610)은 자막에 사용될 색상을 정의한 복수의 색상 파레트의 집합이다. 파레트 모음에 포함된 색상의 조합 또는 투명도 등의 색상 정보는 대사 스타일 단위(DSU) 이후에 위치하는 복수의 대사 프리젠테이션 단위(DPU)에 모두 적용할 수 있다. 8 and 6, the metabolic style unit (DSU) according to the present invention includes a palette collection 860, 610 and a plurality of region styles 820, 620. As described above, the palette collection 610 is a collection of a plurality of color palettes defining colors to be used for subtitles. Color information such as color combination or transparency included in the palette collection may be applied to all the plurality of metabolic presentation units (DPUs) located after the metabolic style unit (DSU).
한편, 각 영역 스타일(820)(620)은 자막이 출력될 윈도우 영역에 대한 정보를 나타내는 영역 정보(830)(622)를 포함하며, 영역 정보는 자막이 표시될 윈도우 영역의 X 좌표, Y 좌표, 너비, 높이, 및 배경색상 등의 정보를 포함한다. Meanwhile, each region style 820 and 620 includes region information 830 and 622 representing information about a window region in which subtitles are to be output, and the region information includes X coordinates and Y coordinates of the window region in which the subtitles are to be displayed. , Width, height, and background color.
또한, 각 영역 스타일(820)(620)은 각 대사의 텍스트에 적용될 출력 스타일을 나타내는 텍스트 스타일 정보(840)(624)를 포함한다. 즉, 전술한 윈도우 영역 내에서 대사의 텍스트가 출력될 위치의 X 좌표 및 Y 좌표, 좌에서 우로, 위에서 아래로와 같은 텍스트의 출력 방향, 정렬, 줄 간격, 참조할 폰트의 식별자, 볼드체 또는 이탤릭체와 같은 폰트 스타일, 폰트의 크기, 폰트의 색상 등에 대한 정보가 포함될 수 있다. In addition, each region style 820, 620 includes text style information 840, 624 indicating an output style to be applied to the text of each dialogue. That is, the X and Y coordinates of the position where the text of the dialogue is to be output in the aforementioned window area, the output direction of the text such as left to right, top to bottom, alignment, line spacing, identifier of the font to be referred to, bold or italic Information about the font style, font size, font color, etc. may be included.
나아가, 각 영역 스타일(820)(620)은 사용자가 임의로 변경할 수 있는 스타일을 나타내는 사용자 변경 가능한 스타일 모음(850)(626)을 포함할 수도 있다. 사용자 변경 가능한 스타일 모음(850)(626)의 포함여부는 선택적이다. 사용자 변경 가능한 스타일 모음(850)(626)은 기본적으로 각 대사의 텍스트에 적용될 텍스트 출력 스타일 정보(840)(624) 중 윈도우 영역의 위치와 텍스트의 출력 위치, 폰트의 크기 및 줄 간격에 대한 변경 정보가 포함될 수 있다. 각 변경 정보는 기본적으로 각 대사의 텍스트에 적용될 출력 스타일에 대한 정보(840)(624)에 대한 상대적인 증감값으로 표현될 수 있다. Furthermore, each region style 820, 620 may include a user modifiable style set 850, 626 that represents a style that the user can arbitrarily change. Inclusion of user modifiable style sets 850 and 626 is optional. User-definable style sets 850 and 626 change the position of the window area and the output position of the text, font size and line spacing among the text output style information 840 and 624 to be applied to the text of each dialogue by default. Information may be included. Each change information may be basically expressed as a relative increase / decrease value for information 840 and 624 about an output style to be applied to the text of each dialogue.
정리하면, 스타일 관련 정보는 영역 스타일(820)(620)에 정의된 스타일 정보(region_style)(620), 후술하는 자막의 일부분을 강조하기 위한 인라인 스타일 정보(inline_style)(1510), 및 사용자가 변경할 수 있는 스타일 정보(use_changable_style)(850)의 세 가지 종류가 있으며, 이들을 적용하는 순서는 다음과 같다.In summary, the style related information includes the style information (region_style) 620 defined in the region styles 820 and 620, the inline style information 1510 for emphasizing a part of a subtitle to be described later, and the user's change. There are three kinds of style information (use_changable_style) 850, and the order of applying them is as follows.
1) 가장 기본적으로는 영역 스타일에 정의된 영역 스타일 정보(620)가 적용된다.1) Mostly, region style information 620 defined in region style is applied.
2) 만약 인라인 스타일 정보가 있으면, 영역 스타일 정보가 적용된 부분에 겹쳐서 일부분을 강조한 인라인 스타일 정보(1510)가 적용된다. 2) If there is inline style information, the inline style information 1510 that emphasizes the portion overlapped with the region style information is applied is applied.
3) 만약, 사용자가 변경할 수 있는 스타일 정보(850)가 있는 경우에는 이 정보를 가장 최종적으로 적용한다. 사용자 변경 가능한 스타일 정보의 존재는 선택적이다.3) If there is style information 850 that can be changed by the user, this information is finally applied. The presence of user modifiable style information is optional.
한편, 각 대사의 텍스트에 적용될 텍스트 스타일 정보(840)(624) 중에서 폰트의 식별자(font_id)(842)가 참조할 폰트 정보 파일은 다음과 같이 정의될 수 있다.Meanwhile, among the text style information 840 and 624 to be applied to the text of each dialogue, a font information file to be referred to by the font identifier (font_id) 842 may be defined as follows.
도 9a는 본 발명의 일 실시예로서, 도 8의 폰트 정보(842)가 참조하는 복수의 폰트 모음을 포함하는 클립 인포메이션 파일을 나타낸 도면이다.FIG. 9A illustrates a clip information file including a plurality of font collections referred to by the font information 842 of FIG. 8 as an embodiment of the present invention.
도 9a, 도 8 및 도 1을 참조하면, 클립 인포메이션(910)(110) 파일에 포함되는 스트림 코딩 인포메이션 구조체인 StreamCodingInfo()(930)에는 본 발명에 따른 저장 매체에 기록된 각종 스트림에 대한 정보가 포함되어 있다. 즉, 비디오 스트림, 오디오 스트림, 프리젠테이션 그래픽 스트림, 인터랙티브 그래픽 스트림, 및 텍스트 기반의 서브타이틀 스트림 등에 대한 정보가 포함된다. 특히, 텍스트 기반의 서브타이틀 스트림에 대하여는, 자막을 표시하는 언어에 대한 정보(textST_language_code)(932)가 포함될 수 있다. 또한, 도 8에 도시된 참조될 폰트의 식별자를 나타내는 font_id(842)(934)에 대응하는 폰트의 이름(936)과, 폰트 정보가 저장된 파일의 이름(938) 등이 정의될 수 있다. 여기에서 정의된 참조될 폰트의 식별자에 대응하는 폰트 파일을 찾는 방법은 도 10에서 후술한다.9A, 8, and 1, the stream coding information structure StreamCodingInfo () 930 included in the clip information 910 and 110 files includes information on various streams recorded in a storage medium according to the present invention. Is included. That is, information about a video stream, an audio stream, a presentation graphics stream, an interactive graphics stream, a text-based subtitle stream, and the like are included. In particular, the text-based subtitle stream may include information (textST_language_code) 932 about a language for displaying a subtitle. In addition, a name 936 of a font corresponding to font_id 842 and 934 representing an identifier of a font to be referred to in FIG. 8, a name 938 of a file in which font information is stored, and the like may be defined. A method of finding a font file corresponding to an identifier of a font to be referred to herein will be described later with reference to FIG. 10.
도 9b는 본 발명의 다른 실시예로서, 도 8의 폰트 정보(842)가 참조하는 복수의 폰트 모음을 포함하는 클립 인포메이션 파일을 나타낸 도면이다.FIG. 9B is a diagram illustrating another clip information file including a plurality of font collections referred to by the font information 842 of FIG. 8.
도 9b를 참조하면, 클립 인포메이션(910)(110) 파일 내에 ClipInfo()라는 구조체를 정의할 수 있다. 이 구조체에 도 8의 폰트 정보(842)가 참조하는 복수의 폰트 모음을 정의할 수 있다. 즉, 도 8에 도시된 참조될 폰트의 식별자를 나타내는 font_id(842)에 대응하는 폰트 파일의 이름(952)이 지정된다. 여기에서 정의된 참조될 폰트의 식별자에 대응하는 폰트 파일을 찾는 방법은 다음과 같다. Referring to FIG. 9B, a structure called ClipInfo () may be defined in a clip information 910 and 110 file. In this structure, a plurality of font collections referred to by the font information 842 of FIG. 8 can be defined. That is, the name 952 of the font file corresponding to font_id 842 indicating the identifier of the font to be referred to shown in FIG. 8 is designated. A method of finding a font file corresponding to an identifier of a font to be referred to herein is as follows.
도 10은 도 9a 및 도 9b에서 폰트 파일의 이름(938 또는 952)이 참조하는 복수의 폰트 파일의 위치를 나타내기 위한 도면이다.FIG. 10 is a diagram illustrating positions of a plurality of font files referred to by names 938 or 952 of font files in FIGS. 9A and 9B.
도 10을 참조하면, 본 발명에 따른 저장 매체에 기록된 멀티미디어 영상에 관련될 파일들의 디렉토리 구조가 도시된다. 특히, 도시된 디렉토리 구조를 이용하면, 보조 데이터(AUXDATA) 디렉토리에 저장된 11111.font 또는 99999.font(1010 또는 1020)와 같은 폰트 파일의 위치를 쉽게 찾을 수 있다.Referring to FIG. 10, a directory structure of files related to a multimedia image recorded on a storage medium according to the present invention is shown. In particular, using the illustrated directory structure, it is easy to find the location of a font file such as 11111.font or 99999.font 1010 or 1020 stored in the AUXDATA directory.
한편, 이하에서는 대사 단위를 구성하는 대사 프리젠테이션 단위(DPU)의 구조에 대해 상세히 살펴본다. Meanwhile, the structure of the metabolic presentation unit (DPU) constituting the metabolic unit will be described in detail below.
도 11은 도 3에 도시된 대사 프리젠테이션 단위(DPU)(320)의 데이터 구조의 일 실시예를 설명하기 위한 도면이다.FIG. 11 is a diagram for describing an embodiment of a data structure of the metabolic presentation unit (DPU) 320 illustrated in FIG. 3.
도 11 및 도 3을 참조하면, 출력될 대사 내용에 대한 텍스트 정보와 출력 시간에 대한 정보를 포함하는 대사 프리젠테이션 단위(DPU)(320)는, 대사가 출력될 시간을 나타내는 시간 정보(1110), 참조될 색상 파레트를 지정하는 파레트 참조 정보(1120), 및 출력될 대사 영역 정보(1130)가 포함된다. 특히, 출력될 대사 영역 정보(1130)는 대사에 적용될 출력 스타일을 지정하는 스타일 참조 정보(1132)와 실제 출력될 대사의 텍스트를 나타내는 대사 텍스트 정보(1134)를 포함한다. 이 경우 파레트 참조 정보(1120)에 의해 지시되는 색상 파레트 모음은 대사 스타일 단위(DSU)에서 정의된 것으로 가정한다(도 6의 610 참조).Referring to FIGS. 11 and 3, a dialogue presentation unit (DPU) 320 including text information on output of dialogue content and information on output time may include time information 1110 indicating a time at which dialogue is output. , Palette reference information 1120 for specifying a color palette to be referred to, and metabolic region information 1130 to be outputted. In particular, the dialogue area information 1130 to be output includes style reference information 1132 for specifying an output style to be applied to the dialogue and dialogue text information 1134 indicating text of the dialogue to be actually output. In this case, it is assumed that the color palette collection indicated by the palette reference information 1120 is defined in the metabolic style unit DSU (see 610 of FIG. 6).
한편, 도 12a는 도 3에 도시된 대사 프리젠테이션 단위(DPU)(320)의 데이터 구조의 다른 실시예를 설명하기 위한 도면이다. 12A is a diagram for explaining another embodiment of the data structure of the metabolic presentation unit (DPU) 320 shown in FIG. 3.
도 12a 및 도 3을 참조하면, 대사 프리젠테이션 단위(DPU)(320)는, 대사가 출력될 시간을 나타내는 시간 정보(1210), 색상 파레트 모음을 정의하는 파레트 모음(1220), 및 출력될 대사 영역 정보(1230)가 포함된다. 이 경우는 파레트 모음(1220)이 도 11과 같이 대사 스타일 단위(DSU)에 정의되지 않고, 직접 대사 프리젠테이션 단위(DPU)에 정의된 경우를 나타낸다.12A and 3, the dialogue presentation unit (DPU) 320 includes time information 1210 indicating a time at which a dialogue is to be output, a palette collection 1220 defining a palette of color palettes, and a dialogue to be output. Area information 1230 is included. In this case, the palette collection 1220 is not defined in the metabolic style unit DSU as shown in FIG. 11, but is defined directly in the metabolic presentation unit DPU.
또 한편, 도 12b는 도 3에 도시된 대사 프리젠테이션 단위(DPU)(320)의 데이터 구조의 또 다른 실시예를 설명하기 위한 도면이다.12B is a diagram for explaining another embodiment of the data structure of the metabolic presentation unit (DPU) 320 shown in FIG. 3.
도 12b를 참조하면, 대사 프리젠테이션 단위(DPU)(320)는, 대사가 출력될 시간을 나타내는 시간 정보(1250), 색상 업데이트 플래그(1260), 색상 업데이트 플래그가 1로 설정된 경우에 사용될 색상 파레트 모음(1270), 및 출력될 대사 영역 정보(1280)가 포함된다. 이 경우는 파레트 모음(1270)이 도 11과 같이 대사 스타일 단위(DSU)에도 정의되며, 직접 대사 프리젠테이션 단위(DPU)에도 저장된 경우를 나타낸다. 특히, 연속 재생을 이용하는 페이드-인/아웃과 같은 효과를 나타내기 위하여, 대사 스타일 단위(DSU)에 정의된 기본 파레트 모음 외에 페이드 인/아웃을 표현하기 위해 사용될 색상 파레트 모음을 이와 같이 대사 프리젠테이션 단위(DPU)에 정의하고, 색상 업데이트 플래그(1260)를 1로 설정할 수 있다. 이에 대한 구체적인 설명은 이하 도 19에서 상술한다.Referring to FIG. 12B, the dialogue presentation unit (DPU) 320 may include a color palette to be used when time information 1250, a color update flag 1260, and a color update flag are set to 1 to indicate when a dialogue is output. The vowel 1270 and the metabolic region information 1280 to be output are included. In this case, the palette collection 1270 is defined in the dialogue style unit DSU as shown in FIG. 11 and is also stored in the dialogue line presentation unit DPU. In particular, in order to produce an effect such as fade-in / out using continuous playback, a collection of color palettes to be used to express fade in / out, in addition to the default palette set defined in the dialogue style unit (DSU), is thus presented. It is defined in the unit (DPU), and the color update flag 1260 can be set to one. A detailed description thereof will be given below with reference to FIG. 19.
도 13은 도 11 내지 도 12b에 도시된 대사 프리젠테이션 단위(DPU)(320)를 구현한 일 실시예를 나타낸 도면이다.FIG. 13 is a diagram illustrating an embodiment of implementing the metabolic presentation unit (DPU) 320 illustrated in FIGS. 11 to 12B.
도 13, 도 11, 도 12a, 및 도 12b를 참조하면, 대사 프리젠테이션 단위(DPU)에는, 대사가 출력될 시간을 나타내는 시간 정보(1110)로서 대사 시작 시간 정보(dialog_start_PTS)와 대사 종료 시간 정보(dialog_end_PTS)(1310)가 포함된다. 또한, 파레트 참조 정보(1120)로서 대사 파레트 식별자(1320)(dialog_palette_id)가 포함된다. 도 12a의 경우에는 파레트 참조 정보 대신 색상 파레트 모음(1220)이 대신 포함될 수 있다. 출력될 대사 영역 정보(1230)로는 대사 텍스트 정보(region_subtitle)(1334)가 포함되며, 여기에 적용될 출력 스타일을 지정하기 위하여 영역 스타일 식별자(region_style_id)(1332)가 포함될 수 있다. 도 13에 도시된 예는 대사 프리젠테이션 단위(DPU)의 일 실시예일 뿐, 이밖에도 도 11 내지 도 12b의 데이터 구조를 갖는 대사 프리젠테이션 단위(DPU)를 다양하게 변형하여 구현할 수 있다.13, 11, 12A, and 12B, the metabolic presentation unit (DPU) includes metabolic start time information (dialog_start_PTS) and metabolic end time information as time information 1110 indicating a time at which metabolism is output. (dialog_end_PTS) 1310 is included. Also included as the palette reference information 1120 is a metabolic palette identifier 1320 (dialog_palette_id). In the case of FIG. 12A, the color palette collection 1220 may be included instead of the pallet reference information. The dialogue region information 1230 to be output includes dialogue text information (region_subtitle) 1334, and may include a region style identifier (region_style_id) 1332 to specify an output style to be applied thereto. The example illustrated in FIG. 13 is only one embodiment of the metabolic presentation unit (DPU). In addition, the metabolic presentation unit (DPU) having the data structure of FIGS. 11 to 12B may be variously modified.
도 14는 도 13에 도시된 대사 텍스트 정보(region_subtitle)(1334)의 데이터 구조를 설명하기 위한 도면이다. 도 14를 참조하면, 대사 텍스트 정보는 대사의 일부분을 강조하기 위한 출력 스타일로서 인라인 스타일 정보(1410)와 대사 텍스트(1420)를 포함한다.FIG. 14 is a diagram for explaining the data structure of the dialogue text information (region_subtitle) 1334 shown in FIG. Referring to FIG. 14, the dialogue text information includes inline style information 1410 and dialogue text 1420 as an output style for emphasizing a portion of the dialogue.
도 15는 도 13의 대사 텍스트 정보(1334)를 구현한 일 실시예를 나타낸 도면이다. 도 15에는, 인라인 스타일 정보(inline_style)(1510)와 대사 텍스트(text_string)(1520)가 구현된 예가 도시되어 있다. 또한, 도시된 실시예에는 인라인 스타일의 종료를 알리는 정보가 더 포함되는 것이 바람직하다. 인라인 스타일의 종료부분을 정의하지 않으면, 한번 지정된 인라인 스타일이 제작자의 의도와는 달리 이후에 계속 적용될 수 있기 때문이다. FIG. 15 is a diagram illustrating an embodiment of implementing the metabolic text information 1334 of FIG. 13. 15 shows an example in which inline style information (inline_style) 1510 and dialogue text (text_string) 1520 are implemented. In addition, it is preferable that the illustrated embodiment further includes information indicating the end of the inline style. If you don't define the end of an inline style, the once specified inline style can still be applied later, contrary to the author's intention.
한편, 도 16은 연속적인 대사 프리젠테이션 단위(DPU)를 연속적으로 재생하기 위한 제한 사항을 설명하기 위한 도면이다. Meanwhile, FIG. 16 is a diagram for explaining limitations for continuously playing back a continuous dialogue presentation unit (DPU).
도 16 및 도 13을 참조하면, 전술한 복수의 대사 프리젠테이션 단위(DPU)가 연속적으로 재생되어야 하는 경우에는 다음과 같은 제한 조건이 필요하다.16 and 13, the following limitation condition is required when the plurality of metabolic presentation units (DPUs) described above are to be reproduced continuously.
1) 대사 프리젠테이션 단위(DPU)에 정의된 대사 시작 시간 정보(dialog_start_PTS)(1310)는 대사 오브젝트가 후술하는 그래픽 평면에 출력되기 시작하는 시간을 나타낸다.1) The dialogue start time information (dialog_start_PTS) 1310 defined in the dialogue presentation unit (DPU) indicates a time at which a dialogue object starts to be output on a graphic plane which will be described later.
2) 대사 프리젠테이션 단위(DPU)에 정의된 대사 종료 시간 정보(dialog_end_PTS)(1310)는 후술하는 텍스트 기반의 서브타이틀을 처리하는 디코더를 리셋시키는 시간을 나타낸다.2) The dialogue end time information (dialog_end_PTS) 1310 defined in the dialogue presentation unit (DPU) indicates a time for resetting a decoder for processing a text-based subtitle described later.
3) 복수개의 전술한 대사 프리젠테이션 단위(DPU)가 연속적으로 재생되어야 하는 경우에는 현재의 DPU의 대사 종료 시간 정보(dialog_end_PTS)가 다음에 연속적으로 재생되어야 할 DPU의 대사 시작 시간 정보(dialog_start_PTS)와 동일해야 한다. 즉, 그림에서 DPU #2와 DPU #3이 연속 재생되기 위해서는 DPU #2에 포함된 대사 종료시간 정보가 DPU #3에 포함된 대사 시작시간 정보와 동일해야 한다.3) When a plurality of aforementioned dialogue presentation units (DPUs) are to be reproduced continuously, dialogue end time information (dialog_end_PTS) of the current DPU and dialogue start time information (dialog_start_PTS) of the DPU to be continuously reproduced next; Should be the same. That is, in order to reproduce DPU # 2 and DPU # 3 continuously, the dialogue end time information included in DPU # 2 must be the same as the dialogue start time information included in DPU # 3.
한편, 본 발명에 따른 대사 스타일 단위(DSU)는 다음과 같은 제한 조건을 만족하는 것이 바람직하다.On the other hand, the metabolic style unit (DSU) according to the present invention preferably satisfies the following constraints.
1) 텍스트 기반의 서브타이틀 스트림(220)에는 하나의 대사 스타일 단위(DSU)가 포함된다.1) The text-based subtitle stream 220 includes one dialogue style unit (DSU).
2) 모든 영역 스타일(region_style)에 포함되는 사용자가 변경할 수 있는 스타일 정보(user_control_style)의 수는 동일해야 한다.2) The number of style information (user_control_style) that can be changed by a user included in all region styles (region_style) should be the same.
한편, 본 발명에 따른 대사 프리젠테이션 단위(DPU)는 다음과 같은 제한 조건을 만족하는 것이 바람직하다.Meanwhile, the metabolic presentation unit (DPU) according to the present invention preferably satisfies the following constraints.
1) 최대한 2개의 자막을 위한 윈도우 영역이 정의되어야 한다. 1) A window area for at most two subtitles should be defined.
이하에서는 상술한 본 발명에 따른 저장 매체에 기록되는 텍스트 기반의 서브타이틀 스트림의 데이터 구조에 기초하여 본 발명에 따른 재생 장치의 구조를 살펴본다.Hereinafter, the structure of the reproduction apparatus according to the present invention will be described based on the data structure of the text-based subtitle stream recorded on the storage medium according to the present invention.
도 17은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하기 위한 재생 장치의 구조를 설명하는 도면이다.17 is a view for explaining the structure of a playback apparatus for playing a text-based subtitle stream according to the present invention.
도 17을 참조하면, 본 발명에 따른 재생 장치는, 버퍼부(1710 및 1712), 서브타이틀 디코더(1730)를 구비한다. 또한, 그래픽 평면(1750) 및 색상 참조 테이블(1760)을 구비할 수 있다.Referring to FIG. 17, the playback apparatus according to the present invention includes buffer units 1710 and 1712, and a subtitle decoder 1730. It may also have a graphics plane 1750 and a color reference table 1760.
버퍼부는, 텍스트 기반의 서브타이틀 스트림(220)이 프리로딩될 서브타이틀 프리로딩 버퍼(SPB)(1710)와 폰트 정보가 프리로딩될 폰트 프리로딩 버퍼(FPB)(1712)를 포함한다.The buffer unit includes a subtitle preloading buffer (SPB) 1710 to which the text-based subtitle stream 220 is to be preloaded, and a font preloading buffer (FPB) 1712 to which font information is to be preloaded.
서브타이틀 디코더는, 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 디코딩하며, 텍스트 서브타이틀 처리기(1732), 대사 구성 버퍼(DCB)(1734), 대사 버퍼(DB)(1736), 텍스트 서브타이틀 랜더러(1738), 대사 프리젠테이션 제어기(1740), 및 비트맵 오브젝트 버퍼(BOB)(1742)를 포함한다. The subtitle decoder decodes a text-based subtitle stream according to the present invention, and includes a text subtitle processor 1732, a dialogue composition buffer (DCB) 1734, a dialogue buffer (DB) 1736, a text subtitle renderer. (1738), a metabolic presentation controller 1740, and a bitmap object buffer (BOB) 1742.
텍스트 서브타이틀 처리기(1732)는, 텍스트 서브타이틀 프리로딩 버퍼(FPB)로부터 텍스트 기반의 서브타이틀 스트림을 전달받아, 전술한 대사 스타일 단위(DSU)에 포함된 스타일 관련 정보와 대사 프리젠테이션 단위(DPU)에 포함된 대사의 출력 시간 정보를 대사 구성 버퍼(DCB)로 전달하고, 대사 프리젠테이션 단위(DPU)에 포함된 대사 텍스트 정보는 대사 버퍼(DB)로 전달한다. The text subtitle processor 1732 receives the text-based subtitle stream from the text subtitle preloading buffer (FPB), and includes the style related information and the dialogue presentation unit (DPU) included in the aforementioned dialogue style unit (DSU). The output time information of the metabolism included in the) is transmitted to the metabolic composition buffer (DCB), and the metabolic text information included in the metabolic presentation unit (DPU) is transferred to the metabolic buffer (DB).
프리젠테이션 제어기(1740)는 대사 구성 버퍼(DCB)에 포함된 스타일 관련 정보를 이용하여 텍스트 랜더러(1738)를 제어하고, 대사 출력 시간 정보를 이용하여 비트맵 오브젝트 버퍼(BOB)에 랜더링된 비트맵 이미지가 그래픽 평면(1750)으로 출력되는 시간을 제어한다. The presentation controller 1740 controls the text renderer 1738 using style related information included in the dialogue composition buffer DCB, and the bitmap rendered in the bitmap object buffer BOB using the dialogue output time information. Controls the time at which the image is output to the graphics plane 1750.
텍스트 서브타이틀 랜더러(1738)는, 프리젠테이션 제어기(1740)의 제어를 받아 대사 버퍼(DB)에 저장된 대사 텍스트 정보에 폰트 프리로딩 버퍼(FPB)에 프리로딩된 폰트 정보 중 해당하는 폰트 정보를 적용하여 대사 텍스트 정보를 비트맵 이미지로 전환, 즉 랜더링한다. 랜더링된 비트맵 이미지는 비트맵 오브젝트 버퍼(BOB)에 저장되고, 프리젠테이션 제어기(1740)의 제어를 받아 그래픽 평면(GP)(1750)으로 출력된다. 이때, 색상 참조 테이블(CLUT)(1760)을 참조하여 대사 스타일 단위(DSU)에 지정된 색상이 적용된다.The text subtitle renderer 1738 applies the corresponding font information among the font information preloaded to the font preloading buffer FPB to the dialogue text information stored in the dialogue buffer DB under the control of the presentation controller 1740. To convert, i.e. render, the dialogue text information into a bitmap image. The rendered bitmap image is stored in the bitmap object buffer (BOB) and is output to the graphics plane (GP) 1750 under the control of the presentation controller 1740. In this case, the color specified in the dialogue style unit DSU is applied with reference to the color reference table CLUT 1760.
대사 텍스트에 적용될 스타일 관련 정보는 제작자가 대사 스타일 단위(DSU)에 정의한 정보를 사용할 수 있으나, 사용자가 미리 정의한 스타일 관련 정보를 적용할 수도 있다. 재생 장치는 제작자가 정의한 스타일 관련 정보보다 사용자가 정의한 스타일 정보를 우선 적용한다. The style-related information to be applied to the dialogue text may use information defined by the creator in the dialogue style unit (DSU), but may also apply style information previously defined by the user. The playback apparatus prefers user-defined style information over style-related information defined by the producer.
도 8에서 상술한 바와 같이, 대사 텍스트에 적용될 스타일 관련 정보는 기본적으로 제작자가 대사 스타일 단위(DSU)에 정의한 영역 스타일 정보(region_style)가 적용되며, 해당 영역 스타일 정보가 적용되는 대사 텍스트를 포함하는 대사 프리젠테이션 단위(DPU)에 인라인 스타일이 포함되어 있다면 해당 부분에는 인라인 스타일 정보(inline_style)가 적용된다. 또한 제작자가 대사 스타일 단위(DSU)에 추가로 사용자가 변경할 수 있는 스타일을 정의하고, 사용자에 의해 정의된 사용자가 변경할 수 있는 스타일 중 하나가 선택되면, 대사 텍스트는 영역 스타일 및/혹은 인라인 스타일이 적용된 후에 사용자가 변경할 수 있는 스타일이 최종적으로 적용된다. 또한, 도 15에서 상술한 바와 같이 인라인 스타일의 내용 중에는 인라인 스타일의 적용이 끝났음을 알려 주는 정보가 포함되는 것이 바람직하다.As described above with reference to FIG. 8, the style related information to be applied to the dialogue text basically includes region style information (region_style) defined by the producer in the dialogue style unit (DSU), and includes dialogue text to which corresponding region style information is applied. If the dialogue presentation unit (DPU) contains an inline style, the inline style information (inline_style) is applied to that part. In addition, authors define styles that the user can change in addition to the dialogue style unit (DSU), and when one of the user-defined styles defined by the user is selected, the dialogue text is replaced by the area style and / or inline style. After it is applied, the style that the user can change is finally applied. In addition, as described above with reference to FIG. 15, the contents of the inline style may preferably include information indicating that the application of the inline style is finished.
나아가, 제작자는 저장 매체에 기록된 제작자가 정의한 스타일 관련 정보와 별도로 재생 장치 자체에서 정의한 스타일 관련 정보를 사용할 수 있도록 허용할지 또는 금지할지를 지정할 수도 있다.Furthermore, the producer may specify whether to allow or prohibit the use of the style related information defined by the playback apparatus itself separately from the style related information defined by the producer recorded on the storage medium.
도 18은 본 발명에 따른 재생 장치에서의 텍스트 기반의 서브타이틀 스트림의 프리로딩 과정을 설명하기 위한 도면이다.18 is a diagram illustrating a preloading process of a text-based subtitle stream in a playback device according to the present invention.
도 18을 참조하면, 텍스트 기반의 서브타이틀 스트림은 전술한 플레이리스트의 서브 패스 내에 정의된다. 서브 패스 내에는 복수의 언어를 지원하는 복수개의 텍스트 기반의 서브타이틀 스트림(220)이 정의될 수 있다. 또한, 텍스트 기반의 서브타이틀 스트림에 적용될 폰트 파일은 도 9a 및 도 9b에서 상술한 바와 같이 클립인포메이션 파일에 정의될 수 있다. 하나의 저장 매체에 포함될 수 있는 텍스트 기반의 서브타이틀 스트림(220)은 플레이리스트 당 255개까지 정의할 수 있다. 또한, 하나의 저장 매체에 포함될 수 있는 폰트 파일의 개수는 최대 255개까지 정의할 수 있다. 다만, 끊김없는 재생(seamless presentation)을 보장하기 위해서는, 텍스트 기반의 서브타이틀 스트림(220)의 크기가 재생 장치의 프리로딩 버퍼(1710)의 크기보다 작거나 같아야 할 것이다.Referring to FIG. 18, a text based subtitle stream is defined in a sub path of the above-described playlist. In the sub path, a plurality of text-based subtitle streams 220 supporting a plurality of languages may be defined. Also, the font file to be applied to the text-based subtitle stream may be defined in the clip information file as described above with reference to FIGS. 9A and 9B. The text-based subtitle stream 220 that can be included in one storage medium can define up to 255 per playlist. In addition, up to 255 font files may be included in one storage medium. However, in order to ensure seamless presentation, the size of the text-based subtitle stream 220 should be smaller than or equal to the size of the preloading buffer 1710 of the playback device.
도 19는 본 발명에 따른 재생 장치에서 대사 프리젠테이션 유닛(DPU)이 재생되는 과정을 설명하기 위한 도면이다.19 is a diagram for describing a process of reproducing a metabolic presentation unit (DPU) in a reproducing apparatus according to the present invention.
도 19, 도 13, 및 도 17을 참조하면, 대사 프리젠테이션 단위(DPU)가 재생되는 과정이 도시된다. 프리젠테이션 제어기(1740)는 대사 프리젠테이션 단위(DPU)에 포함된 대사의 출력 시간(1310)을 지정하는 대사 시작 시간 정보(dialog_start_PTS)와 대사 종료 시간 정보(dialog_end_PTS)를 이용하여 랜더링된 대사가 그래픽 평면에 출력되는 시간을 제어한다. 이때, 대사 시작 시간 정보는 비트맵 오브젝트 버퍼(1730)에 저장된 랜더링된 대사 비트맵 이미지가 그래픽 평면(1750)에 전달 완료되는 시간을 지정한다. 즉, 대사 프리젠테이션 단위(DPU)에 정의된 대사 시작 시간에 도달하면, 대사의 구성에 필요한 비트맵 정보가 그래픽 평면(GP)에 전달 완료되어 사용가능한 상태에 있어야 한다. 또한, 대사 종료 시간 정보는 대사 프리젠테이션 단위(DPU)의 재생이 종료되는 시간을 지정한다. 이때, 서브타이틀 디코더(1730)와 그래픽 평면(1750)이 모두 리셋된다. 비트맵 오브젝트 버퍼(BOB)와 같은 서브타이틀 디코더 내의 버퍼는 연속 재생 여부에 관계없이 대사 프리젠테이션 단위(DPU)의 시작 시간과 종료 시간 사이에 리셋되는 것이 바람직하다. 19, 13, and 17, a process of reproducing a metabolic presentation unit (DPU) is illustrated. The presentation controller 1740 uses the dialogue start time information (dialog_start_PTS) and the dialogue end time information (dialog_end_PTS) to designate the output time 1310 of the dialogue included in the dialogue presentation unit (DPU). Controls the time output to the plane. In this case, the dialogue start time information designates a time at which the rendered dialogue bitmap image stored in the bitmap object buffer 1730 is completed to be transferred to the graphic plane 1750. That is, when the dialogue start time defined in the dialogue presentation unit (DPU) is reached, the bitmap information necessary for constructing the dialogue must be delivered to the graphic plane GP and be in a usable state. In addition, the dialogue end time information designates a time at which reproduction of the dialogue presentation unit (DPU) ends. At this time, both the subtitle decoder 1730 and the graphic plane 1750 are reset. The buffer in the subtitle decoder, such as the bitmap object buffer (BOB), is preferably reset between the start time and the end time of the dialogue presentation unit (DPU), whether or not it is continuously played.
그러나, 복수의 대사 프리젠테이션 단위(DPU)의 연속 재생이 필요한 경우라면, 서브타이틀 디코더(1730)와 그래픽 평면(1750)이 리셋되지 않고, 각 버퍼의 저장 내용이 유지되어야 할 것이다. 즉, 현재 재생 중인 대사 프리젠테이션 단위(DPU)의 대사 종료 시간 정보와, 이후에 연속적으로 재생될 대사 프리젠테이션 단위(DPU)의 대사 시작 시간 정보가 동일한 경우에는, 각 버퍼의 내용이 리셋되지 않고 유지된다.However, if continuous reproduction of a plurality of dialogue presentation units (DPUs) is required, the subtitle decoder 1730 and the graphics plane 1750 will not be reset, and the stored contents of each buffer should be maintained. That is, when the dialogue end time information of the dialogue presentation unit (DPU) currently being reproduced and the dialogue start time information of the dialogue presentation unit (DPU) to be reproduced subsequently are the same, the contents of each buffer are not reset. maintain.
특히, 복수의 대사 프리젠테이션 단위(DPU)의 연속 재생이 응용되는 예로서, 페이드 인/아웃 효과를 들 수 있다. 페이드 인/아웃 효과는 그래픽 평면(GP)에 전달 완료된 비트맵 오브젝트의 색상 참조값(CLUT)을 변경함으로써 구현할 수 있다. 즉, 첫 번째 대사 프리젠테이션 단위(DPU)는 색상, 스타일, 출력 시간 등의 구성 정보를 포함하고 있으며, 이후에 연속되는 복수의 대사 프리젠테이션 단위(DPU)는 첫 번째 대사 프리젠테이션 단위(DPU)와 동일한 구성 정보를 가지며, 다만, 색상 파레트 정보만 업데이트된다. 이 경우 색상 정보 중 투명도(transparency)를 0%에서 100% 사이에 점차적으로 변경함으로써 페이드 인/아웃 효과를 얻을 수 있다. In particular, a fade in / out effect can be cited as an example in which continuous reproduction of a plurality of dialogue presentation units (DPUs) is applied. The fade in / out effect may be implemented by changing the color reference value CLUT of the bitmap object transferred to the graphic plane GP. That is, the first dialogue presentation unit (DPU) includes configuration information such as color, style, output time, etc., and a plurality of subsequent dialogue presentation units (DPUs) are the first dialogue presentation unit (DPU). It has the same configuration information as, except that only the color palette information is updated. In this case, the fade in / out effect can be obtained by gradually changing the transparency of the color information between 0% and 100%.
특히, 도 12b에 도시된 바와 같은 대사 프리젠테이션 단위(DPU)의 데이터 구조를 사용하는 경우라면, 색상 업데이트 플래그(1260)를 이용하여 페이드 인/아웃 효과를 효과적으로 구현할 수 있다. 즉, 대사 프리젠테이션 제어기(1740)가 대사 프리젠테이션 단위(DPU)에 포함된 색상 업데이트 플래그(1260)를 확인한 결과 0으로 설정된 경우, 즉, 페이드 인/아웃 효과가 필요 없는 일반적인 경우라면, 기본적으로 도 6에 도시된 대사 스타일 단위(DSU)에 포함된 색상 정보를 사용한다. 반면에, 색상 업데이트 플래그(1260)를 확인한 결과 1로 설정된 경우, 즉, 페이드 인/아웃 효과가 필요한 경우에는, 도 6에 도시된 대사 스타일 단위(DSU)에 포함된 색상 정보(610)를 사용하는 대신, 대사 프리젠테이션 단위(DPU)에 포함된 색상 정보(1270)를 사용하여 페이드 인/아웃 효과를 구현할 수 있다. 이때 대사 프리젠테이션 단위(DPU)에 포함된 색상 정보(1270)의 투명도를 조절함으로써 간단히 페이드 인/아웃 효과를 얻을 수 있다.In particular, when using a data structure of a metabolic presentation unit (DPU) as shown in FIG. 12B, the fade in / out effect may be effectively implemented using the color update flag 1260. That is, when the dialogue presentation controller 1740 checks the color update flag 1260 included in the dialogue presentation unit (DPU), and is set to 0, that is, in a general case where no fade in / out effect is required, basically, Color information included in the metabolic style unit (DSU) shown in FIG. 6 is used. On the other hand, when the color update flag 1260 is set as 1 as a result, that is, when a fade in / out effect is required, the color information 610 included in the dialogue style unit (DSU) illustrated in FIG. 6 is used. Instead, the fade in / out effect may be implemented using the color information 1270 included in the metabolic presentation unit (DPU). In this case, the fade in / out effect can be obtained simply by adjusting the transparency of the color information 1270 included in the dialogue presentation unit (DPU).
이와 같이 페이드 인/아웃 효과를 보여준 후에는, 색상참조 테이블(CLUT)은 원래대로 대사 프리젠테이션 단위(DSU)에 포함된 색상 정보로 업데이트되는 것이 바람직하다. 이와 같이 업데이트하지 않으면, 한번 지정된 색상 정보가 제작자의 의도와는 달리 이후에 계속 적용될 수 있기 때문이다.After showing the fade in / out effect as described above, the color reference table CLUT is preferably updated with color information included in the metabolic presentation unit DSU. If not updated like this, once designated color information may continue to be applied later, unlike the intention of the producer.
도 20은 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림이 동영상 데이터와 동기화되어 출력되는 과정을 설명하기 위한 도면이다.20 is a diagram illustrating a process of outputting a text-based subtitle stream in synchronization with video data in a playback device according to the present invention.
도 20을 참조하면, 텍스트 기반의 서브타이틀 스트림(220)의 대사 프리젠테이션 단위(DPU)에 포함된 대사 시작 시간 정보 및 대사 종료 시간 정보는, 멀티미디어 영상의 AV 데이터 스트림의 출력 시간과 동기화되기 위하여, 플레이리스트에서 사용되는 글로벌 시간 축(global time axis) 상의 시간으로 정의되어야 한다. 이에 따라, AV 데이터 스트림의 시스템 타임 클럭(STC)과 텍스트 기반의 서브타이틀 스트림(220)의 대사 출력 시간(PTS) 간의 불연속을 방지할 수 있다.Referring to FIG. 20, the dialogue start time information and dialogue end time information included in the dialogue presentation unit (DPU) of the text-based subtitle stream 220 may be synchronized with the output time of the AV data stream of the multimedia image. It must be defined as the time on the global time axis used in the playlist. Accordingly, it is possible to prevent a discontinuity between the system time clock (STC) of the AV data stream and the dialogue output time (PTS) of the text-based subtitle stream 220.
도 21은 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림이 화면에 출력되는 과정을 설명하기 위한 도면이다.21 is a diagram illustrating a process of outputting a text-based subtitle stream on a screen in the playback apparatus according to the present invention.
도 21을 참조하면, 대사 텍스트 정보(2104)에 스타일 관련 정보를 포함하는 랜더링 정보(2102)를 적용하여 비트맵 이미지(2106)로 전환하고, 전환된 비트맵 이미지를 구성 정보(2108)에 포함된 출력 위치 정보(region_horizontal_position, region vertical_position 등)에 기초하여 그래픽 평면의 해당 위치에 출력하는 과정이 도시된다.Referring to FIG. 21, the rendering information 2102 including style related information is applied to the dialogue text information 2104 to convert to a bitmap image 2106, and the converted bitmap image is included in the configuration information 2108. The process of outputting to the corresponding position of the graphic plane based on the output position information (region_horizontal_position, region vertical_position, etc.) is illustrated.
랜더링 정보(2102)란 영역의 너비, 높이, 전경색, 배경색, 텍스트 정렬, 폰트 이름, 폰트 스타일, 및 폰트 크기 등과 같은 스타일 정보를 말한다. 앞서 살펴본 바와 같이, 대사 스타일 단위(DSU)내에 영역 스타일 모음에 정의된다. 한편, 구성 정보(2108)란 프리젠테이션의 시작 시간 및 종료 시간과, 자막이 출력될 윈도우 영역의 수평 및 수직 위치 정보 등을 말한다. 이는 대사 프리젠테이션 단위(DPU)내에 정의된다.The rendering information 2102 refers to style information such as the width, height, foreground color, background color, text alignment, font name, font style, and font size of the area. As we saw earlier, within the Metabolic Style Unit (DSU) it is defined in a region style set. On the other hand, the configuration information 2108 refers to the start time and end time of the presentation, and horizontal and vertical position information of the window area to which the subtitle is output. It is defined within the Metabolic Presentation Unit (DPU).
도 22는 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림을 랜더링하는 과정을 설명하기 위한 도면이다.22 is a diagram illustrating a process of rendering a text-based subtitle stream in a playback device according to the present invention.
도 22, 도 21 및 도 8을 참조하면, 대사 스타일 단위(DSU)에 정의된 자막을 위한 윈도우 영역의 위치 정보(830)인 region_horizontal_position, region_vertical_position, region_width, 및 region_height를 이용하여 지정된 윈도우 영역이, 자막이 표시될 영역으로 지정된다. 랜더링된 대사의 비트맵 이미지는 윈도우 영역 내의 대사의 출력 위치(840)인 text_horizontal_position, 및 text_vertical_position에 지정한 시작점 위치에서부터 표시된다. Referring to FIGS. 22, 21, and 8, a window region designated by using region_horizontal_position, region_vertical_position, region_width, and region_height, which are position information 830 of the window region for the caption defined in the dialogue style unit (DSU), is defined by the caption. Is designated as the area to be displayed. The bitmap image of the rendered dialogue is displayed from the starting point positions specified in text_horizontal_position and text_vertical_position, which are output positions 840 of the dialogue in the window area.
한편, 본 발명에 따른 재생 장치는 사용자가 선택한 스타일 정보(style_id)를 시스템 레지스터 영역에 저장한다. 도 23은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하는 재생 장치에 구비된 재생장치 상태 레지스터를 나타내는 도면이다. On the other hand, the playback apparatus according to the present invention stores the style information (style_id) selected by the user in the system register area. FIG. 23 is a diagram illustrating a playback device status register provided in a playback device for reproducing a text-based subtitle stream according to the present invention.
도 23을 참조하면, 재생장치 상태 레지스터(Player Status Register: 이하 PSRs이라 약칭함)의 12번째 레지스터에 사용자가 선택한 스타일 정보(Selected Style)가 저장된다. 이에 따라, 예를 들어 재생 장치가 메뉴 콜이나 다른 동작을 수행한 후라도 사용자가 스타일 정보 변경 버튼을 누르면, PSR 12를 참조하여 이전에 사용자가 선택한 스타일 정보를 먼저 적용하도록 할 수 있다. 물론 PSR에 저장 되는 위치는 변경할 수 있다.Referring to FIG. 23, a style information selected by a user is stored in a twelfth register of a player status register (hereinafter referred to as PSRs). Accordingly, for example, when the user presses the style information change button even after the playback apparatus performs a menu call or other operation, the user may first apply the style information previously selected by referring to the PSR 12. Of course, the location stored in the PSR can be changed.
이상에서 살펴본 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)을 기록한 저장 매체 및 이를 재생하는 재생 장치의 구조를 기초로 하여 텍스트 기반의 서브타이틀 스트림의 재생 방법을 살펴보면 다음과 같다. 도 24는 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하는 방법을 나타내는 플로우챠트이다.A method of reproducing a text-based subtitle stream based on the structure of a storage medium recording the text-based subtitle stream 220 and a reproduction device for reproducing the same will now be described. 24 is a flowchart illustrating a method of playing a text-based subtitle stream according to the present invention.
저장 매체로부터 대사 스타일 단위(DSU) 정보 및 대사 프리젠테이션 단위(DPU) 정보를 포함하는 텍스트 기반의 서브타이틀 스트림 데이터를 읽어들여(2410 단계), 대사 스타일 단위(DSU) 정보에 포함된 랜더링 정보에 기초하여 대사 프리젠테이션 단위(DPU) 정보에 포함된 자막 텍스트를 비트맵 이미지로 전환한다(2420 단계). 전환된 비트맵 이미지를 대사 프리젠테이션 단위(DPU) 정보에 포함된 구성 정보인 대사를 출력할 시간 정보 및 위치 정보에 따라 화면에 출력한다(2430 단계).Reads text-based subtitle stream data including the metabolic style unit (DSU) information and the metabolic presentation unit (DPU) information from the storage medium (step 2410), and renders the rendering information included in the metabolic style unit (DSU) information. In operation 2420, the caption text included in the dialogue presentation unit (DPU) information is converted into a bitmap image. The converted bitmap image is output on the screen according to time information and position information to output dialogue, which is configuration information included in dialogue presentation unit (DPU) information, in operation 2430.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, and the like, and may also include those implemented in the form of carrier waves (eg, transmission over the Internet). do. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only one embodiment of the present invention, and those skilled in the art may implement the present invention in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention should not be limited to the above-described examples, but should be construed to include various embodiments within the scope equivalent to those described in the claims.
상술한 바와 같이, 영상 데이터와 별도로 분리된 텍스트 기반의 서브타이틀 스트림을 기록한 저장 매체, 재생 장치 및 그 재생 방법을 제공함으로써, 서브타이틀 데이터의 제작과 일단 제작된 서브타이틀 데이터의 편집이 용이하다. 또한, 서브타이틀 데이터의 개수에 제한 없이 복수의 언어로 자막을 제공할 수도 있다. As described above, by providing a storage medium, a reproducing apparatus, and a reproducing method for recording a text-based subtitle stream separated from the image data, it is easy to produce the subtitle data and to edit the subtitle data once produced. In addition, the subtitle may be provided in a plurality of languages without limit on the number of subtitle data.
또한, 서브타이틀 데이터가 하나의 스타일 정보(DSU)와 복수의 프리젠테이션 정보(DPU)로 구성됨으로써, 전체 프리젠테이션 데이터에 적용될 출력 스타일을 미리 정의할 수 있고 이를 다양하게 변경할 수도 있으며, 자막의 일부분을 강조하기 위한 인라인 스타일 및 사용자가 변경할 수 있는 스타일도 정의할 수 있다.In addition, since the subtitle data is composed of one style information (DSU) and a plurality of presentation information (DPU), the output style to be applied to the entire presentation data can be predefined and variously changed. You can also define inline styles to highlight and styles that you can change.
나아가, 이웃하는 복수의 프리젠테이션 정보를 이용하여 자막의 연속 재생이 가능하며, 이를 응용하여 페이드 인/아웃 등의 효과를 쉽게 구현할 수 있다. Furthermore, it is possible to continuously reproduce the subtitles using a plurality of neighboring presentation information. By applying this, effects such as fade in / out can be easily implemented.
도 1은 본 발명의 바람직한 실시예에 따른 저장 매체에 기록된 멀티미디어 데이터 구조를 설명하기 위한 도면,1 is a view for explaining a multimedia data structure recorded on a storage medium according to an embodiment of the present invention;
도 2는 도 1에 도시된 클립 AV 스트림(100)의 구조와 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 나타내는 도면,2 is a diagram illustrating a structure of a clip AV stream 100 shown in FIG. 1 and a text-based subtitle stream according to the present invention;
도 3은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림(220)의 데이터 구조를 설명하기 위한 도면,3 is a view for explaining a data structure of a text-based subtitle stream 220 according to the present invention;
도 4는 도 3에 도시된 데이터 구조를 갖는 텍스트 기반의 서브타이틀 스트림(220)을 구현한 일 실시예를 나타내는 도면,4 is a diagram illustrating an embodiment of implementing a text-based subtitle stream 220 having the data structure shown in FIG.
도 5는 도 3에 도시된 대사 스타일 단위(310)를 구현한 일 실시예를 나타내는 도면,FIG. 5 is a diagram illustrating an embodiment of implementing the metabolic style unit 310 illustrated in FIG. 3.
도 6은 본 발명의 일 실시예로서 대사 스타일 단위(310)의 데이터 구조의 일 예를 설명하기 위한 도면,6 is a view for explaining an example of the data structure of the metabolic style unit 310 as an embodiment of the present invention;
도 7은 본 발명의 다른 실시예로서 대사 스타일 단위(310)의 데이터 구조의 일 예를 설명하기 위한 도면, 7 is a view for explaining an example of a data structure of a metabolic style unit 310 as another embodiment of the present invention;
도 8은 도 6 또는 도 7에 도시된 대사 스타일 단위(310)를 구현한 일 실시예를 나타낸 도면,FIG. 8 is a diagram illustrating an embodiment of implementing the metabolic style unit 310 illustrated in FIG. 6 or 7;
도 9a 및 도 9b는 도 8의 폰트 정보(842)가 참조하는 복수의 폰트 모음을 포함하는 클립 인포메이션 파일의 일 실시예를 나타낸 도면,9A and 9B illustrate an embodiment of a clip information file including a plurality of font collections referred to by the font information 842 of FIG. 8;
도 10은 도 9a 및 도 9b에서 폰트 파일 정보(938 또는 952)가 참조하는 복수의 폰트 파일의 위치를 나타내기 위한 도면,FIG. 10 is a diagram illustrating positions of a plurality of font files referred to by font file information 938 or 952 in FIGS. 9A and 9B;
도 11은 도 3에 도시된 대사 프리젠테이션 단위(320)의 데이터 구조의 일 실시예를 설명하기 위한 도면,FIG. 11 is a view for explaining an embodiment of a data structure of the metabolic presentation unit 320 shown in FIG. 3;
도 12a 및 도 12b는 도 3에 도시된 대사 프리젠테이션 단위(320)의 데이터 구조의 다른 실시예를 설명하기 위한 도면,12A and 12B are views for explaining another embodiment of the data structure of the metabolic presentation unit 320 shown in FIG. 3;
도 13은 도 11 내지 도 12b에 도시된 대사 프리젠테이션 단위(320)를 구현한 일 실시예를 나타낸 도면,FIG. 13 illustrates an embodiment of implementing the metabolic presentation unit 320 illustrated in FIGS. 11 to 12B.
도 14는 도 13에 도시된 대사 텍스트 정보(1334)의 데이터 구조를 설명하기 위한 도면,FIG. 14 is a view for explaining the data structure of the dialogue text information 1334 shown in FIG. 13;
도 15는 도 13의 대사 텍스트 정보(1334)를 구현한 일 실시예를 나타낸 도면,FIG. 15 is a diagram illustrating an embodiment of implementing the dialogue text information 1334 of FIG. 13.
도 16은 연속적인 대사 프리젠테이션 단위(DPU)를 연속적으로 재생하기 위한 제한 사항을 설명하기 위한 도면,FIG. 16 is a diagram for explaining limitations for continuously playing back a continuous dialogue presentation unit (DPU); FIG.
도 17은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하기 위한 재생 장치의 구조를 설명하는 도면, 17 is a view for explaining the structure of a playback apparatus for playing a text-based subtitle stream according to the present invention;
도 18은 본 발명에 따른 재생 장치에서의 텍스트 기반의 서브타이틀 스트림의 프리로딩 과정을 설명하기 위한 도면,18 is a view for explaining a preloading process of a text-based subtitle stream in a playback device according to the present invention;
도 19는 본 발명에 따른 재생 장치에서 대사 프리젠테이션 단위(DPU)가 재생되는 과정을 설명하기 위한 도면,19 is a view for explaining a process of reproducing a metabolic presentation unit (DPU) in a reproducing apparatus according to the present invention;
도 20은 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림이 동영상 데이터와 동기화되어 출력되는 과정을 설명하기 위한 도면,20 is a view for explaining a process of outputting a text-based subtitle stream in synchronization with video data in a playback device according to the present invention;
도 21은 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림이 화면에 출력되는 과정을 설명하기 위한 도면,21 is a view for explaining a process of outputting a text-based subtitle stream on a screen in a playback device according to the present invention;
도 22는 본 발명에 따른 재생 장치에서 텍스트 기반의 서브타이틀 스트림을 랜더링하는 과정을 설명하기 위한 도면,22 is a diagram illustrating a process of rendering a text-based subtitle stream in a playback device according to the present invention;
도 23은 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하는 재생 장치에 구비된 재생장치 상태 레지스터를 나타내는 도면,23 is a view showing a playback device status register provided in the playback device for reproducing a text-based subtitle stream according to the present invention;
도 24는 본 발명에 따른 텍스트 기반의 서브타이틀 스트림을 재생하는 방법을 나타내는 플로우챠트이다.24 is a flowchart illustrating a method of playing a text-based subtitle stream according to the present invention.
Claims (65)
Priority Applications (21)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/064,825 US7529467B2 (en) | 2004-02-28 | 2005-02-25 | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium |
TW094105743A TWI320925B (en) | 2004-02-28 | 2005-02-25 | Apparatus for reproducing data from a storge medium storing imige data and text-based subtitle data |
TW098133833A TWI417873B (en) | 2004-02-28 | 2005-02-25 | A storage medium and an apparatus for reproducing data from a storage medium storing audio-visual data and text-based subtitle data |
CA2523137A CA2523137C (en) | 2004-02-28 | 2005-02-28 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
CN2007101089243A CN101059984B (en) | 2004-02-28 | 2005-02-28 | Method for reproducing storage medium recording text-based subtitle stream, |
SG200708929-5A SG136146A1 (en) | 2004-02-28 | 2005-02-28 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
AT05726932T ATE504919T1 (en) | 2004-02-28 | 2005-02-28 | PLAYBACK DEVICE FOR A STORAGE MEDIUM THAT STORES IMAGE DATA AND TEXT-BASED CAPTIONS |
EP05726932A EP1719131B1 (en) | 2004-02-28 | 2005-02-28 | Apparatus for reproducing data from a storage medium storing image data and text-based subtitle data |
BRPI0504401A BRPI0504401B1 (en) | 2004-02-28 | 2005-02-28 | device for playing data from storage media |
RU2005137185/28A RU2324988C2 (en) | 2004-02-28 | 2005-02-28 | Media to store text-based subtitle stream, device and method of playback |
RU2007146766/28A RU2490730C2 (en) | 2004-02-28 | 2005-02-28 | Device for reproducing data from data storage medium |
CN200810135887XA CN101360251B (en) | 2004-02-28 | 2005-02-28 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
PCT/KR2005/000549 WO2005083708A1 (en) | 2004-02-28 | 2005-02-28 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
MYPI20050802A MY139164A (en) | 2004-02-28 | 2005-02-28 | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on this storage medium. |
JP2007500690A JP4776614B2 (en) | 2004-02-28 | 2005-02-28 | Playback apparatus for playing back a recording medium on which a text-based subtitle stream is recorded |
DE602005027321T DE602005027321D1 (en) | 2004-02-28 | 2005-02-28 | A storage medium reproducing apparatus storing image data and text-based subtitles |
HK08102965.9A HK1116588A1 (en) | 2004-02-28 | 2006-08-04 | Method for reproducing storage medium recording text-based subtitle stream |
HK06108663.3A HK1088434A1 (en) | 2004-02-28 | 2006-08-04 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
HK09105277.4A HK1126605A1 (en) | 2004-02-28 | 2006-08-04 | Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof |
US12/408,204 US8437612B2 (en) | 2004-02-28 | 2009-03-20 | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium |
JP2010211755A JP5307099B2 (en) | 2004-02-28 | 2010-09-22 | Recording medium and device for reproducing data from recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20040013827 | 2004-02-28 | ||
KR1020040013827 | 2004-02-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050088035A true KR20050088035A (en) | 2005-09-01 |
KR100727921B1 KR100727921B1 (en) | 2007-06-13 |
Family
ID=36760967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040032290A KR100727921B1 (en) | 2004-02-28 | 2004-05-07 | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method thereof |
Country Status (10)
Country | Link |
---|---|
JP (2) | JP4776614B2 (en) |
KR (1) | KR100727921B1 (en) |
CN (3) | CN101059984B (en) |
AT (1) | ATE504919T1 (en) |
DE (1) | DE602005027321D1 (en) |
ES (1) | ES2364644T3 (en) |
HK (3) | HK1126605A1 (en) |
MY (1) | MY139164A (en) |
RU (1) | RU2490730C2 (en) |
TW (2) | TWI417873B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100818926B1 (en) * | 2006-10-31 | 2008-04-04 | 삼성전자주식회사 | Apparatus and method for handling presentation graphic of optical disk |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101053619B1 (en) | 2003-04-09 | 2011-08-03 | 엘지전자 주식회사 | Recording medium having data structure for managing reproduction of text subtitle data, recording and reproducing method and apparatus accordingly |
KR20050078907A (en) | 2004-02-03 | 2005-08-08 | 엘지전자 주식회사 | Method for managing and reproducing a subtitle of high density optical disc |
ES2336223T3 (en) | 2004-03-26 | 2010-04-09 | Lg Electronics, Inc. | RECORDING MEDIA OR RECORDING AND METHOD AND APPLIANCE TO PLAY A FLOW OR CURRENT OF TEXT SUBTITLES RECORDED IN THE RECORDING MEDIA. |
CN101114500B (en) | 2004-03-26 | 2010-06-09 | Lg电子株式会社 | Recording medium and method and apparatus for reproducing and recording text subtitle streams |
RU2378722C2 (en) | 2004-03-26 | 2010-01-10 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Recording medium, method and device for playing back text subtitle streams |
CN101183524B (en) * | 2007-11-08 | 2012-10-10 | 腾讯科技(深圳)有限公司 | Lyric characters display process and system |
EP2242263A1 (en) * | 2008-02-14 | 2010-10-20 | Panasonic Corporation | Reproduction device, integrated circuit, reproduction method, program, and computer-readable recording medium |
CN111212251B (en) * | 2014-09-10 | 2022-05-27 | 松下电器(美国)知识产权公司 | Reproduction device and reproduction method |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5294982A (en) * | 1991-12-24 | 1994-03-15 | National Captioning Institute, Inc. | Method and apparatus for providing dual language captioning of a television program |
ES2130282T3 (en) * | 1993-08-20 | 1999-07-01 | Thomson Consumer Electronics | RESTRICTED COLLECTION SYSTEM FOR USE WITH A COMPRESSED DIGITAL VIDEO SIGNAL TRANSMISSION. |
EP0745307B3 (en) * | 1994-12-14 | 2010-06-23 | Philips Electronics N.V. | Subtitling transmission system |
US5721720A (en) * | 1994-12-28 | 1998-02-24 | Kabushiki Kaisha Toshiba | Optical recording medium recording pixel data as a compressed unit data block |
JPH08241068A (en) * | 1995-03-03 | 1996-09-17 | Matsushita Electric Ind Co Ltd | Information recording medium, device and method for decoding bit map data |
JPH08275205A (en) * | 1995-04-03 | 1996-10-18 | Sony Corp | Method and device for data coding/decoding and coded data recording medium |
US5848352A (en) * | 1995-04-26 | 1998-12-08 | Wink Communications, Inc. | Compact graphical interactive information system |
JP3484838B2 (en) * | 1995-09-22 | 2004-01-06 | ソニー株式会社 | Recording method and playback device |
US6345147B1 (en) * | 1995-11-24 | 2002-02-05 | Kabushiki Kaisha Toshiba | Multi-language recording medium and reproducing device for the same |
JPH10210504A (en) * | 1997-01-17 | 1998-08-07 | Toshiba Corp | Sub video image color pallet setting system |
JPH10271439A (en) * | 1997-03-25 | 1998-10-09 | Toshiba Corp | Dynamic image display system and dynamic image data recording method |
US6288990B1 (en) * | 1997-10-21 | 2001-09-11 | Sony Corporation | Reproducing apparatus, recording apparatus, and recording medium |
JPH11196386A (en) * | 1997-10-30 | 1999-07-21 | Toshiba Corp | Computer system and closed caption display method |
JP3377176B2 (en) * | 1997-11-28 | 2003-02-17 | 日本ビクター株式会社 | Audio disc and decoding device |
KR100327211B1 (en) * | 1998-05-29 | 2002-05-09 | 윤종용 | Sub-picture encoding method and apparatus |
JP2000023082A (en) * | 1998-06-29 | 2000-01-21 | Toshiba Corp | Information recording and reproducing device for multiplex television broadcast |
JP2002056650A (en) * | 2000-08-15 | 2002-02-22 | Pioneer Electronic Corp | Information recorder, information recording method and recording medium with record control program recorded therein |
JP4467737B2 (en) * | 2000-08-16 | 2010-05-26 | パイオニア株式会社 | Information recording apparatus, information recording method, and information recording medium on which recording control program is recorded |
JP4021264B2 (en) * | 2002-07-11 | 2007-12-12 | 株式会社ケンウッド | Playback device |
KR100939711B1 (en) * | 2002-12-12 | 2010-02-01 | 엘지전자 주식회사 | Apparatus and method for reproducing a text based subtitle |
KR100930349B1 (en) * | 2003-01-20 | 2009-12-08 | 엘지전자 주식회사 | Subtitle data management method of high density optical disc |
CN100473133C (en) * | 2004-02-10 | 2009-03-25 | Lg电子株式会社 | Text subtitle reproducing method and decoding system for text subtitle |
EP1714281A2 (en) * | 2004-02-10 | 2006-10-25 | LG Electronic Inc. | Recording medium and method and apparatus for decoding text subtitle streams |
KR100739680B1 (en) * | 2004-02-21 | 2007-07-13 | 삼성전자주식회사 | Storage medium for recording text-based subtitle data including style information, reproducing apparatus, and method therefor |
ES2336223T3 (en) * | 2004-03-26 | 2010-04-09 | Lg Electronics, Inc. | RECORDING MEDIA OR RECORDING AND METHOD AND APPLIANCE TO PLAY A FLOW OR CURRENT OF TEXT SUBTITLES RECORDED IN THE RECORDING MEDIA. |
-
2004
- 2004-05-07 KR KR1020040032290A patent/KR100727921B1/en active IP Right Grant
-
2005
- 2005-02-25 TW TW098133833A patent/TWI417873B/en active
- 2005-02-25 TW TW094105743A patent/TWI320925B/en active
- 2005-02-28 AT AT05726932T patent/ATE504919T1/en not_active IP Right Cessation
- 2005-02-28 JP JP2007500690A patent/JP4776614B2/en active Active
- 2005-02-28 CN CN2007101089243A patent/CN101059984B/en active Active
- 2005-02-28 MY MYPI20050802A patent/MY139164A/en unknown
- 2005-02-28 ES ES05726932T patent/ES2364644T3/en active Active
- 2005-02-28 RU RU2007146766/28A patent/RU2490730C2/en active
- 2005-02-28 CN CN200810135887XA patent/CN101360251B/en active Active
- 2005-02-28 CN CNB2005800003070A patent/CN100479047C/en active Active
- 2005-02-28 DE DE602005027321T patent/DE602005027321D1/en active Active
-
2006
- 2006-08-04 HK HK09105277.4A patent/HK1126605A1/en unknown
- 2006-08-04 HK HK08102965.9A patent/HK1116588A1/en unknown
- 2006-08-04 HK HK06108663.3A patent/HK1088434A1/en unknown
-
2010
- 2010-09-22 JP JP2010211755A patent/JP5307099B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100818926B1 (en) * | 2006-10-31 | 2008-04-04 | 삼성전자주식회사 | Apparatus and method for handling presentation graphic of optical disk |
Also Published As
Publication number | Publication date |
---|---|
HK1126605A1 (en) | 2009-09-04 |
TWI320925B (en) | 2010-02-21 |
JP2011035922A (en) | 2011-02-17 |
MY139164A (en) | 2009-08-28 |
CN101059984B (en) | 2010-08-18 |
KR100727921B1 (en) | 2007-06-13 |
ES2364644T3 (en) | 2011-09-08 |
RU2490730C2 (en) | 2013-08-20 |
TWI417873B (en) | 2013-12-01 |
CN101360251A (en) | 2009-02-04 |
CN1774759A (en) | 2006-05-17 |
CN101360251B (en) | 2011-02-16 |
TW200529202A (en) | 2005-09-01 |
CN100479047C (en) | 2009-04-15 |
JP5307099B2 (en) | 2013-10-02 |
ATE504919T1 (en) | 2011-04-15 |
CN101059984A (en) | 2007-10-24 |
HK1088434A1 (en) | 2006-11-03 |
JP4776614B2 (en) | 2011-09-21 |
TW201009820A (en) | 2010-03-01 |
RU2007146766A (en) | 2009-06-20 |
JP2007525904A (en) | 2007-09-06 |
DE602005027321D1 (en) | 2011-05-19 |
HK1116588A1 (en) | 2008-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8437612B2 (en) | Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium | |
JP5307099B2 (en) | Recording medium and device for reproducing data from recording medium | |
KR101119116B1 (en) | Text subtitle decoder and method for decoding text subtitle streams | |
JP4599396B2 (en) | Recording medium and method and apparatus for reproducing text subtitle stream recorded on recording medium | |
RU2378722C2 (en) | Recording medium, method and device for playing back text subtitle streams | |
KR20070028325A (en) | Text subtitle decoder and method for decoding text subtitle streams | |
US9076495B2 (en) | Reproducing apparatus, reproducing method, computer program, program storage medium, data structure, recording medium, recording device, and manufacturing method of recording medium | |
JP2007522595A (en) | Recording medium and method and apparatus for decoding text subtitle stream | |
JP2007522596A (en) | Recording medium and method and apparatus for decoding text subtitle stream | |
KR20070028329A (en) | Method for reproducing text subtitle and text subtitle decoding system | |
KR20050094265A (en) | Apparatus and method for reproducing a text subtitle stream of high density optical disc |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] | ||
FPAY | Annual fee payment |
Payment date: 20130530 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140529 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150528 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160530 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20170529 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20180530 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20190530 Year of fee payment: 13 |