JP2011035922A - Recording medium and apparatus for reproducing data from recording medium - Google Patents

Recording medium and apparatus for reproducing data from recording medium Download PDF

Info

Publication number
JP2011035922A
JP2011035922A JP2010211755A JP2010211755A JP2011035922A JP 2011035922 A JP2011035922 A JP 2011035922A JP 2010211755 A JP2010211755 A JP 2010211755A JP 2010211755 A JP2010211755 A JP 2010211755A JP 2011035922 A JP2011035922 A JP 2011035922A
Authority
JP
Japan
Prior art keywords
dialogue
information
text
style
hue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010211755A
Other languages
Japanese (ja)
Other versions
JP5307099B2 (en
Inventor
Giru-Su Jon
ジョン,ギル−ス
Sung-Wook Park
パク,ソン−ウク
Kwang-Min Kim
キム,グァン−ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2011035922A publication Critical patent/JP2011035922A/en
Application granted granted Critical
Publication of JP5307099B2 publication Critical patent/JP5307099B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Abstract

<P>PROBLEM TO BE SOLVED: To provide a storage medium recording a text-based subtitle stream and a reproducing apparatus. <P>SOLUTION: The present invention relates to a recording medium, including moving video data and text-based subtitle data for providing a caption of the moving video data. The text-based subtitle data include a plurality of in-line presentation units and an in-line style unit defining a set of output styles to be applied to the plurality of in-line presentation units; each in-line presentation unit includes: in-line text information; time information representing a time to output the in-line text information; pallet information defining a hue to be applied to the in-line text information; and a hue update flag, representing whether only the pallet information is modified relative to a graphic constitution of a previous in-line presentation unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、マルチメディア映像の再生に係り、より詳細には、マルチメディア映像ストリームとテキスト基盤のサブタイトルストリームとを記録した記録媒体、記録媒体に記録されたマルチメディア映像ストリームとテキスト基盤のサブタイトルストリームとを再生するための再生装置及びその再生方法に関する。   The present invention relates to reproduction of multimedia video, and more particularly, a recording medium on which a multimedia video stream and a text-based subtitle stream are recorded, and a multimedia video stream and a text-based subtitle stream recorded on the recording medium. And a reproducing method thereof.

現在、HD級高画質のマルチメディア映像を提供するための記録媒体に記録されたAV(Audio−visual)データには、ビデオストリーム、オーディオストリーム、サブタイトルを提供するためのプレゼンテーショングラフィックストリーム、及びユーザーとの相互作用のためにボタンまたはメニューを提供するためのインタラクティブグラフィックストリームがメインストリームに多重化されている。特に、サブタイトルを提供するためのプレゼンテーショングラフィックストリームは、字幕を表示するためにビットマップ基盤のイメージを提供する。   Currently, AV (Audio-visual) data recorded on a recording medium for providing multimedia video of HD-class high image quality includes a video stream, an audio stream, a presentation graphic stream for providing a subtitle, and a user. An interactive graphics stream for providing buttons or menus for the interaction is multiplexed with the main stream. In particular, a presentation graphic stream for providing a subtitle provides a bitmap-based image for displaying subtitles.

このようなビットマップ基盤の字幕データは、そのサイズが大きいだけでなく、ビデオ、オーディオ、インタラクティブグラフィックなどの他のストリームと共に多重化されるため、字幕データの製作及び製作された字幕データの編集が非常に難しいという問題点がある。さらに、字幕データの出力スタイルを多様に変更することができないという問題点もある。すなわち、一つの字幕出力スタイルを他のスタイルに変更できない。   Such bitmap-based caption data is not only large in size, but also multiplexed with other streams such as video, audio, interactive graphics, etc., so that caption data can be produced and edited. There is a problem that it is very difficult. Furthermore, there is a problem that the output style of subtitle data cannot be changed in various ways. That is, one subtitle output style cannot be changed to another style.

本発明の目的は、前記問題点を解決するために、テキスト基盤のサブタイトルストリームを記録した記録媒体、及び再生装置を提供することである。   In order to solve the above problems, an object of the present invention is to provide a recording medium on which a text-based subtitle stream is recorded, and a playback device.

この目的を達成するため、動映像データと、前記動映像データの字幕を提供するためのテキスト基盤のサブタイトルデータを含み、前記テキスト基盤のサブタイトルデータは、複数の台詞プレゼンテーション単位と、前記複数の台詞プレゼンテーション単位に適用される出力スタイルの集合を定義した台詞スタイル単位を含み、各台詞プレゼンテーション単位は、台詞テキスト情報、前記台詞テキスト情報が出力される時間を表す時間情報、前記台詞テキスト情報に適用される色相を定義したパレット情報、及び以前台詞プレゼンテーション単位のグラフィック構成に比べてパレット情報だけ変更されたか否かを表す色相アップデートフラグとを含む。   To achieve this object, the present invention includes moving image data and text-based subtitle data for providing subtitles of the moving image data. The text-based subtitle data includes a plurality of dialogue presentation units and the plurality of dialogues. It includes dialogue style units that define a set of output styles to be applied to presentation units, and each dialogue presentation unit is applied to dialogue text information, time information representing the time when the dialogue text information is output, and dialogue text information. Palette information that defines the hue to be displayed, and a hue update flag that indicates whether only the palette information has been changed as compared with the graphic configuration in the previous dialogue presentation unit.

また、前記色相アップデートフラグが1の場合、前記以前台詞プレゼンテーション単位によって出力された以前台詞テキスト情報にパレット情報が適用されてもよい。   When the hue update flag is 1, palette information may be applied to previous dialogue text information output by the previous dialogue presentation unit.

また、前記色相アップデートフラグが0の場合、現在の台詞プレゼンテーション単位によって出力された台詞テキスト情報にパレット情報が適用されてもよい。   Further, when the hue update flag is 0, palette information may be applied to the dialogue text information output by the current dialogue presentation unit.

また、動映像データと、前記動映像データの字幕を提供するためのテキスト基盤のサブタイトルデータを貯蔵した記録媒体からデータを再生する装置において、前記動映像データをデコーディングするデコーダと、複数の台詞プレゼンテーション単位と、前記複数の台詞プレゼンテーション単位に適用される出力スタイルの集合を定義した台詞スタイル単位を含んだ前記テキスト基盤のサブタイトルデータを受信し、前記台詞スタイル単位を参照して前記複数の台詞プレゼンテーション単位に含まれた台詞のためのテキスト情報を
ビットマップイメージに変換し、前記変換されたビットマップイメージを前記デコーディングされた映像データに同期させて出力するサブタイトルデコーダを含み、各台詞プレゼンテーション単位は、前記台詞テキスト情報、前記台詞テキスト情報が出力される時間を表す時間情報、前記台詞テキスト情報に適用される色相を定義したパレット情報、及び以前台詞プレゼンテーション単位のグラフビック構成に比べてパレット情報だけ変更されたか否かを表す色相アップデートフラグを含む。
In addition, in an apparatus for reproducing data from a recording medium storing moving image data and text-based subtitle data for providing subtitles of the moving image data, a decoder for decoding the moving image data, and a plurality of dialogues Receiving the text-based subtitle data including a presentation unit and a dialogue style unit defining a set of output styles applied to the plurality of dialogue presentation units, and referring to the dialogue style unit, the plurality of dialogue presentations A subtitle decoder that converts text information for dialogue included in the unit into a bitmap image and outputs the converted bitmap image in synchronization with the decoded video data; each dialogue presentation unit includes: , The dialogue List information, time information indicating the time when the dialogue text information is output, palette information that defines the hue applied to the dialogue text information, and whether only palette information has been changed compared to the previous graph presentation structure of dialogue presentation units. It includes a hue update flag indicating whether or not.

また、前記サブタイトルデコーダは、前記色相アップデートフラグが1の場合、前記以前台詞プレゼンテーション単位によって出力された以前台詞テキスト情報にパレット情報を適用してもよい。   In addition, when the hue update flag is 1, the subtitle decoder may apply palette information to previous dialogue text information output by the previous dialogue presentation unit.

また、前記サブタイトルデコーダは、前記色相アップデートフラグが0の場合、現在の台詞プレゼンテーション単位によって出力された台詞テキスト情報にパレット情報を適用してもよい。   In addition, when the hue update flag is 0, the subtitle decoder may apply the palette information to the dialogue text information output by the current dialogue presentation unit.

映像データと別途に分離されたテキスト基盤のサブタイトルデータストリームを記録した記録媒体、前記テキスト基盤のサブタイトルデータストリームを再生するための再生装置、及びその再生方法を提供することによって、サブタイトルデータの製作と製作されたサブタイトルデータの編集とが容易である。また、サブタイトルデータの数に制限なしに複数の言語で字幕を提供することも可能である。   Production of subtitle data by providing a recording medium on which a text-based subtitle data stream separated from video data is recorded, a playback device for playing back the text-based subtitle data stream, and a playback method thereof It is easy to edit the produced subtitle data. It is also possible to provide subtitles in a plurality of languages without limitation on the number of subtitle data.

また、隣接する複数のプレゼンテーション情報を利用して字幕の連続再生が可能であり、これを応用してフェードイン/アウトなどの効果を容易に具現できる。   In addition, subtitles can be continuously played back using a plurality of adjacent presentation information, and effects such as fade-in / out can be easily realized by applying this.

本発明の望ましい実施形態による記録媒体に記録されたマルチメディアデータ構造を説明するための図である。FIG. 3 is a diagram illustrating a multimedia data structure recorded on a recording medium according to an exemplary embodiment of the present invention. 図1に示されたクリップAVストリームの構造、及び本発明によるテキスト基盤のサブタイトルストリームを示す図である。FIG. 2 is a diagram illustrating a structure of a clip AV stream shown in FIG. 1 and a text-based subtitle stream according to the present invention. 本発明によるテキスト基盤のサブタイトルストリームのデータ構造を説明するための図である。FIG. 6 is a diagram illustrating a data structure of a text-based subtitle stream according to the present invention. 図3に示されたデータ構造を有するテキスト基盤のサブタイトルストリームを具現した一実施形態を示す図である。FIG. 4 is a diagram illustrating an embodiment in which a text-based subtitle stream having the data structure illustrated in FIG. 3 is implemented. 図3に示された台詞スタイル単位を具現した一実施形態を示す図である。FIG. 4 is a diagram illustrating an embodiment embodying the dialogue style unit illustrated in FIG. 3. 本発明の一実施形態として台詞スタイル単位のデータ構造の一例を説明するための図である。It is a figure for demonstrating an example of the data structure of a dialog style unit as one Embodiment of this invention. 本発明の他の実施形態による台詞スタイル単位のデータ構造の一例を説明するための図である。It is a figure for demonstrating an example of the data structure of the dialogue style unit by other embodiment of this invention. 図6または図7に示された台詞スタイル単位を具現した一実施形態を示す図である。FIG. 8 is a diagram illustrating an embodiment in which the dialogue style unit illustrated in FIG. 6 or 7 is implemented. 図8のフォント情報が参照する複数のフォント集合を含むクリップインフォメーションファイルの一実施形態を示す図である。FIG. 9 is a diagram illustrating an embodiment of a clip information file including a plurality of font sets referred to by the font information of FIG. 8. 図8のフォント情報が参照する複数のフォント集合を含むクリップインフォメーションファイルの一実施形態を示す図である。FIG. 9 is a diagram illustrating an embodiment of a clip information file including a plurality of font sets referred to by the font information of FIG. 8. 図9A及び図9Bでフォントファイル情報が参照する複数のフォントファイルの位置を示すための図である。9A and 9B are diagrams for showing positions of a plurality of font files referred to by font file information in FIGS. 9A and 9B. FIG. 図3に示された台詞プレゼンテーション単位のデータ構造の一実施形態を説明するための図である。FIG. 4 is a diagram for explaining an embodiment of a data structure of a dialogue presentation unit shown in FIG. 3. 図3に示された台詞プレゼンテーション単位のデータ構造の他の実施形態を説明するための図である。It is a figure for demonstrating other embodiment of the data structure of the dialogue presentation unit shown by FIG. 図3に示された台詞プレゼンテーション単位のデータ構造の他の実施形態を説明するための図である。It is a figure for demonstrating other embodiment of the data structure of the dialogue presentation unit shown by FIG. 図11、図12A、図12Bに示された台詞プレゼンテーション単位を具現した一実施形態を示す図である。FIG. 13 is a diagram illustrating an embodiment in which the dialogue presentation units illustrated in FIGS. 11, 12A, and 12B are implemented. 図13に示された台詞テキスト情報のデータ構造を説明するための図である。It is a figure for demonstrating the data structure of dialogue text information shown by FIG. 図13の台詞テキスト情報を具現した一実施形態を示す図である。It is a figure which shows one Embodiment which embodied dialogue text information of FIG. 連続的な台詞プレゼンテーション単位(DPU)を連続的に再生するための制限事項を説明するための図である。It is a figure for demonstrating the restriction | limiting matter for reproducing | regenerating continuously a continuous speech presentation unit (DPU). 本発明によるテキスト基盤のサブタイトルストリームを再生するための再生装置の構造を説明する図である。FIG. 3 is a diagram illustrating a structure of a playback device for playing back a text-based subtitle stream according to the present invention. 本発明による再生装置におけるテキスト基盤のサブタイトルストリームのプレローディング過程を説明するための図である。FIG. 6 is a diagram for explaining a preloading process of a text-based subtitle stream in the playback apparatus according to the present invention. 本発明による再生装置における台詞プレゼンテーション単位(DPU)が再生される過程を説明するための図である。FIG. 10 is a diagram for explaining a process in which a dialogue presentation unit (DPU) is played in the playback device according to the present invention. 本発明による再生装置におけるテキスト基盤のサブタイトルストリームが動映像データと同期化されて出力される過程を説明するための図である。FIG. 6 is a diagram illustrating a process in which a text-based subtitle stream is output in synchronization with moving image data in the playback apparatus according to the present invention. 本発明による再生装置におけるテキスト基盤のサブタイトルストリームが画面に出力される過程を説明するための図である。FIG. 6 is a diagram for explaining a process of outputting a text-based subtitle stream on a screen in the playback apparatus according to the present invention. 本発明による再生装置におけるテキスト基盤のサブタイトルストリームをレンダリングする過程を説明するための図である。FIG. 10 is a diagram illustrating a process of rendering a text-based subtitle stream in the playback apparatus according to the present invention. 本発明によるテキスト基盤のサブタイトルストリームを再生する再生装置に備えられた再生装置状態レジスタを示す図である。FIG. 6 is a diagram illustrating a playback device status register provided in a playback device for playing back a text-based subtitle stream according to the present invention. 本発明によるテキスト基盤のサブタイトルストリームを再生する方法を示すフローチャートである。3 is a flowchart illustrating a method for reproducing a text-based subtitle stream according to the present invention.

以下、添付した図面を参照して、本発明の望ましい実施形態について詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の望ましい実施形態による記録媒体(例えば、図2に示すような媒体230)に記録されたマルチメディアデータ構造を説明するための図である。図1を参照するに、本発明による記録媒体は、マルチメディア映像ストリームのマルチメディアデータ構造100を管理するために、複数の層構造からなっていることが分かる。マルチメディアデータ構造100は、マルチメディア映像の記録単位であるクリップ110、マルチメディア映像の再生単位であるプレイリスト120、マルチメディア映像を再生するためのナビゲーション命令語を含むムービーオブジェクト130、及び最初に再生されるムービーオブジェクト並びにムービーオブジェクト130の各タイトルを指定するインデックステーブル140を含む。   FIG. 1 is a view illustrating a multimedia data structure recorded on a recording medium (for example, a medium 230 as shown in FIG. 2) according to an embodiment of the present invention. Referring to FIG. 1, the recording medium according to the present invention has a plurality of layer structures in order to manage the multimedia data structure 100 of the multimedia video stream. The multimedia data structure 100 includes a clip 110 that is a recording unit of multimedia video, a playlist 120 that is a playback unit of multimedia video, a movie object 130 that includes navigation commands for playing back the multimedia video, and It includes an index table 140 for designating the movie object to be reproduced and each title of the movie object 130.

クリップ110は、高画質映画のためのAVデータストリームと、該当AVデータストリームの属性とを一つのオブジェクトとして具現したものである。AVデータストリームをクリップAVストリーム112と呼び、AVデータストリームの属性情報をクリップインフォメーション114と呼ぶ。例えば、AVデータストリームは、MPEG(Motion Picture Experts group)などの標準によって圧縮されうる。しかし、このようなクリップ110は、必ずしも圧縮されたAVデータストリーム112を必要とするものではない。また、クリップインフォメーション114は、AVデータストリーム112のオーディオ/ビデオ特性、ランダムに接近可能なエントリポイントの位置情報を記録したエントリポイントマップなどを含みうる。   The clip 110 embodies an AV data stream for a high-quality movie and an attribute of the corresponding AV data stream as one object. The AV data stream is called a clip AV stream 112, and the attribute information of the AV data stream is called clip information 114. For example, the AV data stream may be compressed according to a standard such as MPEG (Motion Picture Experts group). However, such a clip 110 does not necessarily require a compressed AV data stream 112. Further, the clip information 114 may include an audio / video characteristic of the AV data stream 112, an entry point map in which position information of randomly accessible entry points is recorded, and the like.

プレイリスト120は、前記クリップ110の再生区間の集合であって、各再生区間をプレイアイテム122という。ムービーオブジェクト130は、ナビゲーション命令語プログラムからなり、このようなナビゲーション命令語は、プレイリスト120の再生を開始するか、ムービーオブジェクト130間の転換、あるいはユーザーの選好によってプレイリスト120の再生を管理する。   The playlist 120 is a set of playback sections of the clip 110, and each playback section is called a play item 122. The movie object 130 is composed of a navigation instruction word program, and such navigation instruction word starts reproduction of the playlist 120 or manages reproduction of the playlist 120 by switching between the movie objects 130 or by user preference. .

インデックステーブル140は、複数のタイトルとメニューとを定義するための最上位層のテーブルであって、全てのタイトルとメニューとの開始位置情報とを含んでいて、タイトル検索やメニューコールのようなユーザー入力を通じて選択されたタイトルやメニューを再生できる。また、記録媒体が再生装置に挿入された時、自動的に実行される最初再生されるタイトルまたはメニューの開始位置情報も含む。   The index table 140 is a top-level table for defining a plurality of titles and menus. The index table 140 includes start position information for all titles and menus. Play titles and menus selected through input. It also includes start position information of a title or menu that is played first when the recording medium is inserted into the playback device.

このうち、マルチメディア映像が圧縮符号化されたクリップAVストリームの構造を図2を参照して説明する。図2は、図1に示されたAVデータストリーム210の構造と本発明によるテキスト基盤のサブタイトルストリーム220とを例示した図である。図2を参照するに、前記のようなビットマップ基盤の字幕データの問題点を解決するために、本発明によるテキスト基盤のサブタイトルストリーム220が提供され、これは、AVデータストリーム210とは別途に分離されてDVDなどの記録媒体230に保存される。AVデータストリーム210は、ビデオストリーム202、オーディオストリーム204、サブタイトルデータの提供のためのプレゼンテーショングラフィックストリーム206、及びユーザーとのインタラクションのためのボタンやメニューを提供するためのインタラクティブグラフィックストリーム208を含み、これらは、AVデータストリームとして知られた動映像メインストリームに多重化されて記録媒体230に記録される。   Among these, the structure of a clip AV stream in which multimedia video is compression-encoded will be described with reference to FIG. FIG. 2 is a diagram illustrating the structure of the AV data stream 210 shown in FIG. 1 and the text-based subtitle stream 220 according to the present invention. Referring to FIG. 2, a text-based subtitle stream 220 according to the present invention is provided in order to solve the problem of the bitmap-based caption data as described above, which is separately from the AV data stream 210. It is separated and stored in a recording medium 230 such as a DVD. The AV data stream 210 includes a video stream 202, an audio stream 204, a presentation graphic stream 206 for providing subtitle data, and an interactive graphic stream 208 for providing buttons and menus for user interaction. Are multiplexed on a moving picture main stream known as an AV data stream and recorded on the recording medium 230.

本発明によるテキスト基盤のサブタイトルデータ220は、記録媒体230に記録されるマルチメディア映像のサブタイトルまたは字幕を提供するためのデータを言い、XML(eXtended Markup Language)のようなマークアップ言語を利用して具現できる。しかし、マルチメディア映像のサブタイトルまたは字幕は、2進データを利用して提供されることもある。以下では、2進データを利用してマルチメディア映像の字幕を提供するテキスト基盤のサブタイトルデータを“テキスト基盤のサブタイトルストリーム”と略称する。サブタイトルデータまたは字幕データの提供のためのプレゼンテーショングラフィックストリーム206も、画面にサブタイトル(または字幕)をディスプレイするために、ビットマップ基盤のサブタイトルデータを提供する。   The text-based subtitle data 220 according to the present invention refers to data for providing a subtitle or subtitle of a multimedia video recorded on the recording medium 230, and uses a markup language such as XML (eXtended Markup Language). Can be implemented. However, subtitles or subtitles of multimedia video may be provided using binary data. In the following, text-based subtitle data that provides subtitles for multimedia video using binary data is abbreviated as “text-based subtitle stream”. The presentation graphic stream 206 for providing subtitle data or subtitle data also provides bitmap-based subtitle data in order to display the subtitle (or subtitle) on the screen.

テキスト基盤のサブタイトルデータストリーム220は、AVデータストリーム210と別途に記録され、AVデータストリーム210と多重化されないため、テキスト基盤のサブタイトルデータストリーム220のサイズは制限されない。結果的に、複数の言語を利用したサブタイトルまたは字幕が提供できる。また、テキスト基盤のサブタイトルデータストリーム220は、容易に便利に生成されかつ効果的に編集できる。   Since the text-based subtitle data stream 220 is recorded separately from the AV data stream 210 and is not multiplexed with the AV data stream 210, the size of the text-based subtitle data stream 220 is not limited. As a result, subtitles or subtitles using a plurality of languages can be provided. Also, the text-based subtitle data stream 220 can be easily and conveniently generated and effectively edited.

テキスト基盤のサブタイトルストリーム220は、ビットマップグラフィックイメージに変換されて、マルチメディア映像上にオーバーレイされて画面に出力される。このようにテキスト基盤のデータをグラフィック基盤のビットマップイメージに変換する過程をレンダリングという。テキスト基盤サブタイトルストリーム220には、字幕テキストをレンダリングするために必要な情報が含まれる。   The text-based subtitle stream 220 is converted into a bitmap graphic image, overlaid on the multimedia video, and output to the screen. The process of converting text-based data into a graphic-based bitmap image is called rendering. The text-based subtitle stream 220 includes information necessary for rendering subtitle text.

以下では、レンダリング情報が含まれたテキスト基盤のサブタイトルストリーム220の構造を図3を参照して詳細に説明する。図3は、本発明によるテキスト基盤のサブタイトルストリーム220のデータ構造を例示した図である。   Hereinafter, the structure of the text-based subtitle stream 220 including rendering information will be described in detail with reference to FIG. FIG. 3 is a diagram illustrating a data structure of a text-based subtitle stream 220 according to the present invention.

図3を参照するに、本発明の一実施形態によるテキスト基盤のサブタイトルストリーム220は、台詞スタイル単位(Dialog Style Unit:以下DSUと略称する)310と、複数の台詞プレゼンテーション単位(Dialog Presentation Unit:以下DPUと略称する)320ないし340とを含む。台詞スタイル単位(DSU)または台詞プレゼンテーション単位(DPU)を台詞単位ともいう。本発明によるテキスト基盤のサブタイトルストリーム220を構成する台詞単位は、パケット化された要素ストリーム(Packetized Elementary Stream:以下PESと略称する)、すなわちPESパケット350の形態で記録される。また、テキスト基盤のサブタイトルストリームのPESは、伝送パケット362(Transport Packet:以下TPと略称する)単位で記録され伝送される。このような伝送パケットの連続を伝送ストリーム(Transport Stream:以下TSと略称する)という。   Referring to FIG. 3, a text-based subtitle stream 220 according to an embodiment of the present invention includes a dialog style unit (hereinafter referred to as DSU) 310 and a plurality of dialog presentation units (hereinafter referred to as “Dialog Presentation Unit”). 320 to 340) (abbreviated as DPU). Dialogue style units (DSU) or dialogue presentation units (DPU) are also called dialogue units. Dialogue units constituting the text-based subtitle stream 220 according to the present invention are recorded in the form of a packetized elementary stream (hereinafter abbreviated as PES), that is, a PES packet 350. The PES of the text-based subtitle stream is recorded and transmitted in units of transmission packets 362 (Transport Packet: hereinafter abbreviated as TP). Such a series of transmission packets is called a transport stream (hereinafter abbreviated as TS).

しかし、本発明の一実施形態によるテキスト基盤のサブタイトルストリーム220は、図2に示したように、AVデータストリーム210と共に多重化されず、別途のTSとして記録媒体230に記録される。   However, as shown in FIG. 2, the text-based subtitle stream 220 according to an embodiment of the present invention is not multiplexed with the AV data stream 210 and is recorded on the recording medium 230 as a separate TS.

また、図3を参照するに、テキスト基盤のサブタイトルストリーム220に含まれた一つのPESパケット350は一つの台詞単位を記録する。テキスト基盤のサブタイトルストリーム220は、最初に位置した一つのDSUと、以後に位置した複数のDPUとを含む。DSUは、マルチメディア映像が再生される画面上に表示される字幕で台詞の出力スタイルを指定する情報を含む。一方、複数のDPUは、出力される台詞内容に関するテキスト情報等とそれぞれの出力時間に関する情報とを含む。   Also, referring to FIG. 3, one PES packet 350 included in the text-based subtitle stream 220 records one dialogue unit. The text-based subtitle stream 220 includes one DSU positioned first and a plurality of DPUs positioned thereafter. The DSU includes information that specifies the output style of the dialogue with subtitles displayed on the screen on which the multimedia video is reproduced. On the other hand, the plurality of DPUs include text information and the like related to the output line contents and information related to each output time.

図4は、図3に示されたデータ構造を有するテキスト基盤のサブタイトルストリーム220を具現した一実施形態を示す図である。図4を参照するに、本発明の一実施形態によるテキスト基盤のサブタイトルストリーム220は、一つのDSU410と複数個のDPU420とを含む。本実施形態では、DPUの数をnum_of_dialog_presentation_unitとして定義している。しかし、DPUの数を別途に指定しなくてもよい。例えば、while(processed_length<end_of_file)のような構文を使用する場合がその例である。   FIG. 4 is a view illustrating an embodiment of a text-based subtitle stream 220 having the data structure shown in FIG. Referring to FIG. 4, a text-based subtitle stream 220 according to an embodiment of the present invention includes one DSU 410 and a plurality of DPUs 420. In the present embodiment, the number of DPUs is defined as num_of_dialog_presentation_unit. However, the number of DPUs need not be specified separately. For example, a case of using a syntax such as “while” (processed_length <end_of_file) is an example.

以下では、DSU及びDPUのさらに具体的なデータ構造を図5を参照して説明する。図5は、図3に示されたDSU310を具現した一実施形態を示す図である。   Hereinafter, a more specific data structure of the DSU and DPU will be described with reference to FIG. FIG. 5 is a diagram illustrating an embodiment in which the DSU 310 illustrated in FIG. 3 is implemented.

図5を参照するに、台詞スタイル単位310は、字幕に出力される台詞の出力スタイル情報を集めた台詞スタイル情報の集合であるdialog_styleset()510が定義されている。台詞スタイル単位310は、字幕に台詞が表示される領域の位置に関する情報や、台詞のレンダリングに必要な情報や、ユーザーが制御できるスタイルに関する情報などを含む。具体的なデータの内容は後述する。   Referring to FIG. 5, dialog style unit 310 defines dialog_styleset () 510 which is a set of dialog style information obtained by collecting output style information of dialog output to subtitles. The dialogue style unit 310 includes information related to the position of a region in which dialogue is displayed in subtitles, information necessary for dialogue rendering, information relating to a style that can be controlled by the user, and the like. Specific contents of the data will be described later.

図6は、本発明の一実施形態によるDSUのデータ構造の一例を説明するための図である。図6を参照するに、DSU310は、パレット集合610と領域スタイル集合620とを含む。パレット集合610は、字幕に使われる色相を定義した複数の色相パレットの集合である。パレット集合に含まれた色相の組合わせまたは透明度などの色相情報は、DSU以後に位置する複数のDPUに全て適用できる。   FIG. 6 is a diagram for explaining an example of a data structure of a DSU according to an embodiment of the present invention. Referring to FIG. 6, the DSU 310 includes a palette set 610 and a region style set 620. The palette set 610 is a set of a plurality of hue palettes that define hues used for subtitles. Hue information such as a combination of hues or transparency included in the palette set can be applied to a plurality of DPUs located after the DSU.

領域スタイル集合620は、字幕を構成する各台詞の出力スタイル情報の集合である。各領域スタイルは、台詞が表示される位置を示す領域情報622と各台詞のテキストに適用される出力スタイルを表すテキストスタイル情報624とを含む。また、ユーザーが任意に変更できるスタイルを表すユーザー変更可能なスタイル集合626をさらに含んでもよい。   The area style set 620 is a set of output style information for each line constituting the caption. Each area style includes area information 622 indicating a position where a dialogue is displayed and text style information 624 indicating an output style applied to the text of each dialogue. Further, a user changeable style set 626 representing a style that can be arbitrarily changed by the user may be further included.

図7は、本発明の他の実施形態によるDSUのデータ構造の一例を説明するための図である。図7を参照するに、図6とは異なってパレット集合610が含まれていない場合を示す。すなわち、DSUに色相パレット集合を定義せず、後述するDPUにパレット集合610を定義する場合である(図12A及び図12B参照)。各領域スタイル710のデータ構造は、図6で説明したところと同様である。   FIG. 7 is a diagram for explaining an example of a data structure of a DSU according to another embodiment of the present invention. Referring to FIG. 7, unlike FIG. 6, a case where the palette set 610 is not included is shown. That is, a hue palette set is not defined in the DSU, but a palette set 610 is defined in the DPU described later (see FIGS. 12A and 12B). The data structure of each area style 710 is the same as that described with reference to FIG.

図8は、図6または図7に示されたDSUを具現した一実施形態を示す図である。図8及び図6を参照するに、本発明による台詞スタイル単位310には、パレット集合860、610と複数の領域スタイル820、620とが含まれる。前記のようにパレット集合610は、字幕に使われる色相を定義した複数の色相パレットの集合である。パレット集合に含まれた色相の組合わせまたは透明度などの色相情報は、DSU以後に位置する複数のDPUに全て適用できる。   FIG. 8 is a diagram illustrating an embodiment in which the DSU illustrated in FIG. 6 or 7 is implemented. Referring to FIGS. 8 and 6, the dialogue style unit 310 according to the present invention includes palette sets 860 and 610 and a plurality of area styles 820 and 620. As described above, the palette set 610 is a set of a plurality of hue palettes that define hues used for subtitles. Hue information such as a combination of hues or transparency included in the palette set can be applied to a plurality of DPUs located after the DSU.

一方、各領域スタイル820、620は、字幕が出力されるウィンドウ領域に関する情報を示す領域情報830、622を含み、領域情報は、字幕が表示されるウィンドウ領域のX座標、Y座標、幅、高さ、及び背景色などの情報を含む。   On the other hand, each of the area styles 820 and 620 includes area information 830 and 622 indicating information related to the window area in which the caption is output. The area information includes the X coordinate, the Y coordinate, the width, and the height of the window area in which the caption is displayed. And information such as background color.

また、各領域スタイル820、620は、各台詞のテキストに適用される出力スタイルを示すテキストスタイル情報840、624を含む。すなわち、前記ウィンドウ領域内で台詞のテキストが出力される位置のX座標及びY座標、左から右に、上から下にこのようなテキストの出力方向、整列、行間、参照するフォントの識別子、ボールド体またはイタリック体のようなフォントスタイル、フォントのサイズ、フォントの色相に関する情報が含まれうる。   Each area style 820 and 620 includes text style information 840 and 624 indicating an output style applied to the text of each line. That is, the X and Y coordinates of the position where the dialogue text is output in the window area, from left to right, from top to bottom, the output direction of such text, alignment, line spacing, reference font identifier, bold Information about font style, font size, font hue, such as font or italic may be included.

さらに、各領域スタイル820、620は、ユーザーが任意に変更できるスタイルを示すユーザー変更可能なスタイル集合850、626を含みうる。ユーザー変更可能なスタイル集合850、626を含むかどうかは選択的である。ユーザー変更可能なスタイル集合850、626は、基本的に各台詞のテキストに適用されるテキスト出力スタイル情報840、624のうち、ウィンドウ領域の位置とテキストの出力位置、フォントのサイズ及び行間に対する変更情報が含まれうる。各変更情報は、基本的に各台詞のテキストに適用される出力スタイルに関する情報840、624に対する相対的な増減値として表現できる。   Further, each region style 820, 620 may include a user-modifiable style set 850, 626 indicating styles that the user can arbitrarily change. Whether to include user-modifiable style sets 850, 626 is optional. The user-changeable style sets 850 and 626 are basically the text output style information 840 and 624 applied to the text of each dialogue, and the change information for the window area position, the text output position, the font size, and the line spacing. Can be included. Each change information can be expressed as a relative increase / decrease value with respect to information 840 and 624 regarding the output style that is basically applied to the text of each line.

整理すると、スタイル関連情報は、領域スタイル820、620に定義されたスタイル情報(region_style)620、後述する字幕の一部分を強調するためのインラインスタイル情報(inline_style)1510、及びユーザーが変更できるスタイル情報(use_changable_style)850の3種類があり、これらを適用する順序は次の通りである。   When organized, the style-related information includes style information (region_style) 620 defined in the area styles 820 and 620, inline style information (inline_style) 1510 for emphasizing a part of subtitles, which will be described later, and style information that can be changed by the user ( use_changable_style) 850, and the order in which these are applied is as follows.

1)最も基本的には、領域スタイルに定義された領域スタイル情報620が適用される。   1) Most basically, the area style information 620 defined in the area style is applied.

2)もし、インラインスタイル情報があれば、領域スタイル情報が適用された部分に重なって字幕テキストの一部分を強調したインラインスタイル情報1510が適用される。   2) If there is inline style information, the inline style information 1510 in which a part of the subtitle text is emphasized is applied to the part to which the area style information is applied.

3)もし、ユーザーが変更できるスタイル情報850がある場合には、この情報を最終的に適用する。ユーザー変更可能なスタイル情報の存在は選択的である。   3) If there is style information 850 that can be changed by the user, this information is finally applied. The presence of user-modifiable style information is selective.

一方、各台詞のテキストに適用されるテキストスタイル情報840、624のうちフォントの識別子(font_id)842が参照するフォント情報ファイルは、次の通り定義できる。   On the other hand, the font information file referred to by the font identifier (font_id) 842 among the text style information 840 and 624 applied to the text of each dialogue can be defined as follows.

図9Aは、本発明の一実施形態であって、図8のフォント情報842が参照する複数のフォント集合を含むクリップインフォメーションファイル910を示す図である。   9A is a diagram showing a clip information file 910 including a plurality of font sets referred to by the font information 842 in FIG. 8 according to an embodiment of the present invention.

図9A、図8、及び図1を参照するに、クリップインフォメーション910、110ファイルに含まれるストリームコーディングインフォメーション構造体であるStreamCodingInfo()930には、本発明による記録媒体に記録された各種ストリームに関する情報が含まれている。すなわち、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックストリーム、インタラクティブグラフィックストリーム、及びテキスト基盤のサブタイトルストリームなどに関する情報が含まれる。特に、テキスト基盤のサブタイトルストリームについては、字幕を表示する言語に関する情報(textST_language_code)932が含まれうる。また、図8に示された参照されるフォントの識別子を示すfont_id842、934に対応するフォント名936と、フォント情報が保存されたファイル名938とが定義されうる。ここで定義された参照されるフォントの識別子に対応するフォントファイルを探す方法は、図10で後述する。   Referring to FIG. 9A, FIG. 8 and FIG. 1, StreamCodingInfo () 930 which is a stream coding information structure included in clip information 910 and 110 files includes information on various streams recorded on the recording medium according to the present invention. It is included. That is, information on a video stream, an audio stream, a presentation graphic stream, an interactive graphic stream, a text-based subtitle stream, and the like is included. In particular, for a text-based subtitle stream, information (textST_language_code) 932 regarding a language for displaying subtitles may be included. Also, a font name 936 corresponding to font_id 842 and 934 indicating the identifier of the referenced font shown in FIG. 8 and a file name 938 in which font information is stored can be defined. A method for searching for a font file corresponding to the identifier of the referenced font defined here will be described later with reference to FIG.

図9Bは、本発明の他の実施形態であって、図8のフォント情報842が参照する複数のフォント集合を含むクリップインフォメーションファイルを示す図である。図9Bを参照するに、クリップインフォメーション910、110ファイル内にClipInfo()という構造体を定義できる。この構造体に図8のフォント情報842が参照する複数のフォント集合を定義できる。すなわち、図8に示された参照されるフォントの識別子を表すfont_id842に対応するフォントファイル名952が指定される。ここで定義された参照されるフォントの識別子に対応するフォントファイルを探す方法は、次の通りである。   FIG. 9B is a diagram showing a clip information file including a plurality of font sets referred to by the font information 842 in FIG. 8 according to another embodiment of the present invention. Referring to FIG. 9B, a structure called ClipInfo () can be defined in the clip information 910 and 110 files. A plurality of font sets referenced by the font information 842 in FIG. 8 can be defined in this structure. That is, the font file name 952 corresponding to the font_id 842 indicating the identifier of the referenced font shown in FIG. 8 is designated. A method of searching for a font file corresponding to the identifier of the referenced font defined here is as follows.

図10は、図9A及び図9Bでフォントファイル名938または952が参照する複数のフォントファイルの位置を示すための図である。図10を参照するに、本発明による記録媒体に記録されたマルチメディア映像に関連するファイルのディレクトリ構造が示される。特に、示されたディレクトリ構造を利用すれば、補助データ(AUXDATA)ディレクトリに保存された11111.fontまたは99999.font1010または1020のようなフォントファイルの位置を容易に見つけることができる。   FIG. 10 is a diagram showing the positions of a plurality of font files referenced by the font file names 938 or 952 in FIGS. 9A and 9B. Referring to FIG. 10, a directory structure of files related to multimedia images recorded on a recording medium according to the present invention is shown. In particular, if the directory structure shown is used, 11111.11 stored in the auxiliary data (AUXDATA) directory. font or 99999. The location of a font file such as font 1010 or 1020 can be easily found.

一方、以下では、台詞単位を構成するDPUの構造について図11を参照して、詳細に説明する。   On the other hand, in the following, the structure of the DPU constituting the dialogue unit will be described in detail with reference to FIG.

図11は、図3に示されたDPU320のデータ構造の一実施形態を説明するための図である。図11及び図3を参照するに、画面に出力される台詞内容に関するテキスト情報と出力時間に関する情報とを含むDPU320は、台詞が出力される時間を表す時間情報1110、参照される色相パレットを指定するパレット参照情報1120、及び出力される台詞領域情報1130が含まれる。特に、出力される台詞領域情報1130は、台詞に適用される出力スタイルを指定するスタイル参照情報1132と実際出力される台詞のテキストを表す台詞テキスト情報1134とを含む。この場合、パレット参照情報1120によって指示される色相パレット集合は、DSUで定義されたと仮定する(図6の610参照)。   FIG. 11 is a diagram for explaining an embodiment of the data structure of the DPU 320 shown in FIG. Referring to FIGS. 11 and 3, the DPU 320 including the text information about the content of the dialogue output on the screen and the information about the output time specifies the time information 1110 indicating the time when the dialogue is output, and the hue palette to be referred to. Palette reference information 1120 to be output, and dialogue area information 1130 to be output. In particular, the output dialogue area information 1130 includes style reference information 1132 that specifies an output style applied to the dialogue, and dialogue text information 1134 that represents the text of the dialogue that is actually output. In this case, it is assumed that the hue palette set indicated by the palette reference information 1120 is defined by the DSU (see 610 in FIG. 6).

一方、図12Aは、図3に示されたDPU320のデータ構造の他の実施形態を説明するための図である。   On the other hand, FIG. 12A is a diagram for explaining another embodiment of the data structure of the DPU 320 shown in FIG.

図12A及び図3を参照するに、DPU320は、台詞が画面に出力される時間を表す時間情報1210、色相パレット集合を定義するパレット集合1220、及び出力される台詞領域情報1230が含まれる。この場合は、パレット集合1220が図11のようにDSUに定義されず、直接DPUに定義された場合を示す。   Referring to FIGS. 12A and 3, the DPU 320 includes time information 1210 representing the time when dialogue is output to the screen, a palette set 1220 defining a hue palette set, and output dialogue area information 1230. In this case, the palette set 1220 is not defined in the DSU as shown in FIG. 11, but is directly defined in the DPU.

一方、図12Bは、図3に示されたDPU320のデータ構造の他の実施形態を説明するための図である。   On the other hand, FIG. 12B is a diagram for explaining another embodiment of the data structure of the DPU 320 shown in FIG.

図12Bを参照するに、DPU320は、台詞が出力される時間を表す時間情報1250、色相アップデートフラグ1260、色相アップデートフラグが1に設定された場合に使われる色相パレット集合1270、及び出力される台詞領域情報1280が含まれる。この場合は、パレット集合1270が図11のようにDSUにも定義され、直接DPUにも保存された場合を示す。特に、連続再生を利用するフェードイン/アウトのような効果を表すために、DSUに定義された基本パレット集合以外に、フェードイン/アウトを表現するために使われる色相パレット集合をこのようにDPUに定義し、色相アップデートフラグ1260を1に設定できる。これについての具体的な説明は、以下図19で詳述する。   Referring to FIG. 12B, the DPU 320 includes time information 1250 indicating a time when a dialogue is output, a hue update flag 1260, a hue palette set 1270 used when the hue update flag is set to 1, and an output dialogue. Area information 1280 is included. In this case, the palette set 1270 is defined in the DSU as shown in FIG. 11 and directly stored in the DPU. In particular, in order to express effects such as fade-in / out using continuous playback, in addition to the basic palette set defined in the DSU, a hue palette set used to express fade-in / out is thus set in the DPU. The hue update flag 1260 can be set to 1. This will be described in detail with reference to FIG.

図13は、図11、図12A、図12Bに示されたDPU320を具現した一実施形態を示す図である。図13、図11、図12A、及び図12Bを参照するに、DPUには、台詞が画面に出力される時間を表す時間情報1110として台詞開始時間情報(dialog_start_PTS)及び台詞終了時間情報(dialog_end_PTS)1310が含まれる。また、パレット参照情報1120として台詞パレット識別子1320(dialog_palette_id)が含まれる。図12Aの場合には、パレット参照情報の代わりに色相パレット集合1220が含まれうる。出力される台詞領域情報1230としては、台詞テキスト情報(region_subtitle)1334が含まれ、ここに適用される出力スタイルを指定するために、領域スタイル識別子(region_style_id)1332が含まれうる。図13に示された例は、DPUの一実施形態に過ぎず、それ以外にも図11ないし図12Bのデータ構造を有するDPUを多様に変形して具現できる。   FIG. 13 is a diagram illustrating an embodiment in which the DPU 320 illustrated in FIGS. 11, 12A, and 12B is implemented. Referring to FIG. 13, FIG. 11, FIG. 12A, and FIG. 12B, the DPU has dialogue start time information (dialog_start_PTS) and dialogue end time information (dialog_end_PTS) as time information 1110 representing the time when dialogue is output to the screen. 1310 is included. Further, the dialogue reference identifier 1120 includes a dialogue palette identifier 1320 (dialog_palette_id). In the case of FIG. 12A, a hue palette set 1220 may be included instead of the palette reference information. The dialogue area information 1230 to be output includes dialogue text information (region_subtitle) 1334, and an area style identifier (region_style_id) 1332 may be included to specify an output style to be applied thereto. The example shown in FIG. 13 is merely an embodiment of the DPU, and other than that, the DPU having the data structure of FIGS. 11 to 12B can be variously modified and implemented.

図14は、図13に示された台詞テキスト情報(region_subtitle)1334のデータ構造を説明するための図である。図14を参照するに、台詞テキスト情報(図11の1134、図12Aの1234、図12Bの1284、及び図13の1334)は、台詞の一部分を強調するための出力スタイルとして、インラインスタイル情報1410と台詞テキスト1420とを含む。   FIG. 14 is a diagram for explaining the data structure of the dialogue text information (region_subtitle) 1334 shown in FIG. Referring to FIG. 14, dialogue text information (1134 in FIG. 11, 1234 in FIG. 12A, 1284 in FIG. 12B, and 1334 in FIG. 13) is inline style information 1410 as an output style for emphasizing a part of the dialogue. And dialogue text 1420.

図15は、図13の台詞テキスト情報1334を具現した一実施形態を示す図である。図15には、インラインスタイル情報(inline_style)1510と台詞テキスト(text_string)1520とが具現された例が示されている。また、示された実施形態には、インラインスタイルの終了を知らせる情報がさらに含まれることが望ましい。インラインスタイルの終了部分を定義しなければ、一度指定されたインラインスタイルが製作者の意図とは違って、以後にも続けて適用されうるからである。   FIG. 15 is a diagram illustrating an embodiment in which the dialogue text information 1334 of FIG. 13 is implemented. FIG. 15 shows an example in which inline style information (inline_style) 1510 and dialogue text (text_string) 1520 are implemented. In addition, it is desirable that the illustrated embodiment further includes information indicating the end of the inline style. This is because if the end part of the inline style is not defined, the inline style once specified is different from the intention of the producer and can be applied subsequently.

一方、図16は、連続的なDPUを連続的に再生するための制限事項を説明するための図である。   On the other hand, FIG. 16 is a diagram for explaining a restriction for continuously playing back a continuous DPU.

図16及び図13を参照するに、前記複数のDPUが連続的(Continous)に再生される必要がある場合には、次のような制限条件が必要である。   Referring to FIGS. 16 and 13, when the plurality of DPUs need to be reproduced continuously, the following restriction condition is necessary.

1)DPUに定義された台詞開始時間情報(dialog_start_PTS)1310は、台詞オブジェクトが後述するグラフィック平面に出力され始める時間を示す。   1) Dialog start time information (dialog_start_PTS) 1310 defined in the DPU indicates a time at which a dialog object starts to be output to a graphic plane described later.

2)DPUに定義された台詞終了時間情報(dialog_end_PTS)1310は、後述するテキスト基盤のサブタイトルを処理するデコーダをリセットさせる時間を示す。   2) Dialog end time information (dialog_end_PTS) 1310 defined in the DPU indicates a time for resetting a decoder that processes a text-based subtitle described later.

3)複数個の前記DPUが連続的に再生される必要がある場合には、現在のDPUの台詞終了時間情報(dialog_end_PTS)が次に連続的に再生されるDPUの台詞開始時間情報(dialog_start_PTS)と同一でなければならない。すなわち、図でDPU#2とDPU#3とが連続に再生されるためには、DPU#2に含まれた台詞終了時間情報がDPU#3に含まれた台詞開始時間情報と同一でなければならない。   3) When a plurality of the DPUs need to be reproduced continuously, the dialogue end time information (dialog_end_PTS) of the current DPU is the next DPU dialogue start time information (dialog_start_PTS) to be reproduced continuously. Must be identical. That is, in order for DPU # 2 and DPU # 3 to be played back continuously in the figure, the line end time information included in DPU # 2 must be the same as the line start time information included in DPU # 3. Don't be.

一方、本発明によるDSUは、次のような制限条件を満たすことが望ましい。   On the other hand, the DSU according to the present invention preferably satisfies the following limiting conditions.

1)テキスト基盤のサブタイトルストリーム220には、一つのDSUが含まれる。   1) The text-based subtitle stream 220 includes one DSU.

2)全領域スタイル(region_style)に含まれるユーザーが変更できるスタイル情報(user_control_style)の数は、同一でなければならない。   2) The number of style information (user_control_style) that can be changed by the user included in the whole area style (region_style) must be the same.

一方、本発明によるDPUは、次のような制限条件を満たすことが望ましい。   On the other hand, the DPU according to the present invention preferably satisfies the following restriction conditions.

1)最大限2個の字幕のためのウィンドウ領域が定義されなければならない。   1) A window area for a maximum of two subtitles must be defined.

以下では、詳述した本発明による記録媒体に記録されるテキスト基盤のサブタイトルストリームのデータ構造に基づいて、本発明による再生装置の構造を説明する。   Hereinafter, the structure of the playback apparatus according to the present invention will be described based on the data structure of the text-based subtitle stream recorded on the recording medium according to the present invention described in detail.

図17は、本発明によるテキスト基盤のサブタイトルストリームを再生するための再生装置の構造を説明する図である。図17を参照するに、再生装置1700は、フォントファイルの保存のためのフォントプレローディングバッファ(FPB)1710、及びテキスト基盤のサブタイトルファイルの保存のためのサブタイトルプレローディングバッファ(SPB)1712を含むバッファ部と、記録媒体に既に記録されたテキスト基盤のサブタイトルストリームをデコーディングして再生するサブタイトルデコーダ1730を備える。また、グラフィック平面(GP)1750及び色相参照テーブル(CLUT)1760を備えうる。   FIG. 17 is a diagram illustrating the structure of a playback apparatus for playing back a text-based subtitle stream according to the present invention. Referring to FIG. 17, the playback apparatus 1700 includes a font preloading buffer (FPB) 1710 for storing font files and a subtitle preloading buffer (SPB) 1712 for storing text-based subtitle files. And a subtitle decoder 1730 for decoding and reproducing a text-based subtitle stream already recorded on the recording medium. Further, a graphic plane (GP) 1750 and a hue reference table (CLUT) 1760 may be provided.

具体的に、バッファ部は、テキスト基盤のサブタイトルデータストリーム220がプレローディングされるサブタイトルプレローディングバッファ(SPB)1710と、フォント情報がプレローディングされるフォントプレローディングバッファ(FPB)1712とを含む。   Specifically, the buffer unit includes a subtitle preloading buffer (SPB) 1710 in which the text-based subtitle data stream 220 is preloaded and a font preloading buffer (FPB) 1712 in which font information is preloaded.

サブタイトルデコーダ1730は、テキストサブタイトル処理器1732、台詞構成バッファ(DCB)1734、台詞バッファ(DB)1736、テキストサブタイトルレンダラー1738、台詞プレゼンテーション制御器1740、及びビットマップオブジェクトバッファ(BOB)1742を含む。   The subtitle decoder 1730 includes a text subtitle processor 1732, a dialogue configuration buffer (DCB) 1734, a dialogue buffer (DB) 1736, a text subtitle renderer 1738, a dialogue presentation controller 1740, and a bitmap object buffer (BOB) 1742.

テキストサブタイトル処理器1732は、テキストサブタイトルプレローディングバッファ(SPB)1710からテキスト基盤のサブタイトルデータストリーム220を伝達されて、前記DSUに含まれたスタイル関連情報と、DPUに含まれた台詞の出力時間情報とを台詞構成バッファ(DCB)に伝達し、DPUに含まれた台詞テキスト情報は、台詞バッファ(DB)に伝達する。   The text subtitle processor 1732 receives the text-based subtitle data stream 220 from the text subtitle preloading buffer (SPB) 1710 and outputs style related information included in the DSU and output time information of dialogue included in the DPU. Are transmitted to the dialogue structure buffer (DCB), and the dialogue text information included in the DPU is transmitted to the dialogue buffer (DB).

プレゼンテーション制御器1740は、台詞構成バッファ(DCB)1734に含まれたスタイル関連情報を利用してテキストレンダラー1738を制御し、台詞出力時間情報を利用してビットマップオブジェクトバッファ(BOB)にレンダリングされたビットマップイメージが、グラフィック平面1750に出力される時間を制御する。   The presentation controller 1740 controls the text renderer 1738 using the style related information included in the dialogue composition buffer (DCB) 1734, and is rendered in the bitmap object buffer (BOB) using the dialogue output time information. Controls the time that the bitmap image is output to the graphics plane 1750.

テキストサブタイトルレンダラー1738は、プレゼンテーション制御器1740の制御を受けて、台詞バッファ(DB)1736に保存された台詞テキスト情報にフォントプレローディングバッファ(FPB)1712にプレローディングされたフォント情報のうち該当するフォント情報を適用して、台詞テキスト情報をビットマップイメージに転換、すなわちレンダリングする。レンダリングされたビットマップイメージは、ビットマップオブジェクトバッファ(BOB)に保存され、プレゼンテーション制御器1740の制御を受けてグラフィック平面(GP)1750に出力される。この時、色相参照テーブル(CLUT)1760を参照してDSUに指定された色相が適用される。   Under the control of the presentation controller 1740, the text subtitle renderer 1738 receives the font corresponding to the dialogue text information stored in the dialogue buffer (DB) 1736 and the font information preloaded in the font preloading buffer (FPB) 1712. Applying the information converts the line text information into a bitmap image, ie, rendering. The rendered bitmap image is stored in a bitmap object buffer (BOB), and output to a graphic plane (GP) 1750 under the control of the presentation controller 1740. At this time, the hue specified in the DSU with reference to the hue reference table (CLUT) 1760 is applied.

台詞テキストに適用されるスタイル関連情報は、製作者がDSUに定義した情報を使用できるが、ユーザーが予め定義したスタイル関連情報を適用してもよい。図17に示された再生装置1700は、製作者が定義したスタイル関連情報よりユーザーが定義したスタイル情報を先に適用する。   As style-related information applied to the dialogue text, information defined by the producer in the DSU can be used, but style-related information predefined by the user may be applied. The playback apparatus 1700 shown in FIG. 17 applies the style information defined by the user before the style related information defined by the producer.

図8を参照して前述したように、台詞テキストに適用されるスタイル関連情報は、基本的に製作者がDSUに定義した領域スタイル情報(region_style)が適用され、該当領域スタイル情報が適用される台詞テキストを含むDPUにインラインスタイルが含まれていれば、該当部分にはインラインスタイル情報(inline_style)が適用される。また、製作者がDSUに追加でユーザーが変更できるスタイルを定義し、ユーザーによって定義されたユーザーが変更できるスタイルのうち一つが選択されれば、台詞テキストは、領域スタイル及び/またはインラインスタイルが適用された後に、ユーザーが変更できるスタイルが最終的に適用される。また、図15で前述したように、インラインスタイルの内容中にはインラインスタイルの適用が終了を知らせる情報が含まれることが望ましい。   As described above with reference to FIG. 8, the area style information (region_style) defined in the DSU by the producer is basically applied to the style related information applied to the dialogue text, and the corresponding area style information is applied. If the inline style is included in the DPU including the dialogue text, the inline style information (inline_style) is applied to the corresponding part. In addition, if the producer defines a style that can be changed by the user in addition to the DSU, and one of the styles that can be changed by the user is selected, the dialogue style is applied to the area style and / or inline style. After that, a style that can be changed by the user is finally applied. Further, as described above with reference to FIG. 15, it is preferable that the content of the inline style includes information notifying the end of application of the inline style.

さらに、製作者は、記録媒体に記録された製作者が定義したスタイル関連情報と別途に、再生装置自体で定義したスタイル関連情報を使用できるように許容するか、または禁止するかを指定することも可能である。   Furthermore, the producer must specify whether the style-related information defined by the playback device itself can be used or prohibited separately from the style-related information defined by the producer recorded on the recording medium. Is also possible.

図18は、例えば、図17に示された本発明の一実施形態による再生装置1700におけるテキスト基盤のサブタイトルデータストリーム220のプレローディング過程を説明するための図である。図18を参照するに、図2に示されたテキスト基盤のサブタイトルデータストリーム220は、前記プレイリストのサブパス内に定義される。サブパス内には、複数の言語を支援する複数個のテキスト基盤のサブタイトルデータストリーム220が定義されうる。また、テキスト基盤のサブタイトルストリームに適用されるフォントファイルは、図9A及び図9Bで前述したように、クリップインフォメーションファイルに定義されうる。一つの記録媒体に含まれうるテキスト基盤のサブタイトルデータストリーム220は、プレイリスト当り255個まで定義することができる。また、一つの記録媒体に含まれうるフォントファイルの数は、最大255個まで定義することができる。ただし、シームレスな再生を保証するためには、テキスト基盤のサブタイトルデータストリーム220のサイズが、再生装置のプレローディングバッファ1710のサイズより小さいか等しくなければならない。   FIG. 18 is a diagram for explaining a preloading process of the text-based subtitle data stream 220 in the playback apparatus 1700 according to the embodiment of the present invention shown in FIG. 17, for example. Referring to FIG. 18, the text-based subtitle data stream 220 shown in FIG. 2 is defined in the playlist sub-path. A plurality of text-based subtitle data streams 220 supporting a plurality of languages can be defined in the subpath. Also, the font file applied to the text-based subtitle stream can be defined in the clip information file as described above with reference to FIGS. 9A and 9B. Up to 255 text-based subtitle data streams 220 that can be included in one recording medium can be defined per playlist. In addition, the maximum number of font files that can be included in one recording medium can be defined as 255. However, in order to guarantee seamless playback, the size of the text-based subtitle data stream 220 must be smaller than or equal to the size of the preloading buffer 1710 of the playback device.

図19は、本発明による再生装置におけるDPUが再生される過程を説明するための図である。   FIG. 19 is a diagram for explaining a process in which a DPU is played back in the playback apparatus according to the present invention.

図19、図13、及び図17を参照するに、DPUが再生される過程が示される。プレゼンテーション制御器1740は、DPUに含まれた台詞の出力時間1310を指定する台詞開始時間情報(dialog_start_PTS)及び台詞終了時間情報(dialog_end_PTS)を利用して、レンダリングされた台詞がグラフィック平面に出力される時間を制御する。この時、台詞開始時間情報は、テキスト基盤のサブタイトルデコーダ1730に含まれたビットマップオブジェクトバッファ1742に保存されたレンダリングされた台詞ビットマップイメージが、グラフィック平面1750に伝達完了する時間を指定する。すなわち、DPUに定義された台詞開始時間に達すれば、台詞の構成に必要なビットマップ情報がグラフィック平面(GP)に伝達完了して使用可能な状態でなければならない。また、台詞終了時間情報は、DPUの再生が終了する時間を指定する。この時、サブタイトルデコーダ1730とグラフィック平面1750とがリセットされる。ビットマップオブジェクトバッファ(BOB)のようなサブタイトルデコーダ1730内のバッファは、連続再生に関係なくDPUの開始時間と終了時間との間にリセットされることが望ましい。   Referring to FIGS. 19, 13, and 17, a process of reproducing a DPU is shown. The presentation controller 1740 uses the dialogue start time information (dialog_start_PTS) and dialogue end time information (dialog_end_PTS) for specifying the dialogue output time 1310 included in the DPU, and the rendered dialogue is output to the graphic plane. Control the time. At this time, the dialogue start time information specifies a time at which the rendered dialogue bitmap image stored in the bitmap object buffer 1742 included in the text-based subtitle decoder 1730 is transmitted to the graphic plane 1750. That is, when the dialogue start time defined in the DPU is reached, the bitmap information necessary for constructing dialogue must be transmitted to the graphic plane (GP) and be usable. Further, the dialogue end time information designates a time at which the reproduction of the DPU ends. At this time, the subtitle decoder 1730 and the graphic plane 1750 are reset. A buffer in the subtitle decoder 1730 such as a bitmap object buffer (BOB) is preferably reset between the start time and end time of the DPU regardless of continuous playback.

しかし、複数のDPUの連続再生が必要な場合ならば、サブタイトルデコーダ1730とグラフィック平面1750とがリセットされず、台詞構成バッファ(DCB)1734、台詞バッファ(DB)1736、ビットマップオブジェクトバッファ(BOB)1742など、各バッファの保存内容が維持されなければならない。すなわち、現在再生中であるDPUの台詞終了時間情報と、以後に連続的に再生されるDPUの台詞開始時間情報とが同じ場合には、各バッファの内容がリセットされずに維持される。   However, if continuous playback of a plurality of DPUs is required, the subtitle decoder 1730 and the graphic plane 1750 are not reset, and the dialogue composition buffer (DCB) 1734, dialogue buffer (DB) 1736, and bitmap object buffer (BOB). The saved contents of each buffer, such as 1742, must be maintained. That is, when the dialogue end time information of the DPU currently being reproduced is the same as the dialogue start time information of the DPU continuously reproduced thereafter, the contents of each buffer are maintained without being reset.

特に、複数のDPUの連続再生が応用される例として、フェードイン/アウト効果が挙げられる。フェードイン/アウト効果は、グラフィック平面(GP)に伝達完了したビットマップオブジェクトの色相参照値(CLUT)1760を変更することによって具現できる。すなわち、最初のDPUは、色相、スタイル、出力時間などの構成情報を含んでおり、以後に連続される複数のDPUは、最初のDPUと同じ構成情報を有し、但し、色相パレット情報のみアップデートされる。この場合、色相情報のうち透明度を0%から100%まで順次に変更することによって、フェードイン/アウト効果を得ることができる。   In particular, a fade-in / out effect is an example in which continuous playback of a plurality of DPUs is applied. The fade-in / out effect can be realized by changing the hue reference value (CLUT) 1760 of the bitmap object that has been transmitted to the graphic plane (GP). That is, the first DPU includes configuration information such as hue, style, and output time, and a plurality of subsequent DPUs have the same configuration information as the first DPU, but only the hue palette information is updated. Is done. In this case, a fade-in / out effect can be obtained by sequentially changing the transparency of the hue information from 0% to 100%.

特に、図12Bに示すようなDPUのデータ構造を使用する場合であれば、色相アップデートフラグ1260を利用して、フェードイン/アウト効果を効果的に具現できる。すなわち、台詞プレゼンテーション制御器1740がDPUに含まれた色相アップデートフラグ1260を確認した結果、0に設定された場合、すなわち、フェードイン/アウト効果が必要ない一般的な場合であれば、基本的に図6に示されたDSUに含まれた色相情報を使用する。一方、色相アップデートフラグ1260を確認した結果、1に設定された場合、すなわち、フェードイン/アウト効果が必要な場合には、図6に示されたDSUに含まれた色相情報610を使用する代わりに、DPUに含まれた色相情報1270を使用してフェードイン/アウト効果を具現できる。この時、DPUに含まれた色相情報1270の透明度を調節することによって、簡単にフェードイン/アウト効果を得ることができる。   In particular, if the DPU data structure shown in FIG. 12B is used, the fade-in / out effect can be effectively implemented using the hue update flag 1260. That is, when the dialogue presentation controller 1740 confirms the hue update flag 1260 included in the DPU and is set to 0, that is, in a general case where the fade-in / out effect is not necessary, basically, The hue information included in the DSU shown in FIG. 6 is used. On the other hand, as a result of checking the hue update flag 1260, when it is set to 1, that is, when a fade-in / out effect is required, instead of using the hue information 610 included in the DSU shown in FIG. Further, the fade-in / out effect can be implemented using the hue information 1270 included in the DPU. At this time, the fade-in / out effect can be easily obtained by adjusting the transparency of the hue information 1270 included in the DPU.

このようにフェードイン/アウト効果を示した後には、色相参照テーブル(CLUT)1760は、元の台詞プレゼンテーション単位(DSU)に含まれた色相情報でアップデートされることが望ましい。このようにアップデートしなければ、一度指定された色相情報が製作者の意図とは違って、以後にも続けて適用されうるからである。   After showing the fade-in / out effect in this way, the hue reference table (CLUT) 1760 is preferably updated with the hue information included in the original dialogue presentation unit (DSU). If the update is not performed in this way, the hue information once specified is different from the intention of the producer and can be applied subsequently.

図20は、本発明による再生装置におけるテキスト基盤のサブタイトルストリームが、動映像データと同期化されて出力される過程を説明するための図である。図20を参照するに、テキスト基盤のサブタイトルデータストリーム220のDPUに含まれた台詞開始時間情報及び台詞終了時間情報は、マルチメディア映像のAVデータストリーム210の出力時間と同期化されるために、プレイリストで使われるグローバル時間軸上の時間として定義されなければならない。これにより、AVデータストリームのシステムタイムクロック(STC)とテキスト基盤のサブタイトルデータストリーム220の台詞出力時間(PTS)との不連続を防止できる。   FIG. 20 is a diagram for explaining a process in which a text-based subtitle stream is output in synchronization with moving image data in the playback apparatus according to the present invention. Referring to FIG. 20, the dialogue start time information and dialogue end time information included in the DPU of the text-based subtitle data stream 220 are synchronized with the output time of the multimedia video AV data stream 210. It must be defined as the time on the global time axis used in the playlist. Thereby, discontinuity between the system time clock (STC) of the AV data stream and the dialogue output time (PTS) of the text-based subtitle data stream 220 can be prevented.

図21は、本発明による再生装置におけるテキスト基盤のサブタイトルデータストリームが画面に出力される過程を説明するための図である。図21を参照するに、台詞テキスト情報2104にスタイル関連情報を含むレンダリング情報2102を適用してビットマップイメージ2106に転換し、転換されたビットマップイメージを構成情報2108に含まれた出力位置情報(region_horizontal_position、region_vertical_positionなど)に基づいて、グラフィック平面(GP)1750の該当位置に出力する過程が示される。   FIG. 21 is a diagram for explaining a process of outputting a text-based subtitle data stream on the screen in the playback apparatus according to the present invention. Referring to FIG. 21, rendering information 2102 including style related information is applied to dialogue text information 2104 to convert to bitmap image 2106, and the converted bitmap image is output position information ( Based on region_horizontal_position, region_vertical_position, etc., a process of outputting to a corresponding position on the graphic plane (GP) 1750 is shown.

レンダリング情報2102とは、領域の幅、高さ、表示色、背景色、テキスト整列、フォント名、フォントスタイル、及びフォントサイズなどのスタイル情報を言う。前述したように、DSU内の領域スタイル集合に定義される。一方、構成情報2108とは、プレゼンテーションの開始時間及び終了時間と、グラフィック平面(GP)1750上に字幕が出力されるウィンドウ領域の水平及び垂直位置情報などを言う。これは、DPU内に定義される。   The rendering information 2102 refers to style information such as area width, height, display color, background color, text alignment, font name, font style, and font size. As described above, it is defined in the region style set in the DSU. On the other hand, the configuration information 2108 refers to the presentation start time and end time, the horizontal and vertical position information of the window area where the caption is output on the graphic plane (GP) 1750, and the like. This is defined in the DPU.

図22は、本発明による再生装置におけるテキスト基盤のサブタイトルデータストリーム220をレンダリングする過程を説明するための図である。図22、図21及び図8を参照するに、DSUに定義された字幕のためのウィンドウ領域の位置情報830であるregion_horizontal_position、region_vertical_position、region_width、及びregion_heightを利用して指定されたウィンドウ領域が、字幕が表示されるグラフィック平面(GB)1750上の領域として指定される。レンダリングされた台詞のビットマップイメージは、ウィンドウ領域内の台詞の出力位置840であるtext_horizontal_position、及びtext_vertical_positionに指定した開始点位置から表示される。   FIG. 22 illustrates a process of rendering the text-based subtitle data stream 220 in the playback apparatus according to the present invention. Referring to FIGS. 22, 21, and 8, a window region designated using region_horizontal_position, region_vertical_position, region_width, and region_height, which are window region position information 830 for subtitles defined in the DSU, is subtitled. Is designated as an area on the graphic plane (GB) 1750 on which is displayed. The rendered dialog bitmap image is displayed from the start position specified in text_horizontal_position, which is the output position 840 of the dialog in the window area, and text_vertical_position.

一方、本発明による再生装置は、ユーザーが選択したスタイル情報(style_id)をシステムレジスタ領域に保存する。図23は、本発明によるテキスト基盤のサブタイトルストリームを再生する再生装置に備えられた再生装置状態レジスタを示す図である。   On the other hand, the playback apparatus according to the present invention stores style information (style_id) selected by the user in the system register area. FIG. 23 is a diagram illustrating a playback device status register provided in a playback device for playing back a text-based subtitle stream according to the present invention.

図23を参照するに、再生装置状態レジスタ(Player Status Register:以下PSRsと略称する)の12番目のレジスタにユーザーが選択したスタイル情報(Selected Style)2310が保存される。これにより、例えば再生装置がメニューコールまたは他の動作を行った後でも、ユーザーがスタイル情報変更ボタンを押すと、PSR12を参照して以前にユーザーが選択したスタイル情報を先に適用させることができる。もちろん、PSRに保存なる位置は変更可能である。   Referring to FIG. 23, style information (Selected Style) 2310 selected by the user is stored in a twelfth register of a playback apparatus status register (Player Status Register: hereinafter abbreviated as PSRs). Thus, for example, even after the playback device performs a menu call or other operation, when the user presses the style information change button, the style information previously selected by the user with reference to the PSR 12 can be applied first. . Of course, the position stored in the PSR can be changed.

以上で説明した本発明によるテキスト基盤のサブタイトルストリーム220を記録した記録媒体及びこれを再生する再生装置の構造に基づいて、テキスト基盤のサブタイトルストリームの再生方法を説明すれば次の通りである。図24は、本発明によるテキスト基盤のサブタイトルストリームを再生する方法を示すフローチャートである。   The text-based subtitle stream playback method will be described based on the structure of the recording medium on which the text-based subtitle stream 220 according to the present invention is recorded and the playback apparatus for playing back the same. FIG. 24 is a flowchart illustrating a method for reproducing a text-based subtitle stream according to the present invention.

記録媒体からDSU情報及びDPU情報を含むテキスト基盤のサブタイトルストリームデータを読み込む(2410段階)、DSU情報に含まれたレンダリング情報に基づいて、DPU情報に含まれた字幕テキストをビットマップイメージに転換する(2420段階)。転換されたビットマップイメージをDPU情報に含まれた構成情報の台詞を出力する時間情報及び位置情報によって画面に出力する(2430段階)。   Text-based subtitle stream data including DSU information and DPU information is read from the recording medium (step 2410), and the subtitle text included in the DPU information is converted into a bitmap image based on the rendering information included in the DSU information. (Step 2420). The converted bitmap image is output to the screen according to the time information and the position information for outputting the dialogue of the configuration information included in the DPU information (step 2430).

本発明はまた、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することができる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読取られるデータが保存される全ての種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光ディスクなどがあり、またキャリアウェーブ(例えば、インターネットを通じた伝送)の形態に具現されるものを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードが保存されかつ実行されうる。   The present invention can also be embodied as computer readable codes on a computer readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy (registered trademark) disk, optical disk, etc., and are embodied in the form of carrier waves (for example, transmission over the Internet). Including The computer-readable recording medium can be distributed in a computer system connected to a network, and can store and execute computer-readable code in a distributed manner.

以上の説明は、本発明の一実施形態に過ぎず、当業者は、本発明の本質的な特性から逸脱しない範囲で変形された形態で具現できる。したがって、本発明の範囲は、前述した実施形態に限定されず、特許請求の範囲に記載された内容と同等な範囲内にある多様な実施形態が含まれると解釈されねばならない。   The above description is only one embodiment of the present invention, and those skilled in the art can implement the present invention in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to the contents described in the claims.

220 サブタイトルストリーム
1700 再生装置
1710 フォントプレローディングバッファ
1712 サブタイトルプレローディングバッファ
1730 サブタイトルデコーダ
1750 グラフィック平面
1760 色相参照テーブル
220 Subtitle Stream 1700 Playback Device 1710 Font Preloading Buffer 1712 Subtitle Preloading Buffer 1730 Subtitle Decoder 1750 Graphic Plane 1760 Hue Reference Table

Claims (6)

動映像データと、
前記動映像データの字幕を提供するためのテキスト基盤のサブタイトルデータを含み、
前記テキスト基盤のサブタイトルデータは、複数の台詞プレゼンテーション単位と、
前記複数の台詞プレゼンテーション単位に適用される出力スタイルの集合を定義した台詞スタイル単位を含み、
各台詞プレゼンテーション単位は、台詞テキスト情報、前記台詞テキスト情報が出力される時間を表す時間情報、前記台詞テキスト情報に適用される色相を定義したパレット情報、及び以前台詞プレゼンテーション単位のグラフィック構成に比べてパレット情報だけ変更されたか否かを表す色相アップデートフラグとを含むことを特徴とする記録媒体。
Video data,
Including text-based subtitle data for providing subtitles of the video data;
The text-based subtitle data includes a plurality of dialogue presentation units,
A dialogue style unit defining a set of output styles applied to the plurality of dialogue presentation units;
Each dialogue presentation unit is composed of dialogue text information, time information indicating the time when the dialogue text information is output, palette information defining the hue applied to the dialogue text information, and the graphic configuration of the dialogue presentation unit before. A recording medium comprising a hue update flag indicating whether or not only palette information has been changed.
前記色相アップデートフラグが1の場合、前記以前台詞プレゼンテーション単位によって出力された以前台詞テキスト情報にパレット情報が適用されることを特徴とする請求項1に記載の記録媒体。   The recording medium according to claim 1, wherein when the hue update flag is 1, palette information is applied to previous dialogue text information output by the previous dialogue presentation unit. 前記色相アップデートフラグが0の場合、現在の台詞プレゼンテーション単位によって出力された台詞テキスト情報にパレット情報が適用されることを特徴とする請求項1に記載の記録媒体。   The recording medium according to claim 1, wherein when the hue update flag is 0, palette information is applied to dialogue text information output by a current dialogue presentation unit. 動映像データと、前記動映像データの字幕を提供するためのテキスト基盤のサブタイトルデータを貯蔵した記録媒体からデータを再生する装置において、
前記動映像データをデコーディングするデコーダと、
複数の台詞プレゼンテーション単位と、前記複数の台詞プレゼンテーション単位に適用される出力スタイルの集合を定義した台詞スタイル単位を含んだ前記テキスト基盤のサブタイトルデータを受信し、前記台詞スタイル単位を参照して前記複数の台詞プレゼンテーション単位に含まれた台詞のためのテキスト情報をビットマップイメージに変換し、前記変換されたビットマップイメージを前記デコーディングされた映像データに同期させて出力するサブタイトルデコーダを含み、
各台詞プレゼンテーション単位は、前記台詞テキスト情報、前記台詞テキスト情報が出力される時間を表す時間情報、前記台詞テキスト情報に適用される色相を定義したパレット情報、及び以前台詞プレゼンテーション単位のグラフビック構成に比べてパレット情報だけ変更されたか否かを表す色相アップデートフラグを含むことを特徴とする装置。
In an apparatus for reproducing data from a recording medium storing moving image data and text-based subtitle data for providing subtitles of the moving image data,
A decoder for decoding the video data;
Receiving the text-based subtitle data including a plurality of dialogue presentation units and a dialogue style unit defining a set of output styles applied to the plurality of dialogue presentation units, and referring to the dialogue style unit A subtitle decoder that converts text information for dialogue included in a dialogue presentation unit into a bitmap image and outputs the transformed bitmap image in synchronization with the decoded video data;
Each dialogue presentation unit includes the dialogue text information, the time information indicating the time when the dialogue text information is output, the palette information defining the hue applied to the dialogue text information, and the graphic composition of the previous dialogue presentation unit. An apparatus comprising a hue update flag indicating whether or not only palette information has been changed.
前記サブタイトルデコーダは、前記色相アップデートフラグが1の場合、前記以前台詞プレゼンテーション単位によって出力された以前台詞テキスト情報にパレット情報を適用することを特徴とする請求項4に記載の装置。   The apparatus of claim 4, wherein the subtitle decoder applies palette information to previous dialogue text information output by the previous dialogue presentation unit when the hue update flag is 1. 前記サブタイトルデコーダは、前記色相アップデートフラグが0の場合、現在の台詞プレゼンテーション単位によって出力された台詞テキスト情報にパレット情報を適用することを特徴とする請求項4に記載の装置。   5. The apparatus of claim 4, wherein the subtitle decoder applies palette information to dialogue text information output by a current dialogue presentation unit when the hue update flag is zero.
JP2010211755A 2004-02-28 2010-09-22 Recording medium and device for reproducing data from recording medium Expired - Fee Related JP5307099B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20040013827 2004-02-28
KR10-2004-0013827 2004-02-28
KR1020040032290A KR100727921B1 (en) 2004-02-28 2004-05-07 Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method thereof
KR10-2004-0032290 2004-05-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007500690A Division JP4776614B2 (en) 2004-02-28 2005-02-28 Playback apparatus for playing back a recording medium on which a text-based subtitle stream is recorded

Publications (2)

Publication Number Publication Date
JP2011035922A true JP2011035922A (en) 2011-02-17
JP5307099B2 JP5307099B2 (en) 2013-10-02

Family

ID=36760967

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007500690A Active JP4776614B2 (en) 2004-02-28 2005-02-28 Playback apparatus for playing back a recording medium on which a text-based subtitle stream is recorded
JP2010211755A Expired - Fee Related JP5307099B2 (en) 2004-02-28 2010-09-22 Recording medium and device for reproducing data from recording medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007500690A Active JP4776614B2 (en) 2004-02-28 2005-02-28 Playback apparatus for playing back a recording medium on which a text-based subtitle stream is recorded

Country Status (10)

Country Link
JP (2) JP4776614B2 (en)
KR (1) KR100727921B1 (en)
CN (3) CN101360251B (en)
AT (1) ATE504919T1 (en)
DE (1) DE602005027321D1 (en)
ES (1) ES2364644T3 (en)
HK (3) HK1126605A1 (en)
MY (1) MY139164A (en)
RU (1) RU2490730C2 (en)
TW (2) TWI320925B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053619B1 (en) 2003-04-09 2011-08-03 엘지전자 주식회사 Recording medium having data structure for managing reproduction of text subtitle data, recording and reproducing method and apparatus accordingly
KR20050078907A (en) 2004-02-03 2005-08-08 엘지전자 주식회사 Method for managing and reproducing a subtitle of high density optical disc
DE602005018180D1 (en) * 2004-03-26 2010-01-21 Lg Electronics Inc RECORDING MEDIUM AND METHOD AND DEVICE FOR REPRODUCING AND RECORDING TEXT SUBTITLE STREAMS
BRPI0509231A (en) * 2004-03-26 2007-09-04 Lg Electronics Inc recording medium, method and apparatus for reproducing text subtitle streams
DE602005017878D1 (en) 2004-03-26 2010-01-07 Lg Electronics Inc RECORDING MEDIUM AND METHOD AND DEVICE FOR REPRODUCING A TEXT SUBTITLE FLOW RECORDED ON THE RECORDING MEDIUM
KR100818926B1 (en) * 2006-10-31 2008-04-04 삼성전자주식회사 Apparatus and method for handling presentation graphic of optical disk
CN101183524B (en) * 2007-11-08 2012-10-10 腾讯科技(深圳)有限公司 Lyric characters display process and system
EP2242263A1 (en) * 2008-02-14 2010-10-20 Panasonic Corporation Reproduction device, integrated circuit, reproduction method, program, and computer-readable recording medium
EP3370233B1 (en) * 2014-09-10 2022-08-10 Panasonic Intellectual Property Corporation of America Recording medium and playback device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241068A (en) * 1995-03-03 1996-09-17 Matsushita Electric Ind Co Ltd Information recording medium, device and method for decoding bit map data
JPH10210504A (en) * 1997-01-17 1998-08-07 Toshiba Corp Sub video image color pallet setting system
JPH10271439A (en) * 1997-03-25 1998-10-09 Toshiba Corp Dynamic image display system and dynamic image data recording method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5294982A (en) * 1991-12-24 1994-03-15 National Captioning Institute, Inc. Method and apparatus for providing dual language captioning of a television program
DE69324607T2 (en) * 1993-08-20 1999-08-26 Thomson Consumer Electronics TELEVISION SIGNATURE SYSTEM FOR APPLICATION WITH COMPRESSED NUMERIC TELEVISION TRANSMISSION
EP0745307B3 (en) * 1994-12-14 2010-06-23 Philips Electronics N.V. Subtitling transmission system
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
JPH08275205A (en) * 1995-04-03 1996-10-18 Sony Corp Method and device for data coding/decoding and coded data recording medium
US5848352A (en) * 1995-04-26 1998-12-08 Wink Communications, Inc. Compact graphical interactive information system
JP3484838B2 (en) * 1995-09-22 2004-01-06 ソニー株式会社 Recording method and playback device
KR100276950B1 (en) * 1995-11-24 2001-03-02 니시무로 타이죠 Multi-language recording media and their playback devices
US6288990B1 (en) * 1997-10-21 2001-09-11 Sony Corporation Reproducing apparatus, recording apparatus, and recording medium
JPH11196386A (en) * 1997-10-30 1999-07-21 Toshiba Corp Computer system and closed caption display method
JP3377176B2 (en) * 1997-11-28 2003-02-17 日本ビクター株式会社 Audio disc and decoding device
KR100327211B1 (en) * 1998-05-29 2002-05-09 윤종용 Sub-picture encoding method and apparatus
JP2000023082A (en) * 1998-06-29 2000-01-21 Toshiba Corp Information recording and reproducing device for multiplex television broadcast
JP2002056650A (en) * 2000-08-15 2002-02-22 Pioneer Electronic Corp Information recorder, information recording method and recording medium with record control program recorded therein
JP4467737B2 (en) * 2000-08-16 2010-05-26 パイオニア株式会社 Information recording apparatus, information recording method, and information recording medium on which recording control program is recorded
JP4021264B2 (en) * 2002-07-11 2007-12-12 株式会社ケンウッド Playback device
KR100939711B1 (en) * 2002-12-12 2010-02-01 엘지전자 주식회사 Apparatus and method for reproducing a text based subtitle
KR100930349B1 (en) * 2003-01-20 2009-12-08 엘지전자 주식회사 Subtitle data management method of high density optical disc
US7643732B2 (en) * 2004-02-10 2010-01-05 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
CN100473133C (en) * 2004-02-10 2009-03-25 Lg电子株式会社 Text subtitle reproducing method and decoding system for text subtitle
KR100739680B1 (en) * 2004-02-21 2007-07-13 삼성전자주식회사 Storage medium for recording text-based subtitle data including style information, reproducing apparatus, and method therefor
DE602005017878D1 (en) * 2004-03-26 2010-01-07 Lg Electronics Inc RECORDING MEDIUM AND METHOD AND DEVICE FOR REPRODUCING A TEXT SUBTITLE FLOW RECORDED ON THE RECORDING MEDIUM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241068A (en) * 1995-03-03 1996-09-17 Matsushita Electric Ind Co Ltd Information recording medium, device and method for decoding bit map data
JPH10210504A (en) * 1997-01-17 1998-08-07 Toshiba Corp Sub video image color pallet setting system
JPH10271439A (en) * 1997-03-25 1998-10-09 Toshiba Corp Dynamic image display system and dynamic image data recording method

Also Published As

Publication number Publication date
RU2007146766A (en) 2009-06-20
HK1088434A1 (en) 2006-11-03
RU2490730C2 (en) 2013-08-20
CN101360251A (en) 2009-02-04
TW200529202A (en) 2005-09-01
JP5307099B2 (en) 2013-10-02
HK1116588A1 (en) 2008-12-24
CN101360251B (en) 2011-02-16
CN101059984B (en) 2010-08-18
KR20050088035A (en) 2005-09-01
CN1774759A (en) 2006-05-17
TWI417873B (en) 2013-12-01
MY139164A (en) 2009-08-28
ES2364644T3 (en) 2011-09-08
TWI320925B (en) 2010-02-21
JP4776614B2 (en) 2011-09-21
HK1126605A1 (en) 2009-09-04
DE602005027321D1 (en) 2011-05-19
CN101059984A (en) 2007-10-24
TW201009820A (en) 2010-03-01
JP2007525904A (en) 2007-09-06
ATE504919T1 (en) 2011-04-15
CN100479047C (en) 2009-04-15
KR100727921B1 (en) 2007-06-13

Similar Documents

Publication Publication Date Title
US8437612B2 (en) Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
JP5307099B2 (en) Recording medium and device for reproducing data from recording medium
TWI359410B (en) Recording medium, method, and apparatus for reprod
KR101119116B1 (en) Text subtitle decoder and method for decoding text subtitle streams
US9070414B2 (en) Playback apparatus, playback method, program, recording medium, and data structure
US8374486B2 (en) Recording medium storing a text subtitle stream, method and apparatus for a text subtitle stream to display a text subtitle
US20090263106A1 (en) Text subtitle decoder and method for decoding text subtitle streams
JP2007511858A (en) Recording medium on which meta information and subtitle information for providing an extended search function are recorded, and a reproducing apparatus thereof
KR20070028329A (en) Method for reproducing text subtitle and text subtitle decoding system
KR101022479B1 (en) Storage medium recording audio-visual data with event information, reproducing apparatus and reproducing method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130626

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5307099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees