JPH08241068A - Information recording medium, device and method for decoding bit map data - Google Patents

Information recording medium, device and method for decoding bit map data

Info

Publication number
JPH08241068A
JPH08241068A JP4404295A JP4404295A JPH08241068A JP H08241068 A JPH08241068 A JP H08241068A JP 4404295 A JP4404295 A JP 4404295A JP 4404295 A JP4404295 A JP 4404295A JP H08241068 A JPH08241068 A JP H08241068A
Authority
JP
Japan
Prior art keywords
data
information
value
bitmap
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4404295A
Other languages
Japanese (ja)
Inventor
Tadashige Furuya
忠滋 古谷
Takumi Hasebe
巧 長谷部
Yoshihisa Fukushima
能久 福島
Shuji Ishihara
秀志 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4404295A priority Critical patent/JPH08241068A/en
Publication of JPH08241068A publication Critical patent/JPH08241068A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To deal with captions of various character kinds and plural languages without using a character ROM. CONSTITUTION: A data type code for identifying caption information from other information exists in an identification part 504 of an AV file 510 on an information recording medium. Further, a user data part 505 consists of the basic data 530 consisting of the display time information of the storing caption and the size information/positional information to be displayed of the caption, the gradation data 533 consisting of two sets of filter/quantization information according to the pattern data and the fringe data and color information (containing a mixture ratio) and a caption compression data 534 being the main body of the caption information compressing the bit map data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像あるいは音声と同
期して文字・グラフイックスなどのビットマップパター
ンを表示する情報記録媒体、ビットマップデータ復号化
装置、およびビットマップデータ復号化方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information recording medium for displaying a bit map pattern such as characters and graphics in synchronization with an image or a sound, a bit map data decoding device, and a bit map data decoding method. Is.

【0002】[0002]

【従来の技術】従来、表示画面上にテキスト(字幕)を
表示する方式として、クローズド・キャプション(Cl
osed Caption)がある。クローズド・キャ
プション方式は米国で開発されたものであり、その用途
は聴覚障害者や米語が母国語でない人に対して文字(米
語)を画像・音声に同期して表示する。
2. Description of the Related Art Conventionally, as a method of displaying text (subtitles) on a display screen, closed caption (Cl
There is an osed Caption). The closed caption method was developed in the United States, and its purpose is to display characters (US language) in synchronization with images and sounds for people who are deaf or who do not speak US native language.

【0003】クローズド・キャプション信号は、TV放
送・ビデオ・レーザディスクなどに含まれており、NT
SC信号のフィールド毎のline21にあり、これを
デコーダで復号処理してデータを得る。得たデータはテ
キスト(字幕)本体を示すキャラクタベースの文字列
と、表示フォーマット・位置・色などのコントロールコ
ードからなる。そしてデコーダは、コントロールコード
と内臓しているキャラクタの形状情報を持つキャラクタ
ROMを参照しながら、メモリ上にテキスト(字幕)を
展開し、メモリから画像と同期したオーバーレイ処理を
して画面に表示する。
Closed caption signals are included in TV broadcasting, video, laser discs, etc.
It is in the line 21 for each field of the SC signal and is decoded by the decoder to obtain data. The obtained data consists of a character-based character string indicating the text (subtitle) body and control codes such as display format, position, and color. Then, the decoder expands the text (subtitle) on the memory while referring to the character ROM having the control code and the shape information of the embedded character, and performs overlay processing synchronized with the image from the memory and displays it on the screen. .

【0004】[0004]

【発明が解決しようとする課題】しかしながら上記のよ
うな構成では次のような課題がある。
However, the above structure has the following problems.

【0005】キャラクタROMには、幅と高さのドット
数が決まった2値のビットマップデータを複数個もつ
(例えば7*13ドットのビットマップデータを256
個持つ)。このためフォント本体の回りは任意の色の長
方形の領域となり、画像を表示できない。そして表示す
る文字の行と列の大きさも予め決まっている(例えば3
2*8行)。
The character ROM has a plurality of binary bit map data in which the number of dots of width and height is fixed (for example, bit map data of 7 * 13 dots is 256).
Have one). Therefore, the area around the font body is a rectangular area of any color, and the image cannot be displayed. The size of the rows and columns of characters to be displayed is also predetermined (for example, 3
2 * 8 lines).

【0006】クローズド・キャプション方式では、 A)上述したキャラクタROMを使用するため、 (1)ROMを持つ必要がある。 (2)フォントの数がROM容量で固定されるので、多
数のフォントのタイプフェイス・サイズや多数の言語の
文字を表示できない(日本語だけでも膨大な容量が必
要)。 (3)フォントの幅と高さが決まっているので、アルフ
ァベット特有の文字間のスペーシングの調整や文字のサ
イズが可変にできない。の問題がある。 B)NTSC信号中のフィールド毎のline21にテ
キスト(字幕)を持つので、 (1)複数の言語のテキスト(字幕)を持つには、さら
にその情報を入れる領域が必要だが、NTSC信号中に
入れているため複数の言語のテキスト(字幕)が持てな
い。 (2)同じ内容のテキスト(字幕)でも、毎フィールド
ごとに必要である。の問題がある。 C)表示に関して、 (1)フォントの回りの画像が大きくマスクされてしま
う。 (2)フォントが2値表現なので、縁取りなどの表現が
できない。またフォント部分・縁取り部分の階調付け表
現もできない。の問題がある。
In the closed caption system: A) Since the above character ROM is used, (1) it is necessary to have a ROM. (2) Since the number of fonts is fixed by the ROM capacity, it is not possible to display the typeface size of many fonts and the characters of many languages (a huge amount of capacity is required even in Japanese only). (3) Since the width and height of the font are fixed, the spacing between characters peculiar to the alphabet cannot be adjusted and the character size cannot be made variable. I have a problem. B) Since text (subtitles) is included in the line 21 of each field in the NTSC signal, (1) In order to have text (subtitles) in multiple languages, it is necessary to have an area to put that information in, but put it in the NTSC signal. Therefore, I cannot have texts (subtitles) in multiple languages. (2) Even text (subtitles) having the same content is required for each field. I have a problem. C) Regarding display, (1) The image around the font is largely masked. (2) Since the font is a binary expression, expressions such as borders cannot be made. Also, it is not possible to express gradations in the font and border areas. I have a problem.

【0007】本発明は上記問題点に鑑み、 A)キャラクタROMを使用せずに、テキスト(字幕)
全体を圧縮したビットマップデータを媒体上に持ち、こ
の圧縮したビットマップデータを伸張することで、多数
のフォントのタイプフェイス・サイズや多数の言語の文
字や任意のグラフイックスなどの多彩なテキスト(字
幕)を扱え、ハードウェアも増加しない。 B)圧縮したビットマップデータを制御するので、媒体
上の情報量を小さくでき、複数の言語のテキスト(字
幕)が持てる。 C)縁取りの生成と階調化をし、生成したテキスト(字
幕)と画像との混合比率をコントロールすることでフォ
ント周辺部をマスクせずに自然な階調表示ができる。ま
たシーンに応じた表現ができる。などの特徴を備えた、
情報記録媒体およびビットマップデータ復号化装置、ビ
ットマツプ復号化方法を提供するものである。
In view of the above problems, the present invention: A) Text (subtitles) without using a character ROM
By holding the compressed bitmap data on the medium and expanding the compressed bitmap data, various texts such as typeface sizes of many fonts, characters of many languages, and arbitrary graphics ( It can handle subtitles) and the hardware does not increase. B) Since the compressed bitmap data is controlled, the amount of information on the medium can be reduced and the text (subtitles) in multiple languages can be held. C) By generating the edging and gradation, and controlling the mixing ratio of the generated text (subtitle) and the image, natural gradation display can be performed without masking the peripheral portion of the font. You can also express according to the scene. With features such as
An information recording medium, a bitmap data decoding device, and a bit map decoding method are provided.

【0008】[0008]

【課題を解決するための手段】上記問題点を解決するた
めに本発明の情報記録媒体は、各画素が2値以上の値を
持つビットマップデータを圧縮した圧縮データに加え
て、前記圧縮データを伸張した伸張ビットマップデータ
の各画素の値をフィルタ情報で変化させ、得られた値を
量子化情報で量子化することで、より多値の値を持つ階
調化ビットマップデータを生成するためのフィルタ情報
と量子化情報を持つものである。
In order to solve the above-mentioned problems, the information recording medium of the present invention has the above-mentioned compressed data in addition to compressed data obtained by compressing bitmap data in which each pixel has a binary value or more. The value of each pixel of the expanded bitmap data that is expanded is changed by the filter information, and the obtained value is quantized by the quantization information to generate the gradation bitmap data having more multivalued values. It has filter information and quantization information for

【0009】あるいは情報記録媒体が、各画素が3値以
上の値を持つビットマップデータを圧縮した圧縮データ
に加えて、前記圧縮データを伸張し、少なくともパター
ンデータを示すビットマップデータと縁取りデータを示
すビットマップデータとを得て、各々のビットマップデ
ータの各画素の値をフィルタ情報で変化させ、得られた
値を量子化情報で量子化し、量子化結果をマージして、
より多値の値を持つ階調化ビットマップデータを生成す
るために、少なくともパターンデータと縁取りデータの
フィルタ情報と量子化情報を持つものである。
Alternatively, the information recording medium expands the compressed data by adding the compressed data obtained by compressing the bitmap data in which each pixel has a value of three or more values, and at least the bitmap data indicating the pattern data and the border data. With the bitmap data shown, the value of each pixel of each bitmap data is changed by the filter information, the obtained value is quantized by the quantization information, and the quantization result is merged,
In order to generate gradation bit map data having more multivalued values, it has at least the filter information of the pattern data and the border data and the quantization information.

【0010】あるいは情報記録媒体が、少なくともパタ
ーンデータと縁取りデータを示す、各画素が2値の値を
持つビットマップデータを各々圧縮した複数の圧縮デー
タに加えて、前記圧縮データを伸張し、少なくともパタ
ーンデータを示すビットマップデータと縁取りデータを
示すビットマップデータとを得て、各々のビットマップ
データの各画素の値をフィルタ情報で変化させ、得られ
た値を量子化情報で量子化し、量子化結果をマージし
て、より多値の値を持つ階調化ビットマップデータを生
成するために、少なくともパターンデータと縁取りデー
タのフィルタ情報と量子化情報を持つものである。
Alternatively, the information recording medium expands the compressed data in addition to a plurality of compressed data obtained by compressing bitmap data in which each pixel has a binary value indicating at least pattern data and edging data. Obtaining the bitmap data indicating the pattern data and the bitmap data indicating the border data, changing the value of each pixel of each bitmap data by the filter information, quantizing the obtained value by the quantization information, and quantizing In order to merge gradation results and generate gradation bit map data having more multivalued values, it has at least filter information of pattern data and border data and quantization information.

【0011】またビットマップデータ復号化装置は、圧
縮データを伸張した伸張ビットマップデータに対して、
各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化手段を備えたこ
とを特徴とするものである。
Further, the bit map data decoding device applies to the decompressed bit map data obtained by decompressing the compressed data,
A gradation means for generating gradation bitmap data having more multivalued values is provided by changing the value of each pixel with filter information and quantizing the obtained value with quantization information. It is characterized by.

【0012】あるいはビットマップデータ復号化装置
が、圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとに対して、各々のビットマップデータの各
画素の値をフィルタ情報で変化させ、得られた値を量子
化情報で量子化するために、少なくともパターンデータ
と縁取りデータに対する各々の階調化手段と、量子化結
果をマージして、より多値の値を持つ階調化ビットマッ
プデータを生成するためのマージ手段とを備えたことを
特徴とするものである。
Alternatively, the bit map data decoding apparatus expands the compressed data, and at least with respect to the bit map data indicating the pattern data and the bit map data indicating the edging data, obtains the value of each pixel of each bit map data. In order to change the value obtained by changing the filter information and quantizing the obtained value with the quantization information, at least each gradation means for the pattern data and the edging data and the quantization result are merged to obtain a multivalued value. And a merging unit for generating the gradation bit map data.

【0013】またビットマップデータ復号化方法は、圧
縮データを伸張した伸張ビットマップデータに対して、
各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化ステップを備え
たことを特徴とするものである。
Further, the bit map data decoding method uses the expanded bit map data obtained by expanding the compressed data,
A gradation step for generating gradation bitmap data having more multivalued values is provided by changing the value of each pixel with filter information and quantizing the obtained value with quantization information. It is characterized by.

【0014】あるいはビットマップデータ復号化方法
が、圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとに対して、各々のビットマップデータの各
画素の値をフィルタ情報で変化させ、得られた値を量子
化情報で量子化するために、少なくともパターンデータ
と縁取りデータに対する各々の階調化ステップと、量子
化結果をマージして、より多値の値を持つ階調化ビット
マップデータを生成するためのマージステップとを備え
たことを特徴とするものである。
Alternatively, the bit map data decoding method expands the compressed data, and at least for the bit map data indicating the pattern data and the bit map data indicating the border data, the value of each pixel of each bit map data is calculated. In order to quantize the obtained value with the quantization information by changing it with the filter information, at least each gradation step for the pattern data and the edging data, and the quantization result are merged to obtain a multi-valued value. And a merging step for generating the gradation bit map data.

【0015】[0015]

【作用】本発明は上記した構成により、 A)キャラクタROMを使用せずに、テキスト(字幕)
全体を圧縮したビットマップデータを媒体上に持ち、こ
の圧縮したビットマップデータに伸張と階調化をするこ
とで、多数のフォントのタイプフェイス・サイズや多数
の言語の文字や任意のグラフイックスなどの多彩なテキ
スト(字幕)を扱え、ハードウェアも増加しない。 B)圧縮したビットマップデータを制御するので、媒体
上の情報量を小さくでき、複数の言語のテキスト(字
幕)が持てる。 C)縁取りの生成と階調化をし、生成したテキスト(字
幕)と画像との混合比率をコントロールすることでフォ
ント周辺部をマスクせずに自然な階調表示ができる。ま
たシーンに応じた表現ができる。
The present invention has the above-mentioned configuration. A) Text (subtitles) without using a character ROM
Bitmap data that is wholly compressed is stored on the medium, and by expanding and gradation this compressed bitmap data, many font typeface sizes, many language characters, arbitrary graphics, etc. It can handle various texts (subtitles) and does not increase the hardware. B) Since the compressed bitmap data is controlled, the amount of information on the medium can be reduced and the text (subtitles) in multiple languages can be held. C) By generating the edging and gradation, and controlling the mixing ratio of the generated text (subtitle) and the image, natural gradation display can be performed without masking the peripheral portion of the font. You can also express according to the scene.

【0016】[0016]

【実施例】以下に、本発明による情報記録媒体と、この
情報記録媒体を用いるビットマップデータ復号化装置及
びビットマップデータ復号化方法とを、順次図面を参照
しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An information recording medium according to the present invention, a bitmap data decoding device and a bitmap data decoding method using this information recording medium will be described below with reference to the drawings.

【0017】まず情報記録媒体の第1の実施例を示す。
図1は、本発明の実施例1における情報記録媒体500
の領域構成を示している。情報記録媒体500は、ファ
イル単位での制御をするためのデータ構造を有してい
る。図1において、ディスク状の情報記録媒体500上
には、多数の同心円状あるいはスパイラル状のトラック
が形成されている。各トラックは、アドレスデータ等が
記録されるヘッダ部と、例えば2048バイトのユーザ
データが記録されるデータ部とから構成される多数のセ
クタ501に分割され、ヘッダ部及びデータ部の両方が
情報記録媒体製造時にプリフォーマットされる。
First, a first embodiment of the information recording medium will be described.
FIG. 1 shows an information recording medium 500 according to the first embodiment of the present invention.
Shows the area configuration of. The information recording medium 500 has a data structure for controlling in file units. In FIG. 1, a large number of concentric or spiral tracks are formed on a disc-shaped information recording medium 500. Each track is divided into a large number of sectors 501 composed of a header section in which address data and the like are recorded and a data section in which, for example, 2048-byte user data is recorded, and both the header section and the data section record information. It is preformatted when the medium is manufactured.

【0018】情報記録媒体500において、外周よりの
トラック上にファイル記録領域502が、内周よりのト
ラック上にはファイル管理領域503が割り当てられて
いる。ファイル記録領域502には、可変長圧縮された
画像情報を含む多数のAVファイル510が記録され
る。ファイル管理領域503には、各AVファイル51
0の制御情報520が記録される。そして、ボリューム
名や記録されているAVファイルの数などがファイル制
御情報520の先頭に記録され、続いて各AVファイル
510と1対1に対応した多数のファイルエントリ52
1が記録されている。また、各ファイルエントリ521
は、対応するAVファイルのファイル名やファイル位
置、及びファイルサイズなどのファイル属性情報などか
ら構成される。
In the information recording medium 500, a file recording area 502 is allocated on the track from the outer circumference, and a file management area 503 is allocated on the track from the inner circumference. In the file recording area 502, a large number of AV files 510 including variable length compressed image information are recorded. Each AV file 51 is stored in the file management area 503.
The control information 520 of 0 is recorded. Then, the volume name, the number of recorded AV files, and the like are recorded at the head of the file control information 520, and subsequently, a large number of file entries 52 corresponding to each AV file 510 on a one-to-one basis.
1 is recorded. Also, each file entry 521
Is composed of file attribute information such as the file name and file position of the corresponding AV file, and the file size.

【0019】セクタ501はヘッダ部とデータ部から構
成される。ヘッダ部には、例えばID0とID1のよう
にセクタ501のアドレス情報が多重記録されている。
The sector 501 is composed of a header section and a data section. Address information of the sector 501, such as ID0 and ID1, is multiplexed and recorded in the header portion.

【0020】次に、本発明の第1の実施例のAVファイ
ル510の構成例を、図2を参照しながら説明する。各
AVファイル510は複数の圧縮された画像情報とこれ
に同期する音声情報やテキスト情報(字幕情報)の集ま
りと、同期をとるために必要な基準時刻情報などの初期
制御情報から構成されている。各画像情報・音声情報・
テキスト情報(字幕情報)はセクタ501からなる。
Next, a configuration example of the AV file 510 according to the first embodiment of the present invention will be described with reference to FIG. Each AV file 510 is composed of a plurality of compressed image information, a collection of audio information and text information (subtitle information) synchronized with the compressed image information, and initial control information such as reference time information necessary for synchronization. . Image information, audio information,
The text information (subtitle information) includes a sector 501.

【0021】セクタ501のデータ部のデータ構造につ
いて説明する。データ部は識別部504とユーザデータ
部505とエラー訂正符号部506とから構成される。
The data structure of the data portion of the sector 501 will be described. The data section includes an identification section 504, a user data section 505, and an error correction code section 506.

【0022】エラー訂正符号部506には、識別部50
4及びユーザデータ部505のデータを記録媒体上のエ
ラーから保護するために、例えばリードソロモン符号を
用いたエラー訂正符号が記録される。ユーザデータ部5
05には、画像情報、画像情報と同期した音声情報、及
び画像情報と同時に表示されるテキスト情報(字幕情
報)など各種のエレメントデータが記録される。そし
て、識別部504には、ユーザデータの内容が画像情報
/音声情報/テキスト情報(字幕情報)の何れかである
ことを識別するためのデータタイプコードが記録され
る。
The error correction code unit 506 includes an identification unit 50.
In order to protect the data of 4 and the user data section 505 from an error on the recording medium, an error correction code using, for example, a Reed-Solomon code is recorded. User data section 5
In 05, various element data such as image information, audio information synchronized with the image information, and text information (subtitle information) displayed simultaneously with the image information are recorded. Then, in the identification unit 504, a data type code for identifying whether the content of the user data is any of image information / audio information / text information (caption information) is recorded.

【0023】ユーザデータ部の後半にパディングデータ
が付加されるとき、パディングデータを除いて固定長の
ユーザデータ部505に記録されたエレメントデータの
長さ示す有効データ長なども識別部504に記録され
る。
When padding data is added to the latter half of the user data part, the valid data length indicating the length of the element data recorded in the fixed length user data part 505 is also recorded in the identification part 504 except for the padding data. It

【0024】以下テキスト情報(字幕情報)の場合のユ
ーザデータ部505について詳しく説明する。
The user data section 505 in the case of text information (caption information) will be described in detail below.

【0025】字幕情報の場合、ユーザデータ部505
は、基本データ530と階調化データ531と圧縮した
字幕情報本体である字幕圧縮データ532からなる。基
本データ530と階調化データ531を属性データとよ
ぶ。
In the case of subtitle information, the user data section 505
Consists of basic data 530, gradation data 531 and compressed subtitle data 532 which is the compressed subtitle information body. The basic data 530 and the gradation data 531 are called attribute data.

【0026】基本データ530は、その字幕がどのチャ
ンネルであり、どの言語であるかを示すチャンネル番号
と、格納している字幕を表示する開始時刻・終了時刻の
表示時刻情報、字幕部分のビットマップ領域であるM×
Nドットのサイズ情報(M,N)と全表示領域の中のど
の位置に字幕を表示するかを示す(Xs、Ys)の位置
情報とからなる。
The basic data 530 includes a channel number indicating which channel and language the subtitle is in, display time information of the start time and end time for displaying the stored subtitle, and a bit map of the subtitle. Area M ×
It consists of N dot size information (M, N) and (Xs, Ys) position information indicating at which position in the entire display area the subtitle is displayed.

【0027】階調化データ531は表示する字幕(文字
・グラフィックス)の種類に応じたフィルタ・量子化・
色情報(混合比率を含む)の組からなる。
The gradation data 531 is a filter, a quantization, and a filter corresponding to the type of caption (character / graphics) to be displayed.
It consists of a set of color information (including the mixing ratio).

【0028】字幕圧縮データ532の圧縮の方法は、例
えばランレングス変換し、MH(モディファイド ハフ
マン)符号化などで圧縮する。
The compressed subtitle data 532 is compressed by, for example, run length conversion and MH (Modified Huffman) coding.

【0029】字幕の大きさ・圧縮率に応じて字幕圧縮デ
ータのデータ長は表示する字幕毎に異なるので、ユーザ
データ部505に記録されたエレメントデータの長さ示
す有効データ長が識別部504に記録される。
Since the data length of the closed caption compressed data differs for each closed caption to be displayed according to the size and compression ratio of the closed caption, the effective data length indicating the length of the element data recorded in the user data part 505 is stored in the identification part 504. Will be recorded.

【0030】本実施例では、字幕圧縮データ532は各
画素が2値の値を持つビットマップデータを圧縮する。
そして階調化データ531は、フィルタ情報・量子化情
報を1組だけ持つ。字幕圧縮データを伸張した伸張ビッ
トマップデータの各画素の値をフィルタ情報で変化さ
せ、得られた値を量子化情報で量子化することで、より
多値の値を持つ階調化ビットマップデータを生成するこ
とができる。量子化した各階調に色情報を与えて表示す
る。
In this embodiment, the subtitle compression data 532 compresses bitmap data in which each pixel has a binary value.
The gradation data 531 has only one set of filter information / quantization information. Gradation bitmap data having more multi-valued values by changing the value of each pixel of expanded bitmap data obtained by expanding compressed subtitle data with filter information and quantizing the obtained value with quantization information. Can be generated. Color information is given to each quantized gradation and displayed.

【0031】以上字幕情報について説明したが、画像情
報・音声情報についても開始時刻を持つ。
Although the caption information has been described above, the image information and audio information also have start times.

【0032】なお、字幕圧縮データは2値の値のビット
マップデータを圧縮したが、3値以上の値のビットマッ
プデータを圧縮してもよい。
Note that the subtitle compression data is binary valued bitmap data, but ternary or more values may be compressed.

【0033】次に情報記録媒体の第2の実施例を示す。
図3を用いて、本発明の第2の実施例のテキスト情報
(字幕情報)の場合のユーザデータ部505について第
1の実施例と異なる点である階調化データ533と字幕
圧縮データ534とを詳しく説明する。
Next, a second embodiment of the information recording medium will be shown.
With reference to FIG. 3, the user data portion 505 in the case of the text information (caption information) of the second embodiment of the present invention is different from the first embodiment in gradation data 533 and caption compression data 534. Will be described in detail.

【0034】階調化データ533は2組のフィルタ情報
・量子化情報と色情報(混合比率を含む)からなる。
The gradation data 533 is composed of two sets of filter information / quantization information and color information (including a mixing ratio).

【0035】字幕圧縮データ534は各画素が3値の値
を持つビットマップデータを圧縮する。そして階調化デ
ータ533は、フィルタ情報・量子化情報を2組持つ。
字幕圧縮データを伸張し、パターンデータを示すビット
マップデータと縁取りデータを示すビットマップデータ
とを得て、各々のビットマップデータの各画素の値をフ
ィルタ情報で変化させ、得られた値を量子化情報で量子
化し、量子化結果をマージして、より多値の値を持つ階
調化ビットマップデータを生成することができる。量子
化した各階調に色情報を与えて表示する。
The subtitle compression data 534 compresses bitmap data in which each pixel has a ternary value. Then, the gradation data 533 has two sets of filter information and quantization information.
The caption compression data is expanded to obtain the bitmap data indicating the pattern data and the bitmap data indicating the border data, the value of each pixel of each bitmap data is changed by the filter information, and the obtained value is quantized. It is possible to quantize with the quantization information and merge the quantization results to generate gradation bitmap data having more multivalued values. Color information is given to each quantized gradation and displayed.

【0036】なお、2組のフィルタ情報・量子化情報の
一部を装置・方法側に持たしてもよい。例えば、縁取り
データのフィルタ情報・量子化情報を装置・方法側に持
たせれば情報記録媒体の第1の実施例の構成と同じにな
る。またパターンデータの量子化情報以外を装置・方法
側に持たしてもよい。
The device / method may have a part of the two sets of filter information / quantization information. For example, if the apparatus / method side is provided with the filter information / quantization information of the edging data, the configuration becomes the same as that of the first embodiment of the information recording medium. Further, the apparatus / method may have other than the quantization information of the pattern data.

【0037】なお、字幕圧縮データは3値の値のビット
マップデータを圧縮したが、4値以上の値のビットマッ
プデータを圧縮してもよい。
Note that the caption compression data is obtained by compressing ternary value bitmap data, but it may be compressed quaternary or higher value bitmap data.

【0038】次に情報記録媒体の第3の実施例を示す。
図4(a)を用いて、本発明の第3の実施例のテキスト
情報(字幕情報)の場合のユーザデータ部505につい
て第3の実施例と異なる点である階調化データ535と
字幕圧縮データ536とを詳しく説明する。
Next, a third embodiment of the information recording medium will be shown.
With reference to FIG. 4A, regarding the user data portion 505 in the case of the text information (caption information) of the third embodiment of the present invention, the gradation data 535 and the caption compression which are different from those of the third embodiment. The data 536 will be described in detail.

【0039】階調化データ535は2組のフィルタ情報
・量子化情報と色情報(混合比率を含む)からなる。
The gradation data 535 is composed of two sets of filter information / quantization information and color information (including a mixing ratio).

【0040】字幕圧縮データ536はパターンデータと
縁取りデータの、各画素が2値の値を持つビットマップ
データを2種類圧縮する。そして階調化データ535
は、フィルタ情報・量子化情報を2組持つ。各々の字幕
圧縮データを伸張し、パターンデータを示すビットマッ
プデータと縁取りデータを示すビットマップデータとを
得て、各々のビットマップデータの各画素の値をフィル
タ情報で変化させ、得られた値を量子化情報で量子化
し、量子化結果をマージして、より多値の値を持つ階調
化ビットマップデータを生成することができる。量子化
した各階調に色情報を与えて表示する。
As the subtitle compression data 536, two types of bit map data, in which each pixel has a binary value, of pattern data and border data, are compressed. And the gradation data 535
Has two sets of filter information and quantization information. Each subtitle compressed data is decompressed to obtain the bitmap data indicating the pattern data and the bitmap data indicating the edging data, and the value of each pixel of each bitmap data is changed by the filter information, and the obtained value Can be quantized with quantization information, and the quantization results can be merged to generate gradation bitmap data having more multivalued values. Color information is given to each quantized gradation and displayed.

【0041】また別の情報記録媒体の第3の実施例を示
す。図4(b)を用いて、本発明の第3の実施例のテキ
スト情報(字幕情報)の場合のユーザデータ部505に
ついて第2の実施例と異なる点である階調化データ53
7、539と字幕圧縮データ538、540とを詳しく
説明する。図4(b)では複数のセクタに分けてテキス
ト情報(字幕情報)を持つものとする。
A third embodiment of another information recording medium will be shown. With reference to FIG. 4B, the gradation data 53, which is the difference from the second embodiment in the user data portion 505 in the case of the text information (caption information) of the third embodiment of the present invention.
7, 539 and the subtitle compression data 538, 540 will be described in detail. In FIG. 4B, it is assumed that text information (caption information) is divided into a plurality of sectors.

【0042】階調化データ537はパターンデータのフ
ィルタ情報・量子化情報と色情報(混合比率を含む)か
らなる。また階調化データ539は縁取りデータのフィ
ルタ情報・量子化情報と色情報(混合比率を含む)から
なる。色情報は同じものを持つ。
The gradation data 537 is composed of filter information / quantization information of pattern data and color information (including mixture ratio). The gradation data 539 is composed of filter information / quantization information of edging data and color information (including a mixing ratio). The color information has the same thing.

【0043】字幕圧縮データ538はパターンデータ
の、各画素が2値の値を持つビットマップデータを圧縮
する。また字幕圧縮データ540は縁取りデータの、各
画素が2値の値を持つビットマップデータを圧縮する。
各々の字幕圧縮データを伸張し、パターンデータを示す
ビットマップデータと縁取りデータを示すビットマップ
データとを得て、各々のビットマップデータの各画素の
値をフィルタ情報で変化させ、得られた値を量子化情報
で量子化し、量子化結果をマージして、より多値の値を
持つ階調化ビットマップデータを生成することができ
る。量子化した各階調に色情報を与えて表示する。
The subtitle compression data 538 compresses the bit map data of the pattern data in which each pixel has a binary value. Further, the closed caption data 540 compresses the bit-mapped data of the border data, in which each pixel has a binary value.
Each subtitle compressed data is decompressed to obtain the bitmap data indicating the pattern data and the bitmap data indicating the edging data, and the value of each pixel of each bitmap data is changed by the filter information, and the obtained value Can be quantized with quantization information, and the quantization results can be merged to generate gradation bitmap data having more multivalued values. Color information is given to each quantized gradation and displayed.

【0044】なお、色情報は基本データとして1箇所で
持ってもよい。また図4(a)および図4(b)におい
て、2組のフィルタ情報・量子化情報の一部を装置・方
法側に持たしてもよい。
The color information may be stored in one place as basic data. Further, in FIGS. 4A and 4B, a part of the two sets of filter information / quantization information may be held on the device / method side.

【0045】なお、字幕圧縮データとフィルタ情報・量
子化情報は2種類以上もってもよい。
There may be two or more types of compressed subtitle data and filter information / quantization information.

【0046】次に情報記録媒体の第4の実施例を示す。
図5を用いて、本発明の第4の実施例のテキスト情報
(字幕情報)の場合のユーザデータ部505について第
3の実施例の図4(a)と異なる点である階調化データ
541と字幕圧縮データ542とを詳しく説明する。
Next, a fourth embodiment of the information recording medium will be shown.
With reference to FIG. 5, regarding the user data portion 505 in the case of the text information (caption information) of the fourth exemplary embodiment of the present invention, the gradation data 541 which is different from that of FIG. 4A of the third exemplary embodiment. The subtitle compression data 542 will be described in detail.

【0047】階調化データ541はパターンデータのフ
ィルタ情報・量子化情報と色情報(混合比率を含む)か
らなる。縁取りデータのフィルタ情報・量子化情報・情
報色(混合比率を含む)はもたない。
The gradation data 541 includes filter information / quantization information of pattern data and color information (including a mixing ratio). There is no filter information / quantization information / information color (including mixture ratio) of the edging data.

【0048】字幕圧縮データ542はパターンデータ
の、各画素が2値の値を持つビットマップデータを圧縮
したものと、縁取りデータの、各画素が2値の値を持つ
ビットマップデータを圧縮したものからなる。各々の字
幕圧縮データを伸張し、パターンデータを示すビットマ
ップデータと縁取りデータを示すビットマップデータと
を得て、パターンデータのビットマップデータの各画素
の値をフィルタ情報で変化させ、得られた値を量子化情
報で量子化し、縁取りデータと量子化結果をマージし
て、より多値の値を持つ階調化ビットマップデータを生
成することができる。量子化した各階調に色情報を与え
て表示する。
The subtitle compression data 542 is obtained by compressing the bitmap data of the pattern data, in which each pixel has a binary value, and the compression of the border data of the border data, in which each pixel has a binary value. Consists of. Each subtitle compressed data is decompressed to obtain the bit map data indicating the pattern data and the bit map data indicating the edging data, and the value of each pixel of the bit map data of the pattern data is changed by the filter information. The value can be quantized with the quantization information, and the border data and the quantization result can be merged to generate the gradation bitmap data having more multivalued values. Color information is given to each quantized gradation and displayed.

【0049】第1から第4の実施例において、階調化デ
ータであるフィルタ・量子化・色情報(混合比率を含
む)のテーブルサイズは可変でも固定でもよい。可変な
場合は各テーブルサイズを持つ必要がある。
In the first to fourth embodiments, the table size of the filter / quantization / color information (including the mixing ratio) which is the gradation data may be variable or fixed. If it is variable, it is necessary to have each table size.

【0050】なお、属性データとして拡大率を含めるこ
とができる。拡大率はMH復号化をするときにX,Y方
向に各ビット情報を拡大するための情報である。
It is possible to include the enlargement ratio as the attribute data. The expansion rate is information for expanding each bit information in the X and Y directions when performing MH decoding.

【0051】また、位置情報を(Xs、Ys)とし、サ
イズ情報を(M,N)とし、Xe=Xs+M、Ye=Y
s+Nと考えると、(Xs、Ys、Xe、Ye)の組で
あらわしてもよい。
Further, the position information is (Xs, Ys), the size information is (M, N), and Xe = Xs + M, Ye = Y.
Considering s + N, a set of (Xs, Ys, Xe, Ye) may be used.

【0052】また、表示時刻情報である開始時刻・終了
時刻は分割して別々に配置してもよい。開始時刻をT
s、終了時刻をTeとして、ΔT=Te−Tsと考え
て、(Ts、ΔT)の情報にしてもよい。
The start time / end time, which is the display time information, may be divided and arranged separately. Start time is T
The information of (Ts, ΔT) may be obtained by considering ΔS = Te−Ts, where s and Te are Te.

【0053】また、属性データの内容は順不同であり、
表示時刻・サイズ・位置・フィルタ・量子化・色情報の
順番は変わってもよい。
The contents of the attribute data are in no particular order,
The order of display time, size, position, filter, quantization, and color information may change.

【0054】なお、1セクタ毎に1チャンネルのテキス
ト情報(字幕情報)がある例を示したが、1セクタ内に
複数チャンネルのテキスト情報(字幕情報)があっても
よい。
Although an example in which there is one channel of text information (caption information) for each sector has been shown, a plurality of channels of text information (caption information) may be present in one sector.

【0055】テキスト情報(字幕情報)は、説明上1セ
クタ単位毎になっているが、複数セクタにまたがっても
よい。この場合複数セクタにまたがっていることを示す
識別情報を属性データとして持つ必要がある。
Although the text information (subtitle information) is described in units of one sector for the sake of explanation, it may extend over a plurality of sectors. In this case, it is necessary to have, as attribute data, identification information indicating that the data spans a plurality of sectors.

【0056】また、フィルタ・量子化・色情報(混合比
率を含む)について、直前・直後のテキスト情報(字幕
情報)と内容が同じなら、テキスト情報(字幕情報)毎
にフィルタ・量子化・色情報(混合比率を含む)を復号
化装置に与える処理を低減するために、属性データに直
前・直後のフラグ情報を付加すればよい。
If the content of the filter / quantization / color information (including the mixing ratio) is the same as the text information (caption information) immediately before and after, the filter / quantization / color is set for each text information (caption information). In order to reduce the processing of giving information (including the mixing ratio) to the decoding device, the flag information immediately before and immediately after may be added to the attribute data.

【0057】また、フェードイン・フェードアウト・フ
ラシングなどの機能は、同一字幕圧縮データで時間毎に
階調化データのフィルタ・量子化・色情報(混合比率を
含む)を少しずつ変化すれば実現できる(例えばフェー
ドインの場合、各量子化レベル毎に混合比率を透明から
不透明に変化させればよい)。
Functions such as fade-in / fade-out / flushing can be realized by gradually changing the filter / quantization / color information (including the mixing ratio) of the gradation data with the same subtitle compression data. (For example, in the case of fade-in, the mixing ratio may be changed from transparent to opaque for each quantization level).

【0058】なお基本データ・階調化データの内容の一
部を装置・方法側に持たせてもよい。
Note that part of the contents of the basic data / gradation data may be provided to the device / method side.

【0059】以下、復号化方法及び復号化装置について
述べる。復号化方法及び復号化装置の第1の実施例につ
いて図6〜18を用いて説明する。情報記録媒体は図2
の構成とする。
The decoding method and the decoding device will be described below. A first embodiment of the decoding method and the decoding device will be described with reference to FIGS. The information recording medium is shown in FIG.
The configuration is as follows.

【0060】図6に復号化方法及び復号化装置の構成例
を示す。図6において、10は画像情報・音声情報・字
幕情報などを格納する情報記録媒体、11はその情報記
録媒体の読み出し制御を行う情報記録媒体制御部、12
は復号化装置に対するユーザ操作情報、13はその操作
情報を基にデコーダを制御するデコーダ主制御部であ
り、マイクロプロセッサなどから構成されているものと
する。14は情報記録媒体から読み出された情報を画像
情報・音声情報・字幕情報に分離し、各デコーダに振り
分けるシステムデコーダ部、15は画像情報・音声情報
・字幕情報とを時間的に同期をとるための基準クロック
を制御し更新時刻情報を出力する基準クロック制御部、
16は画像情報を復号する画像情報デコーダ部であり、
結果として画像表示データを出力する。17は字幕情報
を復号する字幕情報デコーダ部であり、結果として字幕
合成データを出力する。18は音声情報を復号する音声
情報デコーダ部であり、結果として出力用音声データを
出力する。19はHSYNC、VSYNCなどの表示タ
イミング制御情報を字幕情報デコーダ部17・画像情報
デコーダ部16に与え、字幕フレームメモリ内の混合比
率データに基づき画像表示データと字幕合成データとの
合成を行う表示合成部、20は合成されたデータである
表示データを表示するディスプレイ部であり、例えばC
RT装置である。21は出力用音声データを出力する音
声出力部であり、例えばスピーカである。
FIG. 6 shows a configuration example of the decoding method and the decoding device. In FIG. 6, 10 is an information recording medium that stores image information, audio information, subtitle information, and the like, 11 is an information recording medium control unit that controls reading of the information recording medium, and 12
Is user operation information for the decoding device, and 13 is a decoder main control unit that controls the decoder based on the operation information, and is assumed to be composed of a microprocessor or the like. Reference numeral 14 is a system decoder unit that separates the information read from the information recording medium into image information, audio information, and caption information, and distributes them to each decoder. Reference numeral 15 synchronizes the image information, audio information, and caption information with time. A reference clock control unit for controlling the reference clock for outputting the update time information,
Reference numeral 16 denotes an image information decoder unit that decodes image information,
As a result, image display data is output. Reference numeral 17 denotes a caption information decoder unit that decodes caption information, and as a result, outputs caption composite data. Reference numeral 18 denotes a voice information decoder unit that decodes voice information, and as a result, outputs output voice data. Reference numeral 19 is a display combination that provides display timing control information such as HSYNC and VSYNC to the subtitle information decoder unit 17 / image information decoder unit 16 and synthesizes image display data and subtitle synthesis data based on the mixing ratio data in the subtitle frame memory. Reference numeral 20 denotes a display unit for displaying display data which is combined data, for example, C
It is an RT device. Reference numeral 21 is an audio output unit that outputs the output audio data, and is, for example, a speaker.

【0061】また、情報記録媒体10に格納されている
情報は、情報記録媒体10のデータの格納位置などを管
理するファイル制御情報・画像情報・字幕情報・音声情
報及び、それらの同期をとるために必要な基準時刻情報
などの初期制御情報を含む情報とから構成されているも
のとする。画像情報・字幕情報・音声情報はそれぞれ圧
縮された情報であり、例えば画像情報及び音声情報は国
際標準化方式であるMPEG方式で圧縮され、字幕情報
は表示する字幕のビットマップデータをファクシミリで
使用されているMH符号などで圧縮されている情報とす
る。また、音声情報と字幕情報は、例えば日本語と英語
などの多国語対応などのように複数チャンネルの情報が
格納されており、ユーザ操作により選択可能なものとす
る。
The information stored in the information recording medium 10 is used for synchronizing file control information, image information, subtitle information, audio information for managing the data storage position of the information recording medium 10 and the like. Information including initial control information such as reference time information necessary for the above. The image information, caption information, and audio information are compressed information. For example, the image information and audio information are compressed by the MPEG method, which is an international standardization method, and the caption information is used by a facsimile in which bitmap data of the caption to be displayed is used. It is assumed that the information is compressed by the MH code or the like. Further, the audio information and the subtitle information are information of a plurality of channels such as multilingual support such as Japanese and English, and are selectable by a user operation.

【0062】また字幕(文字・グラフイックス)を表現
するためのビットマップデータをパターンデータと呼
び、字幕(文字・グラフイックス)の周辺にあり、背景
となる画像データをマスクするためのビットマップデー
タを縁取りデータと呼ぶものとする。
Bit map data for expressing subtitles (characters / graphics) is called pattern data, and bitmap data for masking background image data around the subtitles (characters / graphics). Shall be called border data.

【0063】以下図6を用いて、本発明の復号化装置の
基本的な動作について説明する。ユーザ操作により、音
声の”チャンネル番号の設定”と字幕の”チャンネル番
号の設定”とどのファイルを”再生”するかの操作情報
がユーザ操作情報12として指示される。ユーザ操作情
報12に基づきデコーダ主制御部13は、字幕情報デコ
ーダ部17と音声情報デコーダ部18に再生するチャン
ネル番号を設定すると共に、情報記録媒体制御部11に
対して、ディスク再生を指示してディスク内のファイル
制御情報を読み出す。さらにデコーダ主制御部13は、
ファイル制御情報の中の該当するファイルエントリから
ファイル位置情報を読み出し、さらにファイル位置情報
を基に、ユーザが指定する情報記録媒体のデータを読み
出す。
The basic operation of the decoding apparatus of the present invention will be described below with reference to FIG. By the user operation, the user's operation information 12 is instructed as audio “channel number setting”, subtitle “channel number setting”, and operation information as to which file is “played”. Based on the user operation information 12, the decoder main control unit 13 sets the channel numbers to be reproduced in the subtitle information decoder unit 17 and the audio information decoder unit 18, and instructs the information recording medium control unit 11 to reproduce the disc. Read the file control information in the disk. Furthermore, the decoder main controller 13
The file position information is read from the corresponding file entry in the file control information, and further, the data of the information recording medium designated by the user is read based on the file position information.

【0064】情報記録媒体制御部11を通じて読み出さ
れたデータはシステムデコーダ部14が、画像情報・字
幕情報・音声情報及び初期制御情報に振り分け、画像情
報は画像情報デコーダ部16、字幕情報は字幕情報デコ
ーダ部17、音声情報は音声情報デコーダ部18、初期
制御情報はデコーダ主制御部13に転送する。デコーダ
主制御部13は、初期制御情報の一つである、画像情報
・字幕情報・音声情報の再生時刻の基準となる基準時刻
情報を基準クロック制御部15に設定する。基準クロッ
ク制御部15は、基準時刻情報を初期値として設定し、
これに所定のクロック毎にカウントアップして順次更新
し、結果として得られる更新時刻情報を画像情報デコー
ダ部16、字幕情報デコーダ部17、音声情報デコーダ
部18に与える。画像情報デコーダ部16は、システム
デコーダ部14からの画像情報を復号し、画像表示デー
タを得て、更新時刻情報と画像情報中の表示開始時刻を
比較し、一致すれば後述する表示合成部19からの表示
タイミング制御情報のタイミングで画像表示データを出
力する。字幕情報デコーダ部17では、設定されたチャ
ンネル番号の字幕情報をその表示時刻前までに、字幕の
ビットマップデータを復号してパターンデータと縁取り
データを生成し、さらに画像情報との混合比率データを
付加した字幕表示データを生成し、更新時刻情報と基本
データ中の表示時刻情報を比較し、表示期間中なら後述
する表示合成部19からの表示タイミング制御情報のタ
イミングで字幕合成データを出力するのである。他のチ
ャンネル番号の字幕情報については、復号処理は行わな
い。復号された画像表示データと字幕表示データを、混
合比率データを基に表示合成部19で合成し、表示デー
タとしてディスプレイ20に表示する。音声情報デコー
ダ部18では、設定されたチャンネル番号の音声情報を
復号し、出力用音声データを得て、更新時刻情報と音声
情報中の表示開始時刻を比較し、一致すれば出力用音声
データを音声出力20に出力する。
The data read out through the information recording medium control unit 11 is sorted by the system decoder unit 14 into image information, caption information, audio information and initial control information. The image information is the image information decoder unit 16 and the caption information is caption. The information decoder unit 17, the audio information is transferred to the audio information decoder unit 18, and the initial control information is transferred to the decoder main control unit 13. The decoder main control unit 13 sets, in the reference clock control unit 15, reference time information which is one of the initial control information and serves as a reference for the reproduction time of the image information / caption information / audio information. The reference clock control unit 15 sets reference time information as an initial value,
This is counted up at predetermined clock intervals and sequentially updated, and the updated time information obtained as a result is given to the image information decoder unit 16, the subtitle information decoder unit 17, and the audio information decoder unit 18. The image information decoder unit 16 decodes the image information from the system decoder unit 14, obtains the image display data, compares the update time information with the display start time in the image information, and if they match, a display combining unit 19 described later. The image display data is output at the timing of the display timing control information. The subtitle information decoder unit 17 decodes the subtitle bitmap data of the set channel number before the display time of the subtitle information to generate pattern data and border data, and further mix ratio data with image information. Since the added caption display data is generated, the update time information and the display time information in the basic data are compared, and during the display period, the caption composite data is output at the timing of the display timing control information from the display combining unit 19 described later. is there. Decoding processing is not performed for subtitle information of other channel numbers. The decoded image display data and caption display data are combined by the display combining unit 19 based on the mixing ratio data, and displayed on the display 20 as display data. The audio information decoder unit 18 decodes the audio information of the set channel number, obtains the output audio data, compares the update time information with the display start time in the audio information, and if they match, outputs the output audio data. Output to the audio output 20.

【0065】以上のようなデコード構成によって、画像
情報と字幕情報の合成画像と時間的に同期した音声情報
を再生する事ができる。
With the decoding configuration as described above, it is possible to reproduce the audio information which is temporally synchronized with the composite image of the image information and the subtitle information.

【0066】さらに、本発明の字幕情報の復号化処理に
ついて、図7、図8、図9、図10、図11、図12、
図13を用いて詳細に説明する。
Further, regarding the decoding processing of the subtitle information of the present invention, FIG. 7, FIG. 8, FIG. 9, FIG. 10, FIG.
This will be described in detail with reference to FIG.

【0067】図7は図6で示した字幕情報デコーダ部1
7の詳細ブロック図である。図7において、101は字
幕復号化処理に対するユーザからの操作情報(図6にお
けるチャンネル番号)、102は字幕ビットマップの字
幕圧縮データと属性データを含む字幕情報、103は復
号されたデータを出力する時に、時間の基準となる更新
時刻情報、104は前述の表示合成部19からの表示タ
イミング制御情報である。106は字幕デコード制御部
であり、字幕情報のユーザデータ部の中の、フィルタ情
報・量子化情報・色情報・サイズ情報・位置情報・表示
時刻情報と格納アドレス情報・更新時刻情報は後述する
符号解読部108・フィルタ部110・量子化部111
・CLUT部112・字幕フレームメモリ制御部113
に設定し、字幕圧縮データは後述するデコード用バッフ
ァメモリ107に設定するなどの字幕復号化処理の制御
を行う。107は字幕復号化処理を行うための字幕圧縮
データを一旦格納するデコード用バッファメモリ、10
8は字幕圧縮データの符号解読処理を行う符号解読部、
109は符号解読部108からビットマップデータを再
生し、字幕伸張データとするパターンデータ再生部、1
10は字幕伸張データに対してフィルタ処理を施すフィ
ルタ部、111はそのフィルタ結果のデータに量子化を
行う量子化部であり、その結果、字幕階調データを生成
する。112は字幕階調データに対して色情報(画像表
示データとの混合比率データを含む)を割り当てるCL
UT(カラールックアップテーブル:Color Lo
ok Up Table)部であり、その結果、字幕表
示データを生成する。114は色情報(画像表示データ
との混合比率データを含む)を割り当てた字幕表示デー
タを一旦格納する字幕フレームメモリ、113は字幕情
報の基本データであるサイズ情報・位置情報・時刻情報
を得て、さらに前述の表示合成部19からの表示タイミ
ング制御情報に基づいて字幕フレームメモリ内の字幕合
成データの表示制御を行い字幕合成データとして取り出
す字幕フレームメモリ制御部である。
FIG. 7 shows the subtitle information decoder unit 1 shown in FIG.
7 is a detailed block diagram of FIG. In FIG. 7, 101 is operation information (channel number in FIG. 6) from the user for the subtitle decoding process, 102 is subtitle information including subtitle compressed data and attribute data of the subtitle bitmap, and 103 outputs decoded data. Sometimes, the update time information that serves as a time reference, and 104 is the display timing control information from the display combining unit 19 described above. Reference numeral 106 denotes a caption decoding control unit, and filter information, quantization information, color information, size information, position information, display time information, storage address information, and update time information in the user data portion of the caption information are codes described below. Decoding section 108 / filter section 110 / quantization section 111
-CLUT unit 112-Subtitle frame memory control unit 113
, And the compressed subtitle data is set in the decoding buffer memory 107, which will be described later, to control the subtitle decoding process. Reference numeral 107 denotes a decoding buffer memory that temporarily stores caption compressed data for performing caption decoding processing.
Reference numeral 8 is a code decoding unit for performing code decoding processing of compressed subtitle data,
A pattern data reproducing unit 109 reproduces the bitmap data from the code decoding unit 108 to obtain subtitle expansion data.
Reference numeral 10 is a filter unit that performs a filtering process on the subtitle decompression data, and 111 is a quantization unit that quantizes the filter result data. As a result, subtitle gradation data is generated. Reference numeral 112 is a CL for allocating color information (including mixing ratio data with image display data) to subtitle gradation data.
UT (Color Lookup Table: Color Lo
ok Up Table) part, and as a result, generates caption display data. Reference numeral 114 denotes a subtitle frame memory that temporarily stores subtitle display data to which color information (including mixing ratio data with image display data) is assigned, and 113 obtains size information, position information, and time information that are basic data of subtitle information. Further, the subtitle frame memory control unit controls the display of the subtitle synthesis data in the subtitle frame memory based on the display timing control information from the display synthesis unit 19 described above and takes out the subtitle synthesis data.

【0068】以上の符号解読部108とパターンデータ
再生部109の構成部分を伸張部、フィルタ部110と
量子化部111の構成部分を階調化部とよぶ。
The constituent parts of the code decoding part 108 and the pattern data reproducing part 109 are called an expansion part, and the constituent parts of the filter part 110 and the quantizing part 111 are called a gradation part.

【0069】以下、復号化処理の各々について順番に説
明する。まず伸張部について説明する。
Hereinafter, each of the decoding processes will be described in order. First, the extension unit will be described.

【0070】図8は、図7における伸張部(符号解読部
108とパターンデータ再生部109)の復号化処理に
ついて示した図であり、図9は復号に用いるハフマン符
号化テーブルの例を示した図である。
FIG. 8 is a diagram showing the decoding process of the decompression unit (code decoding unit 108 and pattern data reproducing unit 109) in FIG. 7, and FIG. 9 shows an example of the Huffman coding table used for decoding. It is a figure.

【0071】図8において、(a)に符号解読部での字
幕圧縮データの1ライン分の符号化データ列、(b)に
再生されたビット列、(c)に字幕伸張データを示す。
図8では、サイズが55×16画素の矩形領域の字幕を
ビットマップデータとして表現しており、その矩形領域
の1ライン単位で圧縮時に符号化処理をしている。字幕
情報の字幕圧縮データは図8(a)に示すような符号化
データ列の集まりであり、符号化データ列を図9に示す
符号化テーブルを参照しながら復号化処理をする。本実
施例において復号化処理の前提条件としては、元になる
字幕の左端のデータはパターンデータではなく、背景デ
ータである。また、背景データとパターンデータは必ず
交互に発生し、特に識別用のデータを付加しない符号化
処理をおこなっているものとする。また、逆ランレング
ス処理においては、ラインごとにライン終了(EOL)
の符号化データを持つものとする。
In FIG. 8, (a) shows the encoded data string for one line of compressed subtitle data in the code decoding section, (b) the reproduced bit string, and (c) shows the expanded subtitle data.
In FIG. 8, a subtitle in a rectangular area having a size of 55 × 16 pixels is expressed as bitmap data, and the encoding processing is performed for each line of the rectangular area during compression. The closed caption data of the closed caption information is a collection of encoded data strings as shown in FIG. 8A, and the encoded data string is decoded with reference to the encoding table shown in FIG. In the present embodiment, as a prerequisite for the decoding process, the leftmost data of the original subtitle is background data, not pattern data. Further, it is assumed that the background data and the pattern data are always generated alternately, and the encoding process is performed without adding the identification data. Further, in the reverse run length processing, the line end (EOL) is performed line by line.
It shall have the encoded data of.

【0072】以下、パターンデータ再生部での復号化処
理について説明する。復号化処理時には例えば、図8
(a)で示す”1”と”0”の符号化データ列”000
011001100”を1ビットずつ、図9の符号化テ
ーブルとの一致処理をして復号する。この場合は”ラン
長=28”と復号する。続く符号化データ列に同様の復
号を行い、”ラン長=3”、”ラン長=24”と復号す
る。復号結果は図8(b)のようになり、背景データ=
28画素、パターンデータ=3画素、背景データ=24
画素と続き、ライン長に達したのでライン終了となる。
以下同様に字幕圧縮データを全て復号化処理した結果を
図8(c)に示す。このように字幕圧縮データから矩形
領域の字幕伸張データを得る事ができる。
The decoding process in the pattern data reproducing section will be described below. For example, FIG.
Encoded data string "000" of "1" and "0" shown in (a)
0111001 "is decoded bit by bit by performing matching processing with the coding table of Fig. 9. In this case," run length = 28 "is decoded. Similar decoding is performed on the subsequent coded data string and" run "is performed. Decoding is performed with length = 3 "and" run length = 24 ". The decoding result is as shown in FIG.
28 pixels, pattern data = 3 pixels, background data = 24
Continuing with pixels, the line length is reached and the line ends.
Similarly, FIG. 8C shows the result of decoding all the subtitle compressed data. In this way, the subtitle decompression data of the rectangular area can be obtained from the subtitle compression data.

【0073】字幕圧縮データの符号解読処理時におい
て、ファクシミリなどで使用されている符号の木構造を
メモリにマッピングして高速化を図る手法(参考:吹抜
敬彦著「FAX,OAのための画像の信号処理」日刊工
業新聞社)が応用できる事はあきらかである。
A method for mapping the tree structure of a code used in a facsimile or the like to a memory to speed up the code decoding process of compressed subtitle data (reference: Takahiko Fukibuki, "Images for FAX, OA"). It is obvious that "Signal processing" can be applied to the Nikkan Kogyo Shimbun.

【0074】次に階調化部(フィルタ部110と量子化
部111)について説明する。図10はフィルタ部11
0のフィルタ処理で使用するフィルタの係数マトリック
スの例を示した図である。
Next, the gradation unit (filter unit 110 and quantization unit 111) will be described. FIG. 10 shows the filter unit 11.
It is the figure which showed the example of the coefficient matrix of the filter used by the filter process of 0.

【0075】字幕伸張データはフィルタ部110で、縁
取りデータ生成および階調処理を施すフィルタ処理をお
こなう。フィルタの係数マトリックスの例を図10に示
す。このフィルタは字幕のパターンデータに対して、エ
ッジを”ぼかす”処理を行うフィルタであり、その結果
として、パターンデータの階調処理を行うとともに、非
零の画素を含めるとパターンデータ自体の太線化処理と
縁取りデータ生成をする。
The subtitle decompressed data is filtered by the filter section 110 so as to generate border data and perform gradation processing. An example of the coefficient matrix of the filter is shown in FIG. This filter is a filter that performs "blurring" processing on the edge of the subtitle pattern data. As a result, the pattern data gradation processing is performed, and if non-zero pixels are included, the pattern data itself becomes a thick line. Processing and edging data generation.

【0076】図11は、階調化部(フィルタ部・量子化
部)について示した図である。図11において、(a)
に字幕伸張データ(パターンデータ)を示し、(b)に
フィルタ処理後の字幕階調データと量子化処理について
示す。説明の簡単化のために、パターンデータには8と
いう値を、背景データには0の値を割当るとし、フィル
タ処理後は0〜128の129レベルの値とし、量子化
後は0〜4の5レベルの値にする。
FIG. 11 is a diagram showing the gradation unit (filter unit / quantization unit). In FIG. 11, (a)
The subtitle decompression data (pattern data) is shown in (b), and the subtitle gradation data after the filtering process and the quantization process are shown in (b). For simplification of explanation, it is assumed that a value of 8 is assigned to the pattern data and a value of 0 is assigned to the background data. After filtering, the value is set to 129 levels of 0 to 128, and after quantization, 0 to 4 is assigned. The value of 5 levels.

【0077】以下、フィルタ処理と量子化処理について
説明する。図11(a)に示すパターンデータに対し
て、図10に示す”ぼかす”処理のフィルタを施すと、
(b)にしめすパターンデータの中心をピークにしてす
そ野を拡げたようなデータを得る事ができる。フィルタ
結果に色情報を割り当てるための量子化処理で、図11
に示すK1,K2,M1,M2,M3の領域に分割す
る。領域の分割が即ち量子化のテーブル、図12であ
る。
The filter processing and the quantization processing will be described below. When the "blur" processing filter shown in FIG. 10 is applied to the pattern data shown in FIG. 11A,
(B) It is possible to obtain data in which the center of the pattern data shown in FIG. In the quantization process for assigning color information to the filter result,
It is divided into K1, K2, M1, M2, and M3 regions shown in FIG. The area division is the quantization table, that is, FIG.

【0078】図12は量子化部111内のフィルタ処理
後のデータに対する量子化処理に使用する量子化テーブ
ルの例を示した図である。図12の量子化値と図11の
領域との対応関係は、図11のK1領域が量子化値4、
K2領域が量子化値3、M1領域が量子化値2、M2領
域が量子化値1、M3領域が量子化値0である。
FIG. 12 is a diagram showing an example of a quantization table used in the quantization processing on the data after the filter processing in the quantization unit 111. The correspondence between the quantized value in FIG. 12 and the area in FIG. 11 is that the K1 area in FIG.
The K2 region has a quantized value of 3, the M1 region has a quantized value of 2, the M2 region has a quantized value of 1, and the M3 region has a quantized value of 0.

【0079】以上の処理で字幕伸張データから字幕階調
データが生成できる。次に字幕階調データから字幕表示
データ(表示合成部19では字幕合成データ)を生成す
るCLUT部112について説明する。
With the above processing, the subtitle gradation data can be generated from the subtitle decompression data. Next, the CLUT unit 112 that generates caption display data (caption composite data in the display compositing unit 19) from caption gradation data will be described.

【0080】図13は量子化結果に色情報を割り当てる
CLUTの例を示した図である。図13において、Yは
輝度レベル、Cr,Cbは色差レベル、混合比率データ
α(αは0〜100までの数値)は画像表示データとの
混合比率を示し、混合比率データの値が大きいほど、画
像表示データの表示比率が高い事を示す。この事を、画
像表示データをA、字幕合成データをB、表示データを
Cとして式で表すと、 C = A×α/100 + B×(1−α/100) (式1) である。すなわち、量子化値0は、画像表示データのみ
が表示され、字幕合成データは表示されない事を示し、
量子化値1は半々の混合表示を行い、量子化値2〜4
は、画像表示データの表示は行わず、Y,Cr,Cbで
示される色情報で字幕合成データを表示するのである。
量子化値2では縁取りの色情報を、量子化値3ではパタ
ーンデータの半輝度の色情報、量子化値4ではパターン
データ自体の色情報を示している。すなわち、図11に
示すように、フィルタ処理後のすそ野のデータ部分を
(図においては、フィルタ処理後の値のピーク値の約半
値以下の部分である、M1・M2の領域部分)を縁取り
データとし、さらに、その縁取りデータの部分を画像表
示データと混合表示する部分と縁取りデータのみを表示
する部分に分割しているのである。このことによって、
パターンデータの周辺に縁取りデータを生成すると共
に、縁取りデータと画像データの間に発生する可能性の
あるフリッカについても軽減する事が可能である。ま
た、フィルタ処理値の半値以上のデータ領域(K1,K
2)をパターンデータとし、さらに、そのパターンデー
タ部分に階調処理を施すために、K1の領域でパターン
データを表示し、K2の領域、すなわちK1の周辺領域
で輝度をさげたパターンデータを表示するのである。こ
のことによって、階調をもつパターンデータを表示する
ことになり、字幕表示で、発生する可能性のあるフリッ
カを軽減する事ができるのである。
FIG. 13 is a diagram showing an example of a CLUT that assigns color information to the quantization result. In FIG. 13, Y is a luminance level, Cr and Cb are color difference levels, and the mixing ratio data α (α is a numerical value from 0 to 100) indicates a mixing ratio with the image display data. The display ratio of the image display data is high. When this is expressed by an equation where A is image display data, B is subtitle composite data, and C is display data, C = A × α / 100 + B × (1−α / 100) (Equation 1). That is, the quantized value 0 indicates that only the image display data is displayed, and the subtitle composite data is not displayed.
The quantized value 1 is displayed in a mixed display of half and half, and the quantized values 2 to 4 are displayed.
Does not display the image display data, but displays the subtitle composite data with the color information represented by Y, Cr, and Cb.
The quantized value 2 indicates the color information of the border, the quantized value 3 indicates the half-brightness color information of the pattern data, and the quantized value 4 indicates the color information of the pattern data itself. That is, as shown in FIG. 11, the data portion of the skirt field after the filter processing (in the figure, the area portion of M1 and M2, which is a portion that is less than about half the peak value of the value after the filter processing) is edged data. Further, the portion of the border data is further divided into a portion where the image display data is mixed and displayed and a portion where only the border data is displayed. This allows
It is possible to generate border data around the pattern data and reduce flicker that may occur between the border data and the image data. In addition, the data area (K1, K
2) is used as pattern data, and in order to perform gradation processing on the pattern data portion, the pattern data is displayed in the area K1 and the pattern data with reduced brightness is displayed in the area K2, that is, the peripheral area of K1. To do. As a result, the pattern data having gradation is displayed, and it is possible to reduce flicker that may occur in subtitle display.

【0081】以上のように字幕階調データにCLUT部
112で色情報を割り当てる事で、縁取りを含んだ字幕
表示データを得る事ができる。CLUT部112によっ
て変換されたY、Cr、Cb、αの各々1バイトの情報
をもつ字幕表示データを、字幕フレームメモリ制御部1
13を経由して、字幕フレームメモリ114に一旦格納
する。
As described above, by assigning color information to the subtitle gradation data in the CLUT unit 112, subtitle display data including a border can be obtained. The subtitle display data having 1-byte information of each of Y, Cr, Cb, and α converted by the CLUT unit 112 is transferred to the subtitle frame memory control unit 1.
It is temporarily stored in the subtitle frame memory 114 via 13.

【0082】次に字幕表示データを格納し、字幕合成デ
ータを表示する表示合成部19について説明する。
Next, the display synthesizing section 19 for storing the subtitle display data and displaying the subtitle synthesizing data will be described.

【0083】字幕フレームメモリ114に格納された字
幕表示データを表示合成部19からの表示制御タイミン
グ情報と、字幕デコード制御部106からの位置情報と
表示時刻情報を基に、字幕フレームメモリ制御部113
において、字幕フレームメモリ114からの字幕合成デ
ータの読み出しを制御し、字幕合成データを表示合成部
19に出力する。表示合成部19では、画像データと字
幕フレームメモリ制御部113からの字幕表示データの
混合比率データαにより、前述した(式1)に従って合
成し、表示データとして出力する。
The subtitle display data stored in the subtitle frame memory 114 is displayed based on the display control timing information from the display synthesizing unit 19 and the position information and display time information from the subtitle decoding control unit 106.
In, the reading of the subtitle composite data from the subtitle frame memory 114 is controlled and the subtitle composite data is output to the display synthesizing unit 19. The display combining unit 19 combines the image data and the caption display data from the caption frame memory control unit 113 according to the mixing ratio data α according to the above-described (Equation 1), and outputs it as display data.

【0084】字幕フレームメモリ114は少なくとも画
素数分の字幕の色情報としてY、Cr、Cbとその画素
に対応する混合比率データαを格納できるメモリ容量を
有するものとする。すなわち、字幕情報を表示画面上の
領域全てに表示する場合にも対応できる構成を有するも
のとする。
It is assumed that the subtitle frame memory 114 has a memory capacity capable of storing Y, Cr, Cb and the mixing ratio data α corresponding to the pixels as color information of at least the number of pixels of subtitles. That is, it has a configuration capable of supporting the case where subtitle information is displayed in the entire area on the display screen.

【0085】次に字幕フレームメモリ制御部113につ
いて、具体的な構成例を説明する。第1の字幕フレーム
メモリ制御部113の構成例を図14に示す。図14に
おいて、150は字幕表示データを字幕フレームメモリ
114内におくための格納アドレス情報であり、字幕デ
コード制御部106から設定する。151は字幕デコー
ド部106からの情報であり、字幕表示データの表示時
の画面上の位置情報・サイズ情報と表示時刻情報及び更
新時刻情報、152はCLUT部からの字幕表示デー
タ、153は表示タイミング制御情報であり、字幕フレ
ームメモリ114に格納された字幕表示データを読み出
すタイミング情報である。154は合成表示するための
字幕合成データ、155は字幕フレームメモリ114の
入出力データ、156は字幕フレームメモリ114への
書き込み/読み出しアドレス、158は表示時刻情報の
開始時刻/終了時刻と更新時刻情報を比較し、表示期間
中なら字幕表示データの表示時の位置情報・サイズ情報
から、字幕表示データの表示画面上の字幕表示データの
表示領域を確定し、表示タイミング制御情報153のタ
イミングで検出データを表示状態で出力する幕表示領域
検出部である。表示期間でないなら、検出データを非表
示状態で出力する。157は字幕フレームメモリ114
に格納している各字幕表示データに対応する字幕フレー
ムメモリ用のアドレスを生成するアドレス生成部であ
り、格納アドレス情報150を保持する。まず、CLU
T部112から字幕表示データ152を字幕フレームメ
モリ114に格納する場合には、格納アドレス情報15
0を書き込みアドレスとして字幕フレームメモリ156
に出力する。さらに字幕表示領域検出部158からの検
出データが表示状態の場合(字幕表示をする)、格納ア
ドレス情報を読み出しアドレスとして字幕フレームメモ
リ156に出力する。159は字幕表示領域検出部15
8からの検出データが表示状態の場合には字幕フレーム
メモリ114内の混合比率データαを出力し、非表示状
態の場合にはその混合比率データαを出力せず、画像デ
ータを表示するようにαの値を100として出力するデ
ータマスク制御部、160は字幕フレームメモリのデー
タの入出力バッファである。
Next, a concrete configuration example of the subtitle frame memory control unit 113 will be described. FIG. 14 shows a configuration example of the first subtitle frame memory control unit 113. In FIG. 14, reference numeral 150 denotes storage address information for storing subtitle display data in the subtitle frame memory 114, which is set by the subtitle decoding control unit 106. Reference numeral 151 is information from the subtitle decoding unit 106, position information and size information on the screen at the time of displaying subtitle display data, display time information and update time information, 152 is subtitle display data from the CLUT unit, and 153 is display timing. The control information is timing information for reading the subtitle display data stored in the subtitle frame memory 114. Reference numeral 154 is subtitle composite data for composite display, 155 is input / output data of the subtitle frame memory 114, 156 is a write / read address to the subtitle frame memory 114, and 158 is start time / end time and update time information of display time information. During the display period, the display area of the caption display data on the display screen of the caption display data is determined based on the position information / size information when the caption display data is displayed, and the detection data is detected at the timing of the display timing control information 153. Is a curtain display area detection unit for outputting in a display state. If it is not the display period, the detection data is output in the non-display state. 157 is a subtitle frame memory 114
It is an address generation unit that generates an address for the subtitle frame memory corresponding to each subtitle display data stored in, and holds the storage address information 150. First, CLU
When storing the subtitle display data 152 from the T section 112 in the subtitle frame memory 114, the storage address information 15
Subtitle frame memory 156 with 0 as write address
Output to. Further, when the detection data from the subtitle display area detection unit 158 is in a display state (caption display is performed), the storage address information is output to the subtitle frame memory 156 as a read address. 159 is a subtitle display area detection unit 15
When the detection data from 8 is in the display state, the mixing ratio data α in the subtitle frame memory 114 is output, and in the non-displaying state, the mixing ratio data α is not output, and the image data is displayed. A data mask control unit that outputs the value of α as 100, and 160 is an input / output buffer for the data of the subtitle frame memory.

【0086】以下、図14を用いて字幕表示データの表
示処理を説明する。字幕フレームメモリ114内の字幕
表示データの格納位置情報及び字幕フレームメモリ11
4内の空き領域情報については、字幕デコード制御部1
06が管理する。字幕デコード制御部106は、サイズ
情報から必要なメモリ量を計算し、このメモリ量をもと
に次々と字幕フレームメモリ114上の格納アドレス情
報を決定する。そして、表示時の画面上の位置情報と終
了時刻情報とメモリ量と格納アドレス情報の組を管理す
る。更新時刻情報と複数の終了時刻情報を比較し、もし
一致すれば対応する格納アドレスからのメモリ量が空き
領域として使用でき、同時にこの組を削除する。CLU
T部112から出力する字幕表示データの字幕フレーム
メモリ114内の格納アドレス情報150、及び表示時
刻情報と表示時の画面位置情報151はすでに字幕フレ
ームメモリ用のアドレス生成部157、字幕表示領域検
出部158に設定しているものとし、更新時刻情報15
1は継続して供給するものとする。また、字幕表示デー
タは表示すべき時刻、すなわち表示時刻情報より、早い
時刻にCLUT部112から出力するものとする。
The display processing of the subtitle display data will be described below with reference to FIG. Storage position information of subtitle display data in subtitle frame memory 114 and subtitle frame memory 11
For the free area information in 4, the subtitle decoding control unit 1
06 manages. The subtitle decoding control unit 106 calculates a required memory amount from the size information, and sequentially determines the storage address information on the subtitle frame memory 114 based on this memory amount. Then, a set of position information on the screen at the time of display, end time information, memory amount, and storage address information is managed. The update time information is compared with a plurality of end time information, and if they match, the amount of memory from the corresponding storage address can be used as a free area, and at the same time this group is deleted. CLU
The storage address information 150 in the subtitle frame memory 114 of the subtitle display data output from the T unit 112 and the display time information and the screen position information 151 at the time of display are already the address generation unit 157 for the subtitle frame memory and the subtitle display area detection unit. It is assumed that the update time information is set to 158.
1 shall be continuously supplied. The subtitle display data is output from the CLUT unit 112 at a time to be displayed, that is, at a time earlier than the display time information.

【0087】字幕フレームメモリ用アドレス生成部15
7は、字幕フレームメモリ114に書き込みアドレスを
指定し、CLUT部112からの字幕表示データ152
を入出力バッファ160を経由して、字幕フレームメモ
リ114に格納する。
Subtitle frame memory address generator 15
7 designates a write address in the subtitle frame memory 114, and the subtitle display data 152 from the CLUT unit 112
Is stored in the subtitle frame memory 114 via the input / output buffer 160.

【0088】字幕表示領域検出部158は、字幕表示デ
ータの表示時刻情報に更新時刻情報が到達してないの
で、検出データは非表示状態を出力する。このとき、字
幕フレームメモリ用アドレス生成部157は字幕表示デ
ータを表示するための読み出しアドレスを字幕フレーム
メモリに出力しないように制御する。また、データマス
ク制御部159では、字幕表示領域検出部158の検出
データが非表示状態のため、混合比率データαを出力せ
ず、表示はされない。
Since the update time information has not reached the display time information of the subtitle display data, the subtitle display area detecting unit 158 outputs the non-display state of the detected data. At this time, the subtitle frame memory address generation unit 157 controls so as not to output the read address for displaying the subtitle display data to the subtitle frame memory. Further, in the data mask control unit 159, since the detection data of the subtitle display area detection unit 158 is in the non-display state, the mixing ratio data α is not output and is not displayed.

【0089】更新時刻情報が、字幕表示データの表示時
刻情報に到達したら、字幕表示領域検出部158は検出
データを表示状態にする。このとき、字幕フレームメモ
リ用アドレス生成部157は読み出しアドレスの出力を
し、データマスク制御部159は混合比率データαの出
力を設定する。この制御により、字幕フレームメモリ用
のアドレス生成部157からの表示領域に対応した字幕
フレームメモリ114への読み出しアドレスが発生さ
れ、対応する字幕データが読み出される。データマスク
制御部159では、混合比率データαを出力する事にな
り、字幕フレームメモリ114から、字幕表示データを
読み出し、字幕合成データ154として出力する。
When the update time information reaches the display time information of the subtitle display data, the subtitle display area detecting unit 158 puts the detection data in the display state. At this time, the subtitle frame memory address generation unit 157 outputs the read address, and the data mask control unit 159 sets the output of the mixture ratio data α. By this control, a read address from the subtitle frame memory address generation unit 157 to the subtitle frame memory 114 corresponding to the display area is generated, and the corresponding subtitle data is read. The data mask control unit 159 outputs the mixing ratio data α, reads the subtitle display data from the subtitle frame memory 114, and outputs it as subtitle composite data 154.

【0090】また、更新時刻情報が字幕表示データの表
示終了時刻になれば、字幕表示領域検出部158では再
び非表示状態のなり、字幕フレーム用アドレス生成部1
57では読み出しアドレスを出力せず、またデータマス
ク制御部159は混合比率データαを出力しないため、
字幕表示データは字幕合成データとして出力されず表示
画面から消える事になる。さらに字幕デコード制御部1
06では、その字幕表示データが格納されていた字幕フ
レームメモリ114の領域を空き領域として、次の字幕
表示データの格納用の領域とするのである。
When the update time information reaches the display end time of the subtitle display data, the subtitle display area detecting unit 158 again becomes the non-display state, and the subtitle frame address generating unit 1
57, the read address is not output, and the data mask control unit 159 does not output the mixture ratio data α.
The subtitle display data is not output as subtitle composite data and disappears from the display screen. Furthermore, subtitle decoding control unit 1
In 06, the area of the subtitle frame memory 114 in which the subtitle display data is stored is set as an empty area and is set as an area for storing the next subtitle display data.

【0091】次に字幕の復号化処理手順(ステップ)に
ついて、図16の時刻の流れに沿った動作を示している
図と図15の処理のフローチャートを用いて詳細に説明
する。以下の説明において、ユーザ操作として、再生音
声としては英語(チャンネル番号2)、再生字幕として
は日本語(チャンネル番号1)を選択し、再生操作を行
っているものとする。また、図16を用いて、具体的に
動作を説明する。図では、字幕情報である”日本語A”
と”日本語B”は表示時刻「A+3」から「A+6」ま
で、表示する事を示し、”日本語C”は表示時刻「A+
7」から[A+9」まで、表示する事を示し、その字幕
情報の復号化処理はそれらの表示時刻前に、復号化処理
A、復号化処理B、復号化処理Cとして、行う事を示し
ている。本実施例では、1つの字幕圧縮データの復号化
処理の時間は1単位時間以内とする。
Next, the subtitle decoding procedure (step) will be described in detail with reference to FIG. 16 which shows the operation along the flow of time and the processing flowchart of FIG. In the following description, it is assumed that, as the user operation, English (channel number 2) is selected as the reproduced sound and Japanese (channel number 1) is selected as the reproduced subtitle, and the reproduction operation is performed. The operation will be specifically described with reference to FIG. In the figure, the caption information is "Japanese A".
And "Japanese B" indicate that the display time is "A + 3" to "A + 6", and "Japanese C" is the display time "A +".
7 ”to [A + 9” are displayed, and the decoding processing of the caption information is performed as the decoding processing A, the decoding processing B, and the decoding processing C before their display times. There is. In the present embodiment, the time for decoding one subtitle compressed data is within 1 unit time.

【0092】(S401)システムデコーダ部14から
の字幕情報が再生すべきチャンネル番号であるかどうか
を字幕デコード制御部106が判断する。すなわち、こ
こでは日本語の字幕再生が指示されているので、英語の
字幕圧縮データの場合は、(S408)の処理手順に進
み、字幕圧縮データは廃棄される。日本語の字幕圧縮デ
ータであれば、次の処理手順(S402)を行う。
(S401) The subtitle decoding control unit 106 determines whether the subtitle information from the system decoder unit 14 is a channel number to be reproduced. That is, since Japanese subtitle reproduction is instructed here, in the case of English subtitle compressed data, the process proceeds to (S408) and the subtitle compressed data is discarded. If it is Japanese subtitle compressed data, the following processing procedure (S402) is performed.

【0093】(S402)字幕圧縮データの基本データ
である開始時刻・終了時刻の表示時刻情報と更新時刻情
報と復号処理にかかる時間から、表示すべき時刻に復号
処理を終了できるかどうかを判断し、表示開始時刻前に
復号化処理が完了できれば、次の処理手順(S403)
を行う。
(S402) From the display time information of the start time and end time, which is the basic data of the compressed subtitle data, the update time information, and the time required for the decoding process, it is determined whether the decoding process can be ended at the time to be displayed. If the decryption processing can be completed before the display start time, the next processing procedure (S403)
I do.

【0094】すなわち、図16において、”日本語A”
と”日本語B”を、表示時刻の「A+3」から「A+
6」の時刻に表示するには、復号時間の1単位時間前の
時刻、すなわち、字幕圧縮データが「A+5」の時刻に
字幕情報デコーダ部17に到着しない場合は、処理手順
(S406)に進み、字幕圧縮データは廃棄され、到着
した場合は、開始時刻に間に合うように復号処理が終了
できるので次の処理手順(S403)を行う。
That is, in FIG. 16, "Japanese A"
And "Japanese B" from "A + 3" to "A +"
In order to display at the time "6", when the unit time before the decoding time, that is, when the compressed subtitle data does not arrive at the subtitle information decoder unit 17 at the time "A + 5", the process proceeds to the processing procedure (S406). The compressed subtitle data is discarded, and when it arrives, the decoding process can be completed in time for the start time, so the following processing procedure (S403) is performed.

【0095】(S403)復号開始時に、字幕フレーム
メモリ114内に復号処理で得た字幕表示データを格納
できるメモリ容量が残っているかどうかを判断する。
(S403) At the time of starting decoding, it is determined whether or not there is a memory capacity in the caption frame memory 114 capable of storing the caption display data obtained by the decoding process.

【0096】復号化処理で得た字幕表示データを格納す
るだけのメモリ領域がなければ、(S407)の処理手
順において、字幕圧縮データの復号化処理は開始せず、
既に字幕フレームメモリ114内で、格納可能なメモリ
領域になるまで、復号化処理を待つ事になる。すなわ
ち、既に字幕フレームメモリ114内の字幕表示データ
の表示時刻が過ぎて、その字幕表示データが無効にな
り、字幕フレームメモリ114内の格納可能なメモリ領
域が増加し、復号する字幕表示データを格納できる領域
が得られるまで監視する事になる。
If there is no memory area for storing the caption display data obtained by the decoding process, the decoding process of the caption compressed data is not started in the processing procedure of (S407),
The decoding process is awaited until the memory area in the subtitle frame memory 114 can be stored. That is, the display time of the subtitle display data in the subtitle frame memory 114 has already passed, the subtitle display data becomes invalid, the storable memory area in the subtitle frame memory 114 increases, and the subtitle display data to be decoded is stored. It will be monitored until the available area is obtained.

【0097】字幕フレームメモリ114内の復号化処理
する字幕表示データを格納するだけのメモリ領域があれ
ば、次の処理手順(S404)を行う。
If there is a memory area for storing the subtitle display data to be decoded in the subtitle frame memory 114, the following processing procedure (S404) is performed.

【0098】(S404)字幕情報の属性データを各処
理部に設定する。例えば、フィルタ係数はフィルタ部1
10に、量子化テーブルは量子化部111、色情報のC
LUTデータはCLUT部112に、サイズ情報・位置
情報・表示時刻情報は、字幕フレームメモリ制御部11
3に設定する。
(S404) Attribute data of subtitle information is set in each processing unit. For example, the filter coefficient is the filter unit 1
10, the quantization table is the quantization unit 111, C of the color information.
The LUT data is stored in the CLUT unit 112, and the size information / position information / display time information is stored in the subtitle frame memory control unit 11.
Set to 3.

【0099】(S405)各処理部への属性データに基
づき、字幕圧縮データを符号解読部108に転送し、復
号を開始する。字幕復号データはパターンデータ再生部
109、フィルタ部110、量子化部111、CLUT
部112、字幕フレームメモリ制御部113を経由し
て、字幕フレームメモリ114に字幕表示データを格納
する。字幕フレームメモリ制御部113では、前述した
第1および後述する第2の構成例の説明で示した処理手
順によって、表示時刻に到達したら、字幕フレームメモ
リ内の字幕表示データを表示合成データとして出力し、
表示時刻を過ぎたら、字幕表示データを字幕合成データ
として出力しないように制御するのである。
(S405) Based on the attribute data to each processing section, the compressed subtitle data is transferred to the code decoding section 108, and decoding is started. The subtitle decoded data includes the pattern data reproducing unit 109, the filter unit 110, the quantizing unit 111, and the CLUT.
The subtitle display data is stored in the subtitle frame memory 114 via the unit 112 and the subtitle frame memory control unit 113. The subtitle frame memory control unit 113 outputs the subtitle display data in the subtitle frame memory as display combined data when the display time is reached by the processing procedure shown in the description of the first and second configuration examples described above. ,
After the display time, the subtitle display data is controlled so as not to be output as subtitle composite data.

【0100】以上のような手順により、図7における第
1の実施例で、1つの字幕圧縮データの復号化処理を行
う事ができる。字幕圧縮データの処理は再び同じ処理フ
ローを辿り、復号化処理を行う。本実施例において、図
16における、”日本語C”の復号化処理について、字
幕フレームメモリ114内に復号した字幕表示データを
格納するだけの容量があれば、”日本語A”、”日本語
B”が表示中にもかかわらず、字幕フレームメモリ11
4内に、復号処理した字幕表示データを格納できる容量
があれば、復号処理を行い、字幕を設定された開始時刻
に表示する事ができるのである。
With the above procedure, one subtitle compressed data can be decoded in the first embodiment shown in FIG. The processing of compressed subtitle data follows the same processing flow again and performs decoding processing. In the present embodiment, for the decoding process of "Japanese C" in FIG. 16, if the caption frame memory 114 has a capacity for storing the decoded subtitle display data, "Japanese A", "Japanese" Even though "B" is displayed, the subtitle frame memory 11
If there is a capacity for storing the decoded caption display data in 4, the decoding process can be performed and the caption can be displayed at the set start time.

【0101】以上のような構成及び処理手順により、本
発明における復号化が実現できるが、字幕フレームメモ
リ制御部113の第1の構成例の字幕フレームメモリ用
アドレス発生部157において、表示すべき字幕表示デ
ータを含む領域のみを常に、表示用のアドレスとなるよ
うに制御する事により、データマスク部159は不要で
ある。
Although the decoding according to the present invention can be realized by the above-described configuration and processing procedure, the subtitles to be displayed in the subtitle frame memory address generation unit 157 of the first configuration example of the subtitle frame memory control unit 113. The data mask section 159 is unnecessary by controlling only the area including the display data so as to always have the display address.

【0102】次に本実施例でのフィルタ部110の高速
化回路について、図17を用いて、簡単に説明する。こ
の高速化回路の例では、フィルタの係数マトリックスの
値は全て、2のべき乗で表しているものとして説明す
る。また、本実施例では9×9のフィルタ処理とし、字
幕伸張データの横方向の最大長さを720画素とする。
Next, the speed-up circuit of the filter section 110 in this embodiment will be briefly described with reference to FIG. In this example of the speed-up circuit, it is assumed that all the values of the filter coefficient matrix are represented by powers of two. In addition, in this embodiment, 9 × 9 filter processing is performed, and the maximum horizontal length of the subtitle expansion data is 720 pixels.

【0103】図17の(a)は9×9のフィルタ演算を
行うための720×9ライン分のシフトレジスタであ
り、字幕伸張データは、図の右上端からライン方向を7
20ドットに拡張して入力する。その内の左端部の9×
9の字幕伸張データについては、ビットデータを得て、
9画素分の行方向の加算データ得るのである。図17
(b)にその9画素分の行方向の加算データ演算部の詳
細を示してある。図17(b)において、画素をシフト
するシフトレジスタ、画素値にフィルタ係数の値を乗ず
る代わり、各画素毎にシフトする事で、2のべき乗値と
するためのシフタとその結果を加算する加算器で構成さ
れる。各シフタはそのシフト値を設定できるレジスタを
有し、フィルタ係数値を2のべき乗値に置き換えて設定
するのである。そのシフタ値を加算器により加算し、行
方向の加算結果を得るのである。それらの行合計をさら
に列加算器で加算する事で、9×9のフィルタ結果を得
る事ができる。
FIG. 17A shows a shift register for 720 × 9 lines for performing a 9 × 9 filter operation, and the subtitle decompression data is 7 in the line direction from the upper right end of the figure.
Extend to 20 dots and enter. 9x at the left end
For the subtitle expansion data of 9, get the bit data,
The addition data in the row direction for 9 pixels is obtained. FIG. 17
The detail of the addition data operation unit in the row direction for the 9 pixels is shown in (b). In FIG. 17B, a shift register that shifts pixels, an addition that adds a shifter for setting a power value of 2 by shifting each pixel instead of multiplying the pixel value by the value of the filter coefficient, and the result thereof Composed of vessels. Each shifter has a register capable of setting the shift value, and the filter coefficient value is set by replacing it with a power of 2. The shifter values are added by the adder to obtain the addition result in the row direction. A 9 × 9 filter result can be obtained by further adding the row totals by the column adder.

【0104】また、上記シフトレジスタに対する入力が
任意の位置から可能な構成にする事によって、復号した
ビットマップデータが720画素に満たない場合でも、
720画素に拡大する事なく、画素を入力する構成も実
現できる。
Further, even when the decoded bitmap data is less than 720 pixels by making the input to the shift register possible from any position,
A configuration in which pixels are input without expanding to 720 pixels can also be realized.

【0105】このような構成にすることにより、フィル
タ処理はほぼ表示処理と同等な速度で実現可能である。
また、この処理につづく量子化処理はフィルタ処理結果
のデータをアドレスとする量子化テーブルROM、ま
た、この処理につづくCLUT部の処理は、その量子化
ROMの出力値をアドレスとするCLUTのROMで実
現できる事から、これらの処理をパイプライン処理する
事が可能である。また、符号解読処理についても、高速
化の手法を使用する事で、最大でも符号化ビット数のク
ロックで符号解読、パターンデータ再生部109におい
ても、ラン長は画面の最大ライン長であるので復号化処
理は表示処理と同等な速度で実現できる事はあきらかで
ある。
With such a configuration, the filter processing can be realized at a speed almost equal to the display processing.
Further, the quantization processing following this processing is a quantization table ROM whose address is the data of the filter processing result, and the processing of the CLUT unit which follows this processing is the ROM of the CLUT whose output value is the quantization ROM. These processes can be pipelined. Also, regarding the code decoding process, by using the speed-up method, the code decoding is performed with the clock of the coded bit number at the maximum, and the run length is also the maximum line length of the screen in the pattern data reproducing unit 109. It is clear that the digitization process can be realized at the same speed as the display process.

【0106】また、字幕デコード制御部106あるいは
デコーダ主制御部13あるいは字幕フレームメモリ制御
部113などに含まれるマイクロプロセッサを用いて、
符号解読処理、逆ランレングス処理、フィルタ処理、量
子化処理、色情報の設定処理の一部あるいは全部を行う
事でも本発明は実現できる。
Further, by using a microprocessor included in the subtitle decoding control unit 106, the decoder main control unit 13, the subtitle frame memory control unit 113, or the like,
The present invention can also be realized by performing a part or all of the code decoding process, the reverse run length process, the filter process, the quantization process, and the color information setting process.

【0107】上記実施例のフィルタ処理は2のべき乗で
説明したが、任意の値でも構わず、ハードウェア規模は
大きくなるが、高速処理が可能である事はいうまでもな
い。
Although the filter processing of the above-described embodiment has been described as a power of 2, any value may be used and the hardware scale increases, but it goes without saying that high-speed processing is possible.

【0108】また、上記第1の実施例において、字幕情
報102に含まれる属性データとして、字幕デコード制
御部106から各処理ブロックに設定されるものとして
は、パターンデータ再生部109には拡大率を設定でき
る。例えば2倍拡大が設定されていれば、パターンデー
タ再生時において、横方向において、ラン長を符号化テ
ーブルで得た値を2倍して、再生し、縦方向において
は、2回同一ラインの再生を行う事で実現できる。
In the first embodiment, as the attribute data included in the subtitle information 102, which is set in each processing block from the subtitle decoding control unit 106, the pattern data reproducing unit 109 has an enlargement ratio. Can be set. For example, if the double enlargement is set, when the pattern data is reproduced, the run length is doubled in the horizontal direction from the value obtained in the encoding table and reproduced, and the same length of the same line is reproduced twice in the vertical direction. It can be realized by playing.

【0109】また、量子化部111、CLUT部11
2、フィルタ部110には、量子化テーブルの値、CL
UTデータの値、フィルタの係数マトリックスの値があ
る。例えば、その階調化データの設定によっては、フィ
ルタ部110、量子化部111、CLUT部112にお
いては、縁取り幅の大きさを変化させる事も可能であ
る。例えば、縁取り幅をより大きくするためには、本実
施例では量子化部111において、量子化値0とするフ
ィルタ出力値を0〜3、量子化値1とするフィルタ出力
値を4〜7としているが、フィルタ出力値0のみを量子
化値0、フィルタ出力値1のみを量子化値1とするよう
に設定すれば、量子化値2、すなわち縁取りデータ色を
表示する領域を拡大する事ができる。また、CLUTデ
ータの値において、量子化値1及び量子化値0の混合比
率データαを0に設定する事によっても、縁取りデータ
色を拡大する事が出来る。当然ながら、フィルタの係数
マトリックスのサイズを大きくする事によっても、縁取
り幅を大きくする事ができるのである。
Further, the quantizing unit 111 and the CLUT unit 11
2, the filter unit 110 has a quantization table value, CL
There are UT data values and filter coefficient matrix values. For example, depending on the setting of the gradation data, in the filter unit 110, the quantization unit 111, and the CLUT unit 112, it is possible to change the size of the border width. For example, in order to make the border width wider, in the present embodiment, the quantizer 111 sets the filter output value with the quantized value 0 to 0 to 3, and the filter output value with the quantized value 1 to 4 to 7. However, if only the filter output value 0 is set to the quantized value 0 and only the filter output value 1 is set to the quantized value 1, the quantized value 2, that is, the area for displaying the border data color can be enlarged. it can. Further, by setting the mixture ratio data α of the quantized value 1 and the quantized value 0 to 0 in the value of the CLUT data, the border data color can be expanded. Of course, the border width can also be increased by increasing the size of the coefficient matrix of the filter.

【0110】また、フィルタの係数マトリックスを図1
8のように、係数マトリックスの重みづけの位置を変化
させたフィルタを用いると、図19(b)に示すように
縁取りが不均等につくことになり、図19(a)に示し
た従来の字幕と較べて、いわゆる”飛び出す”字幕の効
果を出す事もできる。
The coefficient matrix of the filter is shown in FIG.
When a filter in which the weighting position of the coefficient matrix is changed as shown in FIG. 8 is used, the edging becomes uneven as shown in FIG. 19 (b), and the conventional edging shown in FIG. Compared with subtitles, the effect of so-called "jumping out" subtitles can also be produced.

【0111】以上のような、あらかじめ情報記録媒体に
格納している階調化データのフィルタ係数の値、量子化
テーブルの値、CLUTデータの値を用いるだけではな
く、ユーザ操作情報12を基に、デコード主制御部13
あるいは字幕デコード制御部106において、あらかじ
め設定された規則で、上記階調化データを変換させる
事、例えば、CLUTの情報の混合比率データαを1秒
程度の時間間隔で、0から100に変化させる事で、字
幕情報のフェードアウト処理が可能であり、逆に100
から0の方向に変化させる事で、フェードイン処理など
を本発明の復号化方法及び装置においては可能である。
Not only is the value of the filter coefficient of the gradation data, the value of the quantization table, and the value of the CLUT data stored in advance in the information recording medium as described above used, but also based on the user operation information 12. , Decoding main controller 13
Alternatively, in the subtitle decoding control unit 106, the gradation data is converted according to a preset rule, for example, the mixing ratio data α of the CLUT information is changed from 0 to 100 at a time interval of about 1 second. By doing so, it is possible to fade out the subtitle information, and conversely 100
By changing from 0 to 0, fade-in processing or the like is possible in the decoding method and apparatus of the present invention.

【0112】なお、圧縮字幕データが2値の値をとる場
合を説明したが、3値以上の値をとってもよい。
Although the case where the compressed subtitle data takes a binary value has been described, the compressed subtitle data may take a ternary value or more.

【0113】3値の値をとる場合の伸張部を説明する。
図20において、(a)に字幕圧縮データの1ライン分
の符号化データ列、(b)に再生されたビット列、
(c)に字幕伸張データを示す。図20では、サイズが
55×16画素の矩形領域の字幕を3値のビットマップ
データとして表現しており、その矩形領域の1ライン単
位で圧縮時に符号化処理をしている。字幕情報の字幕圧
縮データは図20(a)に示すような符号化データ列の
集まりであり、符号化データ列を図9に示す符号化テー
ブルを参照しながら復号化処理をする。本実施例におい
て、ラン長を符号化した符号化データの各先頭に、3値
の領域(背景データと縁取りデータとパターンデータ)
を識別するための識別データを付加した符号化処理をお
こなっている。
A decompression unit for taking a ternary value will be described.
20, (a) is an encoded data string for one line of compressed subtitle data, (b) is a reproduced bit string,
Subtitle expansion data is shown in (c). In FIG. 20, a subtitle in a rectangular area having a size of 55 × 16 pixels is expressed as ternary bitmap data, and the rectangular area is encoded in units of one line at the time of compression. The closed caption data of the closed caption information is a collection of encoded data strings as shown in FIG. 20A, and the encoded data strings are decoded with reference to the encoding table shown in FIG. In this embodiment, a ternary area (background data, border data, and pattern data) is provided at the beginning of each encoded data obtained by encoding the run length.
Encoding processing is performed by adding identification data for identifying the.

【0114】図20(a)に示したように、符号化デー
タ列の1つのラン長を示す符号化データは、下線を施し
ている背景データと縁取りデータとパターンデータとを
識別する識別データ(00=背景データ、01=縁取り
データ、10=パターンデータ)とラン長を示す符号化
データで構成する。このような構成にする事で、3値以
上の値のランレングスの圧縮処理をおこなっている。第
1の実施例と同様に図9の符号化テーブルをもとに、こ
の字幕圧縮データを1ライン分伸張した結果が図20
(b)である。また、字幕情報全体を伸張した結果が図
20(c)である。図20(c)で示したように符号化
データを伸張する事で、3値(背景データ値、縁取りデ
ータ値、パターンデータ値)を表現した字幕伸張データ
を得る事ができる。
As shown in FIG. 20 (a), the coded data indicating one run length of the coded data string is the identification data (for identifying the underlined background data, border data and pattern data). 00 = background data, 01 = bordering data, 10 = pattern data) and encoded data indicating the run length. With such a configuration, the compression processing of the run length of three or more values is performed. As in the first embodiment, the result of decompressing the compressed subtitle data for one line based on the encoding table of FIG. 9 is shown in FIG.
(B). Further, FIG. 20C shows the result of expanding the entire subtitle information. By expanding the encoded data as shown in FIG. 20 (c), it is possible to obtain the expanded caption data that expresses three values (background data value, border data value, pattern data value).

【0115】さらに、パターンデータのある画素は例え
ば、”16”の値とし、パターンデータがなく、縁取り
データのみある画素には”1”のデータを設定し、その
他の画素データには”0”を設定しフィルタ部110で
処理する。フィルタの係数マトリックスはフィルタ処理
により縁取りデータを生成する必要がないので、第3の
実施例と同様な3×3の係数マトリックスで行う事がで
きる。
Further, a pixel having pattern data is set to a value of "16", for example, a pixel having no pattern data but only edging data is set to "1" data, and other pixel data is "0". Is set and processed by the filter unit 110. Since the coefficient matrix of the filter does not need to generate the edging data by the filter processing, the coefficient matrix of 3 × 3 can be used as in the third embodiment.

【0116】次に3値以上の圧縮字幕データでの復号化
方法及び復号化装置の第2の実施例について図21〜図
23を用いて説明する。情報記録媒体は図3の構成とす
る。
Next, a second embodiment of a decoding method and a decoding device for compressed subtitle data of three or more values will be described with reference to FIGS. 21 to 23. The information recording medium has the structure shown in FIG.

【0117】伸張部と階調化部(マージ処理部含む)の
構成以外は、第1の実施例と同じなので伸張部と階調化
部のみを説明する。
Except for the configurations of the decompression unit and the gradation unit (including the merge processing unit), this is the same as the first embodiment, so only the decompression unit and the gradation unit will be described.

【0118】図21において、200は再生データ、2
01は符号解読部、202はCLUT部112に出力さ
れる量子化データ、203はパターンデータ再生部、2
04はパターンデータに対してフィルタ処理を行うフィ
ルタ部、205はそのフィルタ処理結果に対して量子化
処理を行う量子化部、206は復号データから縁取りデ
ータを生成する縁取りデータ生成部、207はその縁取
りデータに対してフィルタ処理を行うフィルタ部、20
8はフィルタ処理結果に対して量子化処理を行う量子化
部、209は量子化処理結果をマージするマージ処理部
である。マージ処理部209には、縁取りデータとパタ
ーンデータとのマージ処理時に、縁取りデータとパター
ンデータとのマージ位置をずらす事が可能な構成となっ
ているものとする。
In FIG. 21, 200 is reproduction data, 2 is
Reference numeral 01 is a code decoding unit, 202 is quantized data output to the CLUT unit 112, 203 is a pattern data reproducing unit, 2
Reference numeral 04 is a filter unit that performs a filter process on the pattern data, 205 is a quantization unit that performs a quantization process on the filter process result, 206 is a border data generation unit that generates border data from the decoded data, and 207 is the A filter unit for filtering the border data, 20
Reference numeral 8 denotes a quantizer that performs a quantization process on the filter processing result, and reference numeral 209 denotes a merge processor that merges the quantization process results. It is assumed that the merging processing unit 209 is configured to be able to shift the merging position of the edging data and the pattern data when merging the edging data and the pattern data.

【0119】第1の実施例では、2値以上の圧縮字幕デ
ータからパターンデータを伸張し、フィルタ処理と量子
化処理を施して縁取りデータを同時に生成したが、第2
の実施例では、3値以上の圧縮字幕データの再生データ
200からパターンデータと縁取りデータを生成する。
In the first embodiment, the pattern data is decompressed from the binary or more compressed subtitle data, and the edging data is simultaneously generated by performing the filtering process and the quantizing process.
In this embodiment, the pattern data and the edging data are generated from the reproduction data 200 of the compressed subtitle data of three or more values.

【0120】第2の実施例の伸張部の動作を説明する。
第2の実施例の伸張部は、パターンデータと縁取りデー
タで各々伸張する点が特徴である。
The operation of the expansion unit of the second embodiment will be described.
The decompression unit of the second embodiment is characterized in that it decompresses pattern data and border data, respectively.

【0121】図22において、(a)に符号解読部での
字幕圧縮データの1ライン分の符号化データ列、(b)
に再生されたビット列、(c)に字幕伸張データを示
す。図22では、サイズが55×16画素の矩形領域の
字幕を3値のビットマップデータとして表現しており、
その矩形領域の1ライン単位で圧縮時に符号化処理をし
ている。字幕情報の字幕圧縮データは図22(a)に示
すような符号化データ列の集まりであり、符号化データ
列を図9に示す符号化テーブルを参照しながら復号化処
理をする。本実施例において、ラン長を符号化した符号
化データの各先頭に、3値の領域(背景データと縁取り
データとパターンデータ)を識別するための識別データ
を付加した符号化処理をおこなっている。
In FIG. 22, (a) is an encoded data string for one line of subtitle compressed data in the code decoding section, (b)
The reproduced bit sequence is shown in (c), and the subtitle decompression data is shown in (c). In FIG. 22, a subtitle in a rectangular area having a size of 55 × 16 pixels is represented as ternary bitmap data,
Encoding processing is performed for each line of the rectangular area during compression. The closed caption compressed data of the closed caption information is a collection of encoded data strings as shown in FIG. 22A, and the encoded data string is decoded with reference to the encoding table shown in FIG. In the present embodiment, coding processing is performed in which identification data for identifying a ternary region (background data, edging data, and pattern data) is added to each head of coded data obtained by coding run lengths. .

【0122】図22(a)に示したように、符号化デー
タ列の1つのラン長を示す符号化データは、下線を施し
ている背景データと縁取りデータとパターンデータとを
識別する識別データ(00=背景データ、01=縁取り
データ、10=パターンデータ)とラン長を示す符号化
データで構成する。このような構成にする事で、3値以
上の値のランレングスの圧縮処理をおこなっている。縁
取りデータ生成部206での縁取りデータの伸張は、縁
取りデータを識別データ”01”と”10”で示すデー
タとし、背景データを識別データ”00”で示すデータ
として伸張する。またパターンデータ再生部でのパター
ンデータの伸張は、パターンデータを識別データ”1
0”で示すデータとし、背景データを識別データ”0
0”と識別データ”01”で示すデータとして伸張す
る。第1の実施例と同様に図9の符号化テーブルをもと
に、この字幕圧縮データを1ライン分伸張した結果が図
22(b)である。また、字幕情報全体を伸張した結果
が図22(c)である。図22(c)で示したように符
号化データを伸張する事で、2値の縁取りデータ(背景
データと縁取りデータ)と2値のパターンデータ(背景
データとパターンデータ)を表現した字幕伸張データを
得る事ができる。
As shown in FIG. 22A, the coded data indicating one run length of the coded data string is the identification data (for identifying the underlined background data, border data and pattern data). 00 = background data, 01 = bordering data, 10 = pattern data) and encoded data indicating the run length. With such a configuration, the compression processing of the run length of three or more values is performed. The border data is expanded by the border data generation unit 206 by decompressing the border data as data indicated by identification data “01” and “10” and decompressing the background data as data indicated by identification data “00”. In addition, the expansion of the pattern data in the pattern data reproducing unit is performed by identifying the pattern data as identification data
The data indicated by "0" and the background data are identified by "0".
The data is decompressed as data indicated by 0 "and identification data" 01 ". The result of decompressing the compressed subtitle data for one line based on the encoding table of FIG. 22C shows the result of expanding the entire caption information.By extending the encoded data as shown in FIG. It is possible to obtain subtitle decompression data expressing the border data) and binary pattern data (background data and pattern data).

【0123】図23に、階調化部(パターンデータと縁
取りデータそれぞれのフィルタ処理と量子化処理)を説
明した図を示している。
FIG. 23 is a diagram for explaining the gradation unit (filtering process and quantizing process for each of pattern data and border data).

【0124】縁取りデータ生成部206で得られた縁取
りデータは、パターンデータと同様にフィルタ処理、フ
ィルタ結果の量子化処理を行い、図23(d)で示した
ように、M1,M2,M3の領域で量子化したような画
像データとの混合が可能な縁取りデータを得る事ができ
る。得られた縁取りデータはフィルタ部207でフィル
タ処理される。フィルタの係数マトリックスは、図23
(e)に示すような3×3のフィルタを用いる。説明の
簡単化のために、パターンデータ、縁取りデータには4
という値を、背景データには0の値を割当るとし、フィ
ルタ処理後は0〜8の9レベルの値とし、量子化後は0
〜4の5レベルの値にする。図23(c)に生成された
縁取りデータを示し、図23(d)にフィルタ処理後の
データを示す。図にしめすように、縁取りデータのフィ
ルタ処理後のデータから領域M1、M2、M3の領域に
図13に示すCLUTデータの量子化値2、量子化値
1、量子化値0となる量子化処理を行う。
The edging data obtained by the edging data generation unit 206 is subjected to the filtering process and the quantization process of the filter result in the same manner as the pattern data, and as shown in FIG. It is possible to obtain border data that can be mixed with image data quantized in a region. The obtained edging data is filtered by the filter unit 207. The coefficient matrix of the filter is shown in FIG.
A 3 × 3 filter as shown in (e) is used. For simplification of explanation, 4 for pattern data and border data.
The value of 0 is assigned to the background data, the value is 9 levels of 0 to 8 after filtering, and 0 after quantization.
Set to 5 level value of ~ 4. FIG. 23C shows the generated edging data, and FIG. 23D shows the data after the filter processing. As shown in the drawing, the quantization processing in which the quantized value 2, the quantized value 1, and the quantized value 0 of the CLUT data shown in FIG. 13 is obtained in the areas M1, M2, and M3 from the data after the filtering processing of the edging data. I do.

【0125】また、パターンデータはパターンデータ再
生部203により得て、そのパターンデータに対して階
調処理を施すためのフィルタ処理をフィルタ部204で
行う。この時のフィルタの係数マトリックスは第1の実
施例のフィルタのように、縁取りデータの生成を含めた
ものではなく、図23(e)に示すような3×3のマト
リックスで十分である。フィルタ部204で得られたフ
ィルタ結果に対して、量子化部205で量子化処理を行
い、パターンデータの階調表示データを生成するのであ
る。この処理は図23で示したパターンデータの階調処
理であるK1,K2領域に図13に示すCLUTデータ
の量子化値4、量子化値3となる量子化処理を行うので
ある。図23におけるK3の領域はパターンデータとし
て扱わないデータ領域となる。
Further, the pattern data is obtained by the pattern data reproducing unit 203, and the filter unit 204 performs the filtering process for performing the gradation process on the pattern data. The coefficient matrix of the filter at this time does not include the generation of the edging data like the filter of the first embodiment, and a 3 × 3 matrix as shown in FIG. 23E is sufficient. The filter result obtained by the filter unit 204 is quantized by the quantization unit 205 to generate gradation display data of the pattern data. This processing is the gradation processing of the pattern data shown in FIG. 23, in which the K1 and K2 regions are quantized so that the quantized values 4 and 3 of the CLUT data shown in FIG. 13 are obtained. The area K3 in FIG. 23 is a data area that is not treated as pattern data.

【0126】このように得られた、パターンデータと縁
取りデータをマージ処理部209によって、マージ処理
を行う。このマージ処理部209では、パターンデータ
が存在する画素にはパターンデータ表示に相当する量子
化値4あるいは量子化値3を設定し、パターンデータが
存在しない画素には、縁取りデータに相当する量子化値
2、量子化値1、量子化値0を設定する。このマージ処
理部209の処理の結果、第1の実施例と同様に字幕の
パターンデータと縁取りデータを含む量子化値を得るこ
とができる。
The pattern data and the edging data thus obtained are merged by the merge processing unit 209. In the merge processing unit 209, the quantization value 4 or the quantization value 3 corresponding to the pattern data display is set to the pixel having the pattern data, and the quantization value corresponding to the border data is set to the pixel having no pattern data. The value 2, the quantized value 1, and the quantized value 0 are set. As a result of the processing of the merge processing unit 209, it is possible to obtain the quantized value including the subtitle pattern data and the border data, as in the first embodiment.

【0127】以上のように本実施例によれば、第2の実
施例は第1の実施例と比較して、大きいサイズの係数マ
トリックスを用意する必要がなく、ハードウェア規模を
軽減できる。
As described above, according to this embodiment, it is not necessary to prepare a large-sized coefficient matrix in the second embodiment as compared with the first embodiment, and the hardware scale can be reduced.

【0128】第2の実施例において、各処理ブロックに
設定する属性データとしては、パターンデータ再生部2
03、縁取りデータ生成部206には第1の実施例と同
様に、拡大率を設定できる。パターンデータ再生時にお
いては、第1の実施例と同様な処理で、例えば、2倍拡
大の処理は、横方向において、ラン長を符号化テーブル
で得た値を2倍して、再生し、縦方向においては、2回
同一ラインの再生を行う事で拡大処理を行う事ができ、
縁取りデータ生成時には、横方向においては、縁取り生
成のために得たラン長を2倍して、再生し、縦方向にお
いては、2回同一ラインの再生を行う事で縁取りの2倍
拡大データの生成が実現できる。
In the second embodiment, the pattern data reproducing unit 2 is used as the attribute data set in each processing block.
03, the enlargement ratio can be set in the border data generation unit 206, as in the first embodiment. At the time of reproducing the pattern data, the same processing as that in the first embodiment is performed. For example, in the processing of doubling, the run length is doubled in the horizontal direction by the value obtained in the encoding table and reproduced. In the vertical direction, enlargement processing can be performed by playing the same line twice.
When the edging data is generated, the run length obtained for the edging is doubled in the horizontal direction to be reproduced, and the same line is reproduced twice in the vertical direction so that the double-enlarged data of the edging can be obtained. Generation can be realized.

【0129】また、マージ処理部209に縁取り位置変
位情報として、マージ位置をずらし、すなわち縁取りデ
ータとパターンデータをマージ処理時に通常の順序と変
えてマージするのである。そのような処理により、図1
9(b)に示すように、例えばパターンデータ位置を中
心からずらす事を行う事により、第1の実施例で説明し
た”飛び出す”字幕を同様に実現できる。
Further, as the edging position displacement information, the merging processing unit 209 shifts the merging position, that is, the edging data and the pattern data are merged in a normal order during the merging processing. By such processing, FIG.
As shown in FIG. 9 (b), for example, by shifting the pattern data position from the center, the "pop-out" caption described in the first embodiment can be similarly realized.

【0130】また、フィルタ部204及び207は第1
の実施例と同様に、図17と同様構成要素をもち、3ラ
イン分のシフトレジスタとシフタと加算器により、高速
回路が実現できる事はあきらかである。
The filter units 204 and 207 are the first
It is clear that a high-speed circuit can be realized by using the shift register, shifter, and adder for three lines, which have the same constituent elements as those in FIG.

【0131】次に複数の2値の圧縮字幕データでの復号
化方法及び復号化装置の第3の実施例について図24を
用いて説明する。情報記録媒体は図4(a)あるいは図
4(b)の構成とする。
Next, a third embodiment of the decoding method and the decoding device for a plurality of binary compressed subtitle data will be described with reference to FIG. The information recording medium has the configuration shown in FIG. 4 (a) or 4 (b).

【0132】第2の実施例では、3値以上の圧縮字幕デ
ータの再生データ200からパターンデータと縁取りデ
ータを生成したが、第3の実施例では、2値の複数の圧
縮字幕データの再生データ200から順次パターンデー
タと縁取りデータを生成する。
In the second embodiment, the pattern data and the edging data are generated from the reproduction data 200 of the compressed subtitle data of three or more values, but in the third embodiment, the reproduction data of a plurality of binary compressed subtitle data. From 200, pattern data and border data are sequentially generated.

【0133】伸張部の動作以外は、第2の実施例と同じ
なので図21を用いて伸張部のみを説明する。
Since the operation is the same as that of the second embodiment except for the operation of the decompression unit, only the decompression unit will be described with reference to FIG.

【0134】複数の2値の値をとる場合の伸張部を説明
する。この場合、複数の2値の圧縮字幕データの再生デ
ータであるパターンデータと縁取りデータを順次符号解
読し、各々パターンデータと縁取りデータを生成する。
The decompression unit for taking a plurality of binary values will be described. In this case, the pattern data and the edging data, which are the reproduction data of the plurality of binary compressed subtitle data, are sequentially code-decoded to generate the pattern data and the edging data, respectively.

【0135】図24において、(a)に符号解読部での
字幕圧縮データの1ライン分の符号化データ列(パター
ンデータ)、(b)に再生されたビット列(パターンデ
ータ)、(c)に字幕伸張データ(パターンデータ)を
示す。さらに、(d)に符号解読部での字幕圧縮データ
の1ライン分の符号化データ列(縁取りデータ)、
(e)に再生されたビット列(縁取りデータ)、(f)
に字幕伸張データ(縁取りデータ)を示す。
In FIG. 24, (a) shows an encoded data string (pattern data) of one line of caption compressed data in the code decoding section, (b) shows a reproduced bit string (pattern data), and (c) shows The subtitle decompression data (pattern data) is shown. Further, in (d), a coded data string for one line of the compressed subtitle data in the code decoding unit (rimming data),
(E) Reproduced bit string (rimming data), (f)
Shows the subtitle decompression data (outline data).

【0136】図24では、サイズが55×16画素の矩
形領域の字幕を複数の2値のビットマップデータとして
表現しており、その矩形領域の1ライン単位で圧縮時に
符号化処理をしている。字幕情報の字幕圧縮データは図
24(a)あるいは(d)に示すような符号化データ列
の集まりであり、符号化データ列を図9に示す符号化テ
ーブルを参照しながら復号化処理をする。復号化処理時
には例えば、図24(a)で示す”1”と”0”の符号
化データ列”000011001100”を1ビットず
つ、図9の符号化テーブルとの一致処理をして復号す
る。この場合は”ラン長=28”と復号する。続く符号
化データ列に同様の復号を行い、”ラン長=3”、”ラ
ン長=24”と復号する。復号結果は図24(b)のよ
うになり、背景データ=28画素、パターンデータ=3
画素、背景データ=24画素と続き、ライン長に達した
のでライン終了となる。以下同様に字幕圧縮データを全
て復号化処理した結果を図24(c)に示す。このよう
に字幕圧縮データからの矩形領域のパターンデータを得
る事ができる。
In FIG. 24, a subtitle in a rectangular area having a size of 55 × 16 pixels is represented as a plurality of binary bit map data, and the encoding processing is performed for each line of the rectangular area at the time of compression. . The closed caption data of the closed caption information is a group of encoded data strings as shown in FIG. 24 (a) or (d), and the encoded data string is decoded with reference to the encoding table shown in FIG. . At the time of the decoding process, for example, the coded data string “0000111001100” of “1” and “0” shown in FIG. 24A is subjected to the matching process with the coding table of FIG. In this case, it is decoded as "run length = 28". Similar decoding is performed on the subsequent coded data string to decode "run length = 3" and "run length = 24". The decoding result is as shown in FIG. 24B, where background data = 28 pixels, pattern data = 3.
Pixels and background data = 24 pixels continue, and since the line length has been reached, the line ends. Similarly, FIG. 24 (c) shows the result of decoding all the subtitle compressed data. In this way, the pattern data of the rectangular area can be obtained from the compressed subtitle data.

【0137】次いで、図24(d)で示す”1”と”
0”の符号化データ列”00001101010”を1
ビットずつ、図9の符号化テーブルとの一致処理をして
復号する。この場合は”ラン長=26”と復号する。続
く符号化データ列に同様の復号を行い、”ラン長=
6”、”ラン長=23”と復号する。復号結果は図24
(e)のようになり、背景データ=26画素、縁取りデ
ータ=6画素、背景データ=23画素と続き、ライン長
に達したのでライン終了となる。以下同様に字幕圧縮デ
ータを全て復号化処理した結果を図24(f)に示す。
このように字幕圧縮データからの矩形領域の縁取りデー
タを得る事ができる。
Then, "1" and "" shown in FIG.
The encoded data string "00001101010" of 0 "is set to 1
Each bit is decoded by performing matching processing with the coding table of FIG. In this case, it is decoded as "run length = 26". The same decoding is performed on the subsequent encoded data string, and "run length =
6 "and" run length = 23 "are decoded. The decoding result is shown in FIG.
As shown in (e), the background data = 26 pixels, the edging data = 6 pixels, the background data = 23 pixels, and the line length is reached. Similarly, FIG. 24 (f) shows the result of decoding all the subtitle compressed data.
In this way, it is possible to obtain the border data of the rectangular area from the compressed subtitle data.

【0138】次に複数の2値の圧縮字幕データでの復号
化方法及び復号化装置の第4の実施例について図25と
図26を用いて説明する。情報記録媒体は図5の構成と
する。
Next, a fourth embodiment of the decoding method and the decoding device for a plurality of binary compressed subtitle data will be described with reference to FIGS. 25 and 26. The information recording medium has the structure shown in FIG.

【0139】階調化部(マージ処理部含む)の構成以外
は、第2の実施例と同じなので階調化部のみを説明す
る。
Except for the configuration of the gradation unit (including the merge processing unit), it is the same as the second embodiment, so only the gradation unit will be described.

【0140】図25において、300は再生データ、3
01は符号解読部、302はCLUT部112に出力さ
れる量子化データ、303はパターンデータ再生部、3
04はパターンデータに対してフィルタ処理を行うフィ
ルタ部、305はそのフィルタ処理結果に対して量子化
処理を行う量子化部、306は復号データから縁取りデ
ータを生成する縁取りデータ生成部、307は縁取りデ
ータとパターンデータの量子化処理結果をマージするマ
ージ処理部である。マージ処理部307には、縁取りデ
ータとパターンデータとのマージ処理時に、縁取りデー
タとパターンデータとのマージ位置をずらす事が可能な
構成となっているものとする。
In FIG. 25, 300 is reproduction data and 3
Reference numeral 01 is a code decoding unit, 302 is quantized data output to the CLUT unit 112, 303 is a pattern data reproducing unit, 3
Reference numeral 04 is a filter unit for performing a filtering process on the pattern data, 305 is a quantizing unit for performing a quantization process on the filter processing result, 306 is a edging data generation unit for generating edging data from the decoded data, and 307 is a edging It is a merge processing unit that merges the quantization processing results of data and pattern data. It is assumed that the merge processing unit 307 is configured to be able to shift the merge position of the border data and the pattern data when the border data and the pattern data are merged.

【0141】第4の実施例は第3の実施例と同様に、2
値の複数の圧縮字幕データの再生データ300から順次
パターンデータと縁取りデータを生成するが、フイルタ
・量子化情報はパターンデータのみ持つ場合を示す。
The fourth embodiment is similar to the third embodiment in that
The pattern data and the edging data are sequentially generated from the reproduction data 300 of the compressed subtitle data of a plurality of values, but the case where the filter / quantization information has only the pattern data is shown.

【0142】第4の実施例の階調化部の動作を説明す
る。第4の実施例の階調化部は、パターンデータのみ階
調化する点が特徴である。
The operation of the gradation unit of the fourth embodiment will be described. The gradation unit of the fourth embodiment is characterized in that only the pattern data is gradation-converted.

【0143】図26に、階調化部(パターンデータのフ
ィルタ処理と量子化処理)を説明した図を示している。
FIG. 26 is a diagram for explaining the gradation unit (pattern data filter processing and quantization processing).

【0144】図26(c)に生成された縁取りデータを
示す。図にしめすように、縁取りデータの領域に図13
に示すCLUTデータの量子化値2を、背景の部分には
量子化値0となる量子化処理を行う。
FIG. 26 (c) shows the generated edging data. As shown in the figure, the border data area is shown in FIG.
Quantization value 2 of the CLUT data shown in (2) is quantized so that the background portion has a quantized value of 0.

【0145】また、パターンデータはパターンデータ再
生部303により得て、そのパターンデータに対して階
調処理を施すためのフィルタ処理をフィルタ部304で
行う。この時のフィルタの係数マトリックスは第1の実
施例のフィルタのように、縁取りデータの生成を含めた
ものではなく、図23(e)に示すような3×3のマト
リックスで十分である。フィルタ部304で得られたフ
ィルタ結果に対して、量子化部305で量子化処理を行
い、パターンデータの階調表示データを生成するのであ
る。この処理は図26で示したパターンデータの階調処
理であるK1,K2領域に図13に示すCLUTデータ
の量子化値4、量子化値3となる量子化処理を行うので
ある。図26におけるK3の領域はパターンデータとし
て扱わないデータ領域となる。
Further, the pattern data is obtained by the pattern data reproducing unit 303, and the filter unit 304 performs the filtering process for performing the gradation process on the pattern data. The coefficient matrix of the filter at this time does not include the generation of the edging data like the filter of the first embodiment, and a 3 × 3 matrix as shown in FIG. 23E is sufficient. The filter result obtained by the filter unit 304 is quantized by the quantization unit 305 to generate gradation display data of the pattern data. This processing is the gradation processing of the pattern data shown in FIG. 26, in which the K1 and K2 regions are quantized so that the quantized values 4 and 3 of the CLUT data shown in FIG. 13 are obtained. The area K3 in FIG. 26 is a data area that is not treated as pattern data.

【0146】このように得られた、パターンデータと縁
取りデータをマージ処理部307によって、マージ処理
を行う。このマージ処理部307では、パターンデータ
が存在する画素にはパターンデータ表示に相当する量子
化値4あるいは量子化値3を設定し、パターンデータが
存在しない画素には、縁取りデータに相当する量子化値
2、量子化値0を設定する。このマージ処理部307の
処理の結果、第1の実施例と同様に字幕のパターンデー
タと縁取りデータを含む量子化値を得ることができる。
The pattern data and the edging data thus obtained are merged by the merge processing unit 307. In the merge processing unit 307, the quantization value 4 or the quantization value 3 corresponding to the pattern data display is set to the pixel having the pattern data, and the quantization value corresponding to the border data is set to the pixel having no pattern data. A value of 2 and a quantized value of 0 are set. As a result of the processing of the merge processing unit 307, it is possible to obtain the quantized value including the subtitle pattern data and the border data, as in the first embodiment.

【0147】以上のように本実施例によれば、第4の実
施例は第3の実施例と比較して、縁取りデータのフィル
タ・量子化情報を持つ必要がない。
As described above, according to the present embodiment, the fourth embodiment does not need to have the filter / quantization information of the edging data as compared with the third embodiment.

【0148】なお、以上に説明した復号化装置及び復号
化方法においては、CLUT部の処理後の色情報及び混
合比率データを得た後に、字幕表示データとして一旦字
幕フレームメモリに格納する表示形態を説明したが、C
LUT部の処理前、すなわち量子化処理後のデータ、例
えば、4ビットのデータを一旦格納するフレームメモリ
を有し、表示タイミング制御情報の出力と同時に、その
量子化後データ4ビットを読み出し、CLUT部でのそ
の量子化後のデータに対応する色情報及び混合比率情報
に変換し、字幕合成データを得る構成でも、本発明を実
施する事が可能である。
In the decoding device and the decoding method described above, after the color information and the mixing ratio data after the processing of the CLUT unit are obtained, the display mode is temporarily stored in the subtitle frame memory as subtitle display data. As I explained, C
The CLUT has a frame memory that temporarily stores data before the processing of the LUT unit, that is, after the quantization processing, for example, 4-bit data, and simultaneously outputs the display timing control information and reads out the 4-bit data after the quantization. The present invention can also be implemented with a configuration in which subtitle synthesis data is obtained by converting color information and mixing ratio information corresponding to the quantized data in the sub-unit.

【0149】[0149]

【発明の効果】以上のように本発明の情報記録媒体は、
各画素が2値以上の値を持つビットマップデータを圧縮
した圧縮データに加えて、前記圧縮データを伸張した伸
張ビットマップデータの各画素の値をフィルタ情報で変
化させ、得られた値を量子化情報で量子化することで、
より多値の値を持つ階調化ビットマップデータを生成す
るためのフィルタ情報と量子化情報を持つものである。
As described above, the information recording medium of the present invention is
In addition to the compressed data obtained by compressing the bitmap data in which each pixel has a binary value or more, the value of each pixel of the expanded bitmap data obtained by expanding the compressed data is changed by the filter information, and the obtained value is quantized. By quantizing with quantization information,
It has filter information and quantization information for generating gradation bitmap data having more multivalued values.

【0150】あるいは情報記録媒体が、各画素が3値以
上の値を持つビットマップデータを圧縮した圧縮データ
に加えて、前記圧縮データを伸張し、少なくともパター
ンデータを示すビットマップデータと縁取りデータを示
すビットマップデータとを得て、各々のビットマップデ
ータの各画素の値をフィルタ情報で変化させ、得られた
値を量子化情報で量子化し、量子化結果をマージして、
より多値の値を持つ階調化ビットマップデータを生成す
るために、少なくともパターンデータと縁取りデータの
フィルタ情報と量子化情報を持つものである。
Alternatively, the information recording medium expands the compressed data in addition to the compressed data obtained by compressing the bitmap data in which each pixel has a value of three or more values, and at least the bitmap data indicating the pattern data and the border data. With the bitmap data shown, the value of each pixel of each bitmap data is changed by the filter information, the obtained value is quantized by the quantization information, and the quantization result is merged,
In order to generate gradation bit map data having more multivalued values, it has at least the filter information of the pattern data and the border data and the quantization information.

【0151】あるいは情報記録媒体が、少なくともパタ
ーンデータと縁取りデータを示す、各画素が2値の値を
持つビットマップデータを各々圧縮した複数の圧縮デー
タに加えて、前記圧縮データを伸張し、少なくともパタ
ーンデータを示すビットマップデータと縁取りデータを
示すビットマップデータとを得て、各々のビットマップ
データの各画素の値をフィルタ情報で変化させ、得られ
た値を量子化情報で量子化し、量子化結果をマージし
て、より多値の値を持つ階調化ビットマップデータを生
成するために、少なくともパターンデータと縁取りデー
タのフィルタ情報と量子化情報を持つものである。
Alternatively, the information recording medium expands the compressed data in addition to a plurality of compressed data obtained by compressing bitmap data in which each pixel has a binary value indicating at least the pattern data and the edging data. Obtaining the bitmap data indicating the pattern data and the bitmap data indicating the border data, changing the value of each pixel of each bitmap data by the filter information, quantizing the obtained value by the quantization information, and quantizing In order to merge gradation results and generate gradation bit map data having more multivalued values, it has at least filter information of pattern data and border data and quantization information.

【0152】またビットマップデータ復号化装置は、圧
縮データを伸張した伸張ビットマップデータに対して、
各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化手段を備えたこ
とを特徴とするものである。
Further, the bit map data decoding device, for the decompressed bit map data obtained by decompressing the compressed data,
A gradation means for generating gradation bitmap data having more multivalued values is provided by changing the value of each pixel with filter information and quantizing the obtained value with quantization information. It is characterized by.

【0153】あるいはビットマップデータ復号化装置
が、圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとに対して、各々のビットマップデータの各
画素の値をフィルタ情報で変化させ、得られた値を量子
化情報で量子化するために、少なくともパターンデータ
と縁取りデータに対する各々の階調化手段と、量子化結
果をマージして、より多値の値を持つ階調化ビットマッ
プデータを生成するためのマージ手段とを備えたことを
特徴とするものである。
Alternatively, the bitmap data decoding device expands the compressed data, and at least with respect to the bitmap data indicating the pattern data and the bitmap data indicating the edging data, obtains the value of each pixel of each bitmap data. In order to change the value obtained by changing the filter information and quantizing the obtained value with the quantization information, at least each gradation means for the pattern data and the edging data and the quantization result are merged to obtain a multivalued value. And a merging unit for generating the gradation bit map data.

【0154】またビットマップデータ復号化方法は、圧
縮データを伸張した伸張ビットマップデータに対して、
各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化ステップを備え
たことを特徴とするものである。
The bit map data decoding method uses the expanded bit map data obtained by expanding the compressed data,
A gradation step for generating gradation bitmap data having more multivalued values is provided by changing the value of each pixel with filter information and quantizing the obtained value with quantization information. It is characterized by.

【0155】あるいはビットマップデータ復号化方法
が、圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとに対して、各々のビットマップデータの各
画素の値をフィルタ情報で変化させ、得られた値を量子
化情報で量子化するために、少なくともパターンデータ
と縁取りデータに対する各々の階調化ステップと、量子
化結果をマージして、より多値の値を持つ階調化ビット
マップデータを生成するためのマージステップとを備え
たことを特徴とするものである。
Alternatively, the bit map data decoding method expands the compressed data, and at least for the bit map data indicating the pattern data and the bit map data indicating the border data, the value of each pixel of each bit map data is calculated. In order to quantize the obtained value with the quantization information by changing it with the filter information, at least each gradation step for the pattern data and the edging data, and the quantization result are merged to obtain a multi-valued value. And a merging step for generating the gradation bit map data.

【0156】上記の構成により、 A)キャラクタROMを使用せずに、テキスト(字幕)
全体を圧縮したビットマップデータを媒体上に持ち、こ
の圧縮したビットマップデータに伸張と階調化をするこ
とで、多数のフォントのタイプフェイス・サイズや多数
の言語の文字や任意のグラフイックスなどの多彩なテキ
スト(字幕)を扱え、ハードウェアも増加しない。 B)圧縮したビットマップデータを制御するので、媒体
上の情報量を小さくでき、複数の言語のテキスト(字
幕)が持てる。 C)縁取りの生成と階調化をし、生成したテキスト(字
幕)と画像との混合比率をコントロールすることでフォ
ント周辺部をマスクせずに自然な階調表示ができる。ま
たシーンに応じた表現ができる。
With the above configuration, A) text (subtitles) without using a character ROM
Bitmap data that is wholly compressed is stored on the medium, and by expanding and gradation this compressed bitmap data, many font typeface sizes, many language characters, arbitrary graphics, etc. It can handle various texts (subtitles) and does not increase the hardware. B) Since the compressed bitmap data is controlled, the amount of information on the medium can be reduced and the text (subtitles) in multiple languages can be held. C) By generating the edging and gradation, and controlling the mixing ratio of the generated text (subtitle) and the image, natural gradation display can be performed without masking the peripheral portion of the font. You can also express according to the scene.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の情報記録媒体の実施例における情報記
録媒体の領域構成図
FIG. 1 is an area configuration diagram of an information recording medium in an embodiment of the information recording medium of the present invention.

【図2】本発明の情報記録媒体の第1の実施例における
テキスト情報(字幕情報)のデータ構造図
FIG. 2 is a data structure diagram of text information (caption information) in the first embodiment of the information recording medium of the present invention.

【図3】本発明の情報記録媒体の第2の実施例における
テキスト情報(字幕情報)のデータ構造図
FIG. 3 is a data structure diagram of text information (caption information) in the second embodiment of the information recording medium of the present invention.

【図4】本発明の情報記録媒体の第3の実施例における
テキスト情報(字幕情報)のデータ構造図
FIG. 4 is a data structure diagram of text information (caption information) in the third embodiment of the information recording medium of the present invention.

【図5】本発明の情報記録媒体の第4の実施例における
テキスト情報(字幕情報)のデータ構造図
FIG. 5 is a data structure diagram of text information (caption information) in the fourth embodiment of the information recording medium of the present invention.

【図6】本発明の復号化装置・方式の実施例の復号化方
法及び復号化装置の構成図
FIG. 6 is a block diagram of a decoding method and a decoding device according to an embodiment of a decoding device / system of the present invention.

【図7】本発明の復号化装置・方式の第1の実施例の字
幕情報デコーダ部のブロック図
FIG. 7 is a block diagram of a caption information decoder unit of a first embodiment of a decoding device / system according to the present invention.

【図8】本発明の復号化装置・方式の第1の実施例の伸
張部の説明図
FIG. 8 is an explanatory diagram of a decompression unit of the first embodiment of the decoding device / system of the present invention.

【図9】本発明の復号化装置・方式の実施例のハフマン
符号化テーブルの例を示す図
FIG. 9 is a diagram showing an example of a Huffman coding table of an embodiment of the decoding device / system of the present invention.

【図10】本発明の復号化装置・方式の実施例のフィル
タの係数マトリックスの例を示す図
FIG. 10 is a diagram showing an example of a coefficient matrix of a filter of an embodiment of a decoding device / system of the present invention.

【図11】本発明の復号化装置・方式の第1の実施例の
階調化部の説明図
FIG. 11 is an explanatory diagram of a gradation unit of the first embodiment of the decoding device / system of the present invention.

【図12】本発明の復号化装置・方式の実施例の量子化
テーブルの説明のための図
FIG. 12 is a diagram for explaining a quantization table of an embodiment of a decoding device / system of the present invention.

【図13】本発明の復号化装置・方式の実施例のCLU
Tの説明のための図
FIG. 13 is a CLU of an embodiment of the decoding device / system of the present invention.
Figure for explaining T

【図14】本発明の復号化装置・方式の実施例の字幕フ
レームメモリ制御部の構成図
FIG. 14 is a configuration diagram of a subtitle frame memory control unit of an embodiment of a decoding device / system of the present invention.

【図15】本発明の復号化装置・方式の実施例の復号化
処理手順のフローチャート
FIG. 15 is a flowchart of the decoding processing procedure of the embodiment of the decoding apparatus / system of the present invention.

【図16】本発明の復号化装置・方式の実施例の時刻の
流れに沿った動作の説明図
FIG. 16 is an explanatory diagram of the operation along the flow of time of the embodiment of the decoding apparatus / system of the present invention.

【図17】本発明の復号化装置・方式の実施例のフィル
タ部の高速化回路図
FIG. 17 is a speed-up circuit diagram of a filter unit according to an embodiment of a decoding device / system of the present invention.

【図18】本発明の復号化装置・方式の実施例のフィル
タの係数マトリックスの説明のための図
FIG. 18 is a diagram for explaining the coefficient matrix of the filter of the embodiment of the decoding device / system of the present invention.

【図19】本発明の復号化装置・方式の実施例のフィル
タの結果の説明のための図
FIG. 19 is a diagram for explaining a result of a filter according to the embodiment of the decoding apparatus / system of the present invention.

【図20】本発明の復号化装置・方式の第1の実施例の
伸張部の説明図
FIG. 20 is an explanatory diagram of a decompression unit of the first embodiment of the decoding device / system of the present invention.

【図21】本発明の復号化装置・方式の第2の実施例の
伸張部・階調化部の構成図
FIG. 21 is a configuration diagram of a decompression unit / gradation unit according to a second embodiment of the decoding device / system of the present invention.

【図22】本発明の復号化装置・方式の第2の実施例の
伸張部の説明図
FIG. 22 is an explanatory diagram of a decompression unit of the second embodiment of the decoding device / system of the present invention.

【図23】本発明の復号化装置・方式の第2の実施例の
階調化部の説明図
FIG. 23 is an explanatory diagram of a gradation unit of a second embodiment of the decoding device / system of the present invention.

【図24】本発明の復号化装置・方式の第3の実施例の
伸張部の説明図
FIG. 24 is an explanatory diagram of a decompression unit of the third embodiment of the decoding device / system of the present invention.

【図25】本発明の復号化装置・方式の第4の実施例の
伸張部・階調化部の構成図
FIG. 25 is a block diagram of a decompression unit / gradation unit of a fourth embodiment of the decoding device / system of the present invention.

【図26】本発明の復号化装置・方式の第4の実施例の
階調化部の説明図
FIG. 26 is an explanatory diagram of a gradation unit of a fourth embodiment of the decoding device / system of the present invention.

【符号の説明】[Explanation of symbols]

10,500 情報記録媒体 501 セクタ 502 ファイル記録領域 503 ファイル管理領域 504 識別部 505 ユーザデータ部 506 エラー訂正符号部 510 AVファイル 520 ファイル制御情報 521 ファイルエントリ 530 基本データ 531、533、535、537、539、541 階
調化データ 532、534、536、538、540、542 字
幕圧縮データ 11 情報記録媒体制御部 12 ユーザ操作情報 13 デコーダ主制御部 14 システムデコーダ 15 基準クロック制御部 16 画像情報デコーダ 17 字幕情報デコーダ 18 音声情報デコーダ 19 表示合成部 20 ディスプレイ部 21 音声出力部 101 操作情報 102 字幕情報 103 更新時刻情報 104 表示タイミング制御情報 106 字幕デコード制御部 107 デコード用バッファメモリ 108 符号解読部 109 パターンデータ再生部 110 フィルタ部 111 量子化部 112 CLUT部 113 字幕フレームメモリ制御部 114 字幕フレームメモリ 153 表示タイミング制御情報 154 字幕合成データ 155、156 字幕フレームメモリ 157 字幕フレームメモリ用アドレス生成部 158 字幕表示領域検出部 159 データマスク制御部 160 入出力バッファ 200 再生データ 201 符号解読部 202 量子化データ 203 パターンデータ再生部 204、207 フィルタ部 205、208 量子化部 206 縁取りデータ生成部 209 マージ処理部 300 再生データ 301 符号解読部 302 量子化データ 303 パターンデータ再生部 304 フィルタ部 305 量子化部 306 縁取りデータ生成部 307 マージ処理部
10,500 Information recording medium 501 Sector 502 File recording area 503 File management area 504 Identification section 505 User data section 506 Error correction code section 510 AV file 520 File control information 521 File entry 530 Basic data 531, 533, 535, 537, 539 , 541 Gradation data 532, 534, 536, 538, 540, 542 Subtitle compression data 11 Information recording medium control unit 12 User operation information 13 Decoder main control unit 14 System decoder 15 Reference clock control unit 16 Image information decoder 17 Subtitle information Decoder 18 Audio information decoder 19 Display synthesis unit 20 Display unit 21 Audio output unit 101 Operation information 102 Subtitle information 103 Update time information 104 Display timing control information 106 Subtitle decoding Control unit 107 Decoding buffer memory 108 Code decoding unit 109 Pattern data reproduction unit 110 Filter unit 111 Quantization unit 112 CLUT unit 113 Subtitle frame memory control unit 114 Subtitle frame memory 153 Display timing control information 154 Subtitle composite data 155, 156 Subtitle frame Memory 157 Subtitle frame memory address generation unit 158 Subtitle display area detection unit 159 Data mask control unit 160 Input / output buffer 200 Playback data 201 Code decoding unit 202 Quantized data 203 Pattern data playback unit 204, 207 Filter unit 205, 208 Quantization Part 206 Border data generation part 209 Merge processing part 300 Reproduction data 301 Code decoding part 302 Quantization data 303 Pattern data reproduction part 304 Filter part 30 Quantization unit 306 border data generation unit 307 merge processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/03 H04N 7/13 Z 7/035 7/24 (72)発明者 石原 秀志 大阪府門真市大字門真1006番地 松下電器 産業株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical display location H04N 7/03 H04N 7/13 Z 7/035 7/24 (72) Inventor Hideshi Ishihara Kadoma Osaka Prefecture 1006 Kadoma, Oita-shi Matsushita Electric Industrial Co., Ltd.

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】各画素が2値以上の値を持つビットマップ
データを圧縮した圧縮データに加えて、 前記圧縮データを伸張した伸張ビットマップデータの各
画素の値をフィルタ情報で変化させ、得られた値を量子
化情報で量子化することで、より多値の値を持つ階調化
ビットマップデータを生成するためのフィルタ情報と量
子化情報を持つことを特徴とする情報記録媒体。
1. In addition to compressed data obtained by compressing bitmap data in which each pixel has a binary value or more, the value of each pixel in decompressed bitmap data obtained by decompressing the compressed data is changed by filter information and obtained. An information recording medium having filter information and quantization information for generating gradation bit map data having more multivalued values by quantizing the obtained value with the quantization information.
【請求項2】各画素が3値以上の値を持つビットマップ
データを圧縮した圧縮データに加えて、 前記圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとを得て、各々のビットマップデータの各画
素の値をフィルタ情報で変化させ、得られた値を量子化
情報で量子化し、量子化結果をマージして、より多値の
値を持つ階調化ビットマップデータを生成するために、
少なくともパターンデータと縁取りデータのフィルタ情
報と量子化情報を持つことを特徴とする情報記録媒体。
2. In addition to compressed data obtained by compressing bitmap data in which each pixel has a ternary value or more, the compressed data is expanded, and bitmap data indicating at least pattern data and bitmap data indicating edging data. Then, the value of each pixel of each bitmap data is changed by the filter information, the obtained value is quantized by the quantization information, the quantization results are merged, and the value having a multivalued value is obtained. To generate the modulated bitmap data,
An information recording medium having at least filter information of pattern data and border data and quantization information.
【請求項3】少なくともパターンデータと縁取りデータ
を示す、各画素が2値の値を持つビットマップデータを
各々圧縮した複数の圧縮データに加えて、 前記圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとを得て、各々のビットマップデータの各画
素の値をフィルタ情報で変化させ、得られた値を量子化
情報で量子化し、量子化結果をマージして、より多値の
値を持つ階調化ビットマップデータを生成するために、
少なくともパターンデータと縁取りデータのフィルタ情
報と量子化情報を持つことを特徴とする情報記録媒体。
3. In addition to a plurality of compressed data obtained by compressing bitmap data in which each pixel has a binary value indicating at least pattern data and edging data, the compressed data is expanded to show at least pattern data. Obtaining the bitmap data and the bitmap data indicating the border data, changing the value of each pixel of each bitmap data with the filter information, quantizing the obtained value with the quantization information, and merging the quantization results. Then, in order to generate the gradation bitmap data having more multivalued values,
An information recording medium having at least filter information of pattern data and border data and quantization information.
【請求項4】各画素が3値以上の値を持つビットマップ
データを圧縮した圧縮データに加えて、 前記圧縮データを伸張し、少なくともパターンデータを
示すビットマップデータと縁取りデータを示すビットマ
ップデータとを得て、各々のビットマップデータの各画
素の値をフィルタ情報で変化させ、得られた値を量子化
情報で量子化し、量子化結果をマージして、より多値の
値を持つ階調化ビットマップデータを生成するために、
パターンデータのみのフィルタ情報と量子化情報を持つ
ことを特徴とする情報記録媒体。
4. In addition to compressed data obtained by compressing bitmap data in which each pixel has a value of three or more, the compressed data is expanded and at least bitmap data showing pattern data and bitmap data showing edging data. Then, the value of each pixel of each bitmap data is changed by the filter information, the obtained value is quantized by the quantization information, the quantization results are merged, and the value having a multivalued value is obtained. To generate the modulated bitmap data,
An information recording medium having filter information and quantization information only for pattern data.
【請求項5】少なくともパターンデータと縁取りデータ
を示す、各画素が2値の値を持つビットマップデータを
各々圧縮した複数の圧縮データに加えて、前記圧縮デー
タを伸張し、少なくともパターンデータを示すビットマ
ップデータと縁取りデータを示すビットマップデータと
を得て、各々のビットマップデータの各画素の値をフィ
ルタ情報で変化させ、得られた値を量子化情報で量子化
し、量子化結果をマージして、より多値の値を持つ階調
化ビットマップデータを生成するために、パターンデー
タのみのフィルタ情報と量子化情報を持つことを特徴と
する情報記録媒体。
5. In addition to a plurality of compressed data obtained by compressing bit map data in which each pixel has a binary value showing at least pattern data and edging data, the compressed data is expanded to show at least pattern data. Obtaining the bitmap data and the bitmap data indicating the border data, changing the value of each pixel of each bitmap data with the filter information, quantizing the obtained value with the quantization information, and merging the quantization results. Then, in order to generate gradation bit map data having more multivalued values, an information recording medium having filter information and quantization information of only pattern data.
【請求項6】圧縮データを伸張した伸張ビットマップデ
ータに対して、 各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化手段を備えたこ
とを特徴とするビットマップデータ復号化装置。
6. A multivalued value is obtained by changing the value of each pixel with filter information and dequantizing the obtained value with quantization information for decompressed bitmap data obtained by decompressing compressed data. A bitmap data decoding device, characterized by comprising gradation means for generating the gradation bit map data.
【請求項7】圧縮データを伸張し、少なくともパターン
データを示すビットマップデータと縁取りデータを示す
ビットマップデータとに対して、 各々のビットマップデータの各画素の値をフィルタ情報
で変化させ、得られた値を量子化情報で量子化するため
に、少なくともパターンデータと縁取りデータに対する
各々の階調化手段と、 量子化結果をマージして、より多値の値を持つ階調化ビ
ットマップデータを生成するためのマージ手段とを備え
たことを特徴とするビットマップデータ復号化装置。
7. The compressed data is expanded and at least for the bitmap data indicating the pattern data and the bitmap data indicating the edging data, the value of each pixel of each bitmap data is changed by the filter information to obtain In order to quantize the obtained value with the quantization information, at least each gradation means for the pattern data and the edging data, and the quantization result are merged, and the gradation bitmap data having a multi-valued value. And a merging unit for generating the bit map data decoding device.
【請求項8】圧縮データを伸張し、少なくともパターン
データを示すビットマップデータと縁取りデータを示す
ビットマップデータとに対して、 パターンデータのビットマップデータの各画素の値をフ
ィルタ情報で変化させ、得られた値を量子化情報で量子
化するパターンデータ階調化手段と、 縁取りデータを示すビットマップデータと量子化結果を
マージして、より多値の値を持つ階調化ビットマップデ
ータを生成するためのマージ手段とを備えたことを特徴
とするビットマップデータ復号化装置。
8. Decompressing compressed data, changing at least each pixel value of the bitmap data of the pattern data by filter information for at least the bitmap data indicating the pattern data and the bitmap data indicating the edging data, Pattern data gradation means that quantizes the obtained values with quantization information, and merges the bitmap data indicating the edging data and the quantization result to generate gradation bitmap data having more multivalued values. A bitmap data decoding device comprising: a merging unit for generating.
【請求項9】圧縮データを伸張し、少なくともパターン
データを示すビットマップデータと縁取りデータを示す
ビットマップデータとに対して、 パターンデータのビットマップデータの各画素の値をフ
ィルタ情報で変化させ、得られた値を量子化情報で量子
化するパターンデータ階調化手段と、 パターンデータ以外のビットマップデータの各画素の値
を予め決定しているフィルタ情報で変化させ、得られた
値を予め決定している量子化情報で量子化する各々の階
調化手段と、 量子化結果をマージして、より多値の値を持つ階調化ビ
ットマップデータを生成するためのマージ手段とを備え
たことを特徴とするビットマップデータ復号化装置。
9. The compressed data is expanded, and at least for the bitmap data indicating the pattern data and the bitmap data indicating the edging data, the value of each pixel of the bitmap data of the pattern data is changed by filter information, The pattern data gradation means for quantizing the obtained value with the quantization information and the value of each pixel of the bitmap data other than the pattern data are changed by the predetermined filter information, and the obtained value is changed in advance. Each gradation means for quantizing with the determined quantization information, and merge means for merging the quantization results to generate gradation bitmap data having more multivalued values. A bitmap data decoding device characterized by the above.
【請求項10】圧縮データを伸張した伸張ビットマップ
データに対して、 各画素の値をフィルタ情報で変化させ、得られた値を量
子化情報で量子化することで、より多値の値を持つ階調
化ビットマップデータを生成する階調化ステップを備え
たことを特徴とするビットマップデータ復号化方法。
10. With respect to decompressed bitmap data obtained by decompressing compressed data, the value of each pixel is changed by filter information, and the obtained value is quantized by quantization information to obtain a more multivalued value. A bitmap data decoding method, comprising: a gradation step of generating gradation gradation bitmap data.
【請求項11】圧縮データを伸張し、少なくともパター
ンデータを示すビットマップデータと縁取りデータを示
すビットマップデータとに対して、 各々のビットマップデータの各画素の値をフィルタ情報
で変化させ、得られた値を量子化情報で量子化するため
に、少なくともパターンデータと縁取りデータに対する
各々の階調化ステップと、 量子化結果をマージして、より多値の値を持つ階調化ビ
ットマップデータを生成するためのマージステップとを
備えたことを特徴とするビットマップデータ復号化方
法。
11. The compressed data is expanded, and at least for the bitmap data indicating the pattern data and the bitmap data indicating the edging data, the value of each pixel of each bitmap data is changed by the filter information to obtain In order to quantize the obtained value with the quantization information, each gradation step for at least the pattern data and the edging data and the quantization result are merged, and the gradation bitmap data having a multi-valued value. And a merge step for generating the bit map data decoding method.
【請求項12】圧縮データを伸張し、少なくともパター
ンデータを示すビットマップデータと縁取りデータを示
すビットマップデータとに対して、 パターンデータのビットマップデータの各画素の値をフ
ィルタ情報で変化させ、得られた値を量子化情報で量子
化するパターンデータ階調化ステップと、 縁取りデータを示すビットマップデータと量子化結果を
マージして、より多値の値を持つ階調化ビットマップデ
ータを生成するためのマージステップとを備えたことを
特徴とするビットマップデータ復号化方法。
12. The compressed data is expanded, and at least for the bitmap data indicating the pattern data and the bitmap data indicating the edging data, the value of each pixel of the bitmap data of the pattern data is changed by filter information, The pattern data gradation step of quantizing the obtained value with the quantization information and the bitmap data indicating the edging data and the quantization result are merged to generate the gradation bitmap data having more multivalued values. And a merge step for generating the bitmap data decoding method.
【請求項13】圧縮データを伸張し、少なくともパター
ンデータを示すビットマップデータと縁取りデータを示
すビットマップデータとに対して、 パターンデータのビットマップデータの各画素の値をフ
ィルタ情報で変化させ、得られた値を量子化情報で量子
化するパターンデータ階調化ステップと、 パターンデータ以外のビットマップデータの各画素の値
を予め決定しているフィルタ情報で変化させ、得られた
値を予め決定している量子化情報で量子化する各々の階
調化ステップと、 量子化結果をマージして、より多値の値を持つ階調化ビ
ットマップデータを生成するためのマージステップとを
備えたことを特徴とするビットマップデータ復号化方
法。
13. Decompressing compressed data, and changing at least the value of each pixel of bitmap data of pattern data by filter information for at least bitmap data indicating pattern data and bitmap data indicating edging data, Pattern data gradation step of quantizing the obtained value with the quantization information, and the value of each pixel of the bitmap data other than the pattern data is changed by the predetermined filter information, and the obtained value is changed in advance. Each gradation step that is quantized by the determined quantization information, and a merge step that merges the quantization results to generate gradation bitmap data having more multivalued values A bit map data decoding method characterized by the above.
JP4404295A 1995-03-03 1995-03-03 Information recording medium, device and method for decoding bit map data Pending JPH08241068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4404295A JPH08241068A (en) 1995-03-03 1995-03-03 Information recording medium, device and method for decoding bit map data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4404295A JPH08241068A (en) 1995-03-03 1995-03-03 Information recording medium, device and method for decoding bit map data

Publications (1)

Publication Number Publication Date
JPH08241068A true JPH08241068A (en) 1996-09-17

Family

ID=12680571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4404295A Pending JPH08241068A (en) 1995-03-03 1995-03-03 Information recording medium, device and method for decoding bit map data

Country Status (1)

Country Link
JP (1) JPH08241068A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271712A (en) * 2001-03-07 2002-09-20 Sharp Corp Caption display device
JP2005519361A (en) * 2002-02-27 2005-06-30 シー・デイ・エム・オプテイクス・インコーポレイテツド Optimized image processing of wavefront coded imaging system
JP2007531193A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium and method and apparatus for reproducing text subtitle stream recorded on recording medium
JP2007531195A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium, method for reproducing text subtitle stream, and apparatus therefor
JP2007531192A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium and method and apparatus for reproducing text subtitle stream recorded on recording medium
US7788690B2 (en) 1998-12-08 2010-08-31 Canon Kabushiki Kaisha Receiving apparatus and method
JP2011035922A (en) * 2004-02-28 2011-02-17 Samsung Electronics Co Ltd Recording medium and apparatus for reproducing data from recording medium
JP2011097370A (en) * 2009-10-29 2011-05-12 Yamaha Corp Image processing apparatus
US7982802B2 (en) 2004-02-03 2011-07-19 Lg Electronics Inc. Text subtitle decoder and method for decoding text subtitle streams
US8135259B2 (en) 2003-04-09 2012-03-13 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US8437612B2 (en) 2004-02-28 2013-05-07 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8081870B2 (en) 1998-12-08 2011-12-20 Canon Kabushiki Kaisha Receiving apparatus and method
US7788690B2 (en) 1998-12-08 2010-08-31 Canon Kabushiki Kaisha Receiving apparatus and method
JP2002271712A (en) * 2001-03-07 2002-09-20 Sharp Corp Caption display device
JP2005519361A (en) * 2002-02-27 2005-06-30 シー・デイ・エム・オプテイクス・インコーポレイテツド Optimized image processing of wavefront coded imaging system
US8135259B2 (en) 2003-04-09 2012-03-13 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses of recording and reproducing
US8081860B2 (en) 2004-02-03 2011-12-20 Lg Electronics Inc. Recording medium and recording and reproducing methods and apparatuses
US8498515B2 (en) 2004-02-03 2013-07-30 Lg Electronics Inc. Recording medium and recording and reproducing method and apparatuses
US7982802B2 (en) 2004-02-03 2011-07-19 Lg Electronics Inc. Text subtitle decoder and method for decoding text subtitle streams
JP2011035922A (en) * 2004-02-28 2011-02-17 Samsung Electronics Co Ltd Recording medium and apparatus for reproducing data from recording medium
US8437612B2 (en) 2004-02-28 2013-05-07 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
JP2007531192A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium and method and apparatus for reproducing text subtitle stream recorded on recording medium
JP2007531193A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium and method and apparatus for reproducing text subtitle stream recorded on recording medium
JP2007531195A (en) * 2004-03-26 2007-11-01 エルジー エレクトロニクス インコーポレーテッド Recording medium, method for reproducing text subtitle stream, and apparatus therefor
US8326118B2 (en) 2004-03-26 2012-12-04 Lg Electronics, Inc. Recording medium storing a text subtitle stream including a style segment and a plurality of presentation segments, method and apparatus for reproducing a text subtitle stream including a style segment and a plurality of presentation segments
US8346050B2 (en) 2004-03-26 2013-01-01 Lg Electronics, Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
US8374486B2 (en) 2004-03-26 2013-02-12 Lg Electronics Inc. Recording medium storing a text subtitle stream, method and apparatus for a text subtitle stream to display a text subtitle
US8380044B2 (en) 2004-03-26 2013-02-19 Lg Electronics Inc. Recording medium storing a text subtitle stream, method and apparatus for reproducing a text subtitle stream to display a text subtitle
US8437599B2 (en) 2004-03-26 2013-05-07 Lg Electronics Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
JP4673885B2 (en) * 2004-03-26 2011-04-20 エルジー エレクトロニクス インコーポレイティド Recording medium, method for reproducing text subtitle stream, and apparatus therefor
US8554053B2 (en) 2004-03-26 2013-10-08 Lg Electronics, Inc. Recording medium storing a text subtitle stream including a style segment and a plurality of presentation segments, method and apparatus for reproducing a text subtitle stream including a style segment and a plurality of presentation segments
JP2011097370A (en) * 2009-10-29 2011-05-12 Yamaha Corp Image processing apparatus

Similar Documents

Publication Publication Date Title
US6204883B1 (en) Video subtitle processing system
JP4601716B2 (en) Method for encoding and recording data stream on optical disc and recorded optical disc
US6297797B1 (en) Computer system and closed caption display method
KR100289857B1 (en) Subtitle data encoding / decoding apparatus and method
US7616865B2 (en) Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
US20110206347A1 (en) Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
JPH07203396A (en) Subtitle data decoding device
JPH08322046A (en) Method and device for data coding/decoding and coded data recording medium
WO2004097824A1 (en) Recording medium having a data structure for managing reproduction of graphic data and methods and apparatuses of recording and reproducing
US5532752A (en) Character image encoding/decoding system
JPH08241068A (en) Information recording medium, device and method for decoding bit map data
JP2002300525A (en) Digital video recording device
JP2829266B2 (en) Image information encoding / decoding system
JPH07250279A (en) Subtitle data decoding device
JPH07231435A (en) Caption data encoding device and decoding device for it and recording medium
KR100231646B1 (en) Method for repeatedly controlling reading of caption data in vcr
JPH06121263A (en) Recording method for video signal
JP2006080666A (en) Information recording medium, information recording apparatus, information reproducing apparatus, and information reproducing method
JP2829294B2 (en) Image information recording medium and method of manufacturing the same
JPH1098721A (en) Encoding and decoding system for image information
JPH0828047B2 (en) Digital disc and its playback device
KR0138146B1 (en) Compact disk graphic system
JPH0283578A (en) Device and method for image data display
JPH11353859A (en) Information reproducing apparatus
JPH089336A (en) Video signal reproducing device