JP2004328780A - Encoding method, decoding method and decoding device of image information - Google Patents

Encoding method, decoding method and decoding device of image information Download PDF

Info

Publication number
JP2004328780A
JP2004328780A JP2004171954A JP2004171954A JP2004328780A JP 2004328780 A JP2004328780 A JP 2004328780A JP 2004171954 A JP2004171954 A JP 2004171954A JP 2004171954 A JP2004171954 A JP 2004171954A JP 2004328780 A JP2004328780 A JP 2004328780A
Authority
JP
Japan
Prior art keywords
sub
picture
data
display control
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004171954A
Other languages
Japanese (ja)
Other versions
JP3680073B2 (en
Inventor
Tae Aoki
妙 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004171954A priority Critical patent/JP3680073B2/en
Publication of JP2004328780A publication Critical patent/JP2004328780A/en
Application granted granted Critical
Publication of JP3680073B2 publication Critical patent/JP3680073B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable using completely the same display control sequence table DCSQT, i.e. making the display control sequence table DCSQT relocatable, even when the same sub-video data 32 are displayed at a plurality of different times. <P>SOLUTION: Since a time stamp SPDCTS in the display control sequence table 33 is recorded at a relative time after PTS is updated (namely, after the sub-video data unit is updated), the SPDCTS is not required to be rewritten even if the PTS of the sub-video data unit changes. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、主映像とともに同時再生される副映像などの画像情報をエンコードする画像情報のエンコード方法と画像情報をデコードして再生する再生装置と再生方法に関する。   The present invention relates to an image information encoding method for encoding image information such as sub-images that are reproduced simultaneously with a main image, a reproducing apparatus for decoding and reproducing the image information, and a reproducing method.

近年、映像や音声用のデータをディジタルで記録した光ディスクを再生する動画対応の光ディスク再生装置が開発されており、例えば、映画ソフトやカラオケ等の再生装置として広く利用されている。また、最近では、動画に対するデータ圧縮方式がMPEG(Moving Picture Image Coding Expert Group)方式として国際標準化されるに至っている。このMPEG方式は映像データを可変長圧縮する方式である。   2. Description of the Related Art In recent years, an optical disk playback device for moving images, which plays back an optical disk on which video and audio data are digitally recorded, has been developed, and is widely used as a playback device for movie software, karaoke, and the like. Recently, a data compression method for moving images has been internationally standardized as a Moving Picture Image Coding Expert Group (MPEG) method. The MPEG method is a method of performing variable length compression on video data.

また、現在、MPEG2方式が国際標準化されつつあり、これに伴ってMPEG圧縮方式に対応したシステムフォーマットもMPEG2システムレイヤとして規定されている。このMPEG2システムレイヤでは、動画、音声、その他のデータを同期して転送かつ再生できるように、それぞれのデータに基準時刻を用いて表現した転送開始時刻と再生開始時刻を設定することが規定されている。これらの情報により通常再生を行う。   At present, the MPEG2 system is being internationally standardized, and accordingly, a system format corresponding to the MPEG compression system is also defined as an MPEG2 system layer. In the MPEG2 system layer, it is specified that a transfer start time and a reproduction start time expressed by using a reference time are set for each data so that moving images, audios, and other data can be transferred and reproduced synchronously. I have. Normal reproduction is performed based on these information.

映画の字幕やテレビ音量の設定値として表示されるイメージなど主映像にスーパーインポーズされる1または複数の副映像は、主映像に同期して再生されるようにランレングス圧縮されて記録されており、この副映像は複数のパックからなる副映像ユニットごとに、その副映像ユニットに付与されているタイムスタンプに基づいて再生されるようになっている。   One or more sub-pictures superimposed on the main picture, such as a movie subtitle or an image displayed as a TV volume setting value, are recorded after being run-length compressed so that they are reproduced in synchronization with the main picture. The sub-picture is reproduced for each sub-picture unit composed of a plurality of packs based on a time stamp given to the sub-picture unit.

この場合、対応する最初の副映像ユニットのタイムスタンプを零とすることができず、画素データの転送時間を考慮した値を記述しなければならなかった。   In this case, the time stamp of the corresponding first sub-picture unit cannot be set to zero, and a value in consideration of the transfer time of the pixel data has to be described.

また、1つの副映像ユニットは複数のシーケンスから構成され、各シーケンスごとに各シーケンス順に付与される表示開始時刻としてのタイムスタンプとコマンド等からなる表示制御シーケンスから構成されている。   Further, one sub-picture unit is composed of a plurality of sequences, and is composed of a display control sequence composed of a time stamp as a display start time, a command, and the like, which are given to each sequence in the order of each sequence.

この発明は、同じ副映像データを複数の異なる時刻で表示する場合でも全く同じ表示制御シーケンステーブルを用いることができ、表示制御シーケンステーブルをリロケータブルとすることができることを目的とする。   SUMMARY OF THE INVENTION It is an object of the present invention to provide a display control sequence table that can use the same display control sequence table even when the same sub-picture data is displayed at a plurality of different times, and that the display control sequence table can be made relocatable.

この発明の副映像のエンコード方法は、主映像情報とともに同時再生可能な副映像情報が副映像データーユニットを構成し、
前記副映像データーユニットは一定のデーターサイズのパケットに分割され、前記副映像パケットはパケットヘッダを含み、
前記パケットヘッダは表示時刻を表現したタイムスタンプを含み
更に前記副映像データーユニットは
表示制御シーケンスを含む表示制御シーケンステーブルと
ランレングス圧縮された副映像の画素データーと
副映像ユニットヘッダとを含み、
前記副映像ユニットヘッダは前記表示制御シーケンステーブルの開始アドレス情報を含み、
前記ランレングス圧縮は前記副映像の同一画素データーの連続をデーター単位に変換して行われ、
前記表示制御シーケンスは
副映像の表示制御に関する開始時間を示す情報と
次の表示制御シーケンスのアドレス情報と
1以上の副映像表示制御コマンドと
前記副映像表示制御コマンドにより設定されるパラメーターデーターとを含み、
前記副映像表示制御コマンドとして、前記副映像の画素データーの表示開始タイミングをセットするコマンドもしくは前記副映像の画素データーの表示終了タイミングをセットするコマンドが設定可能であり、
前記表示開始タイミングをセットするコマンドと前記表示終了タイミングをセットするコマンドにより設定される前記パラメーターデーターに対応した拡張フィールド数を予め0バイトに設定しておくように構成し、
前記副映像の画素データーをエンコード処理するものである。
In the method for encoding a sub-picture according to the present invention, the sub-picture information which can be reproduced simultaneously with the main picture information constitutes a sub-picture data unit,
The sub-picture data unit is divided into packets of a fixed data size, the sub-picture packet includes a packet header,
The packet header includes a time stamp representing a display time, and the sub-picture data unit further includes a display control sequence table including a display control sequence, pixel data of a run-length compressed sub-picture, and a sub-picture unit header,
The sub-picture unit header includes start address information of the display control sequence table,
The run-length compression is performed by converting a continuation of the same pixel data of the sub-picture into data units,
The display control sequence includes information indicating a start time for display control of a sub-picture, address information of a next display control sequence, one or more sub-picture display control commands, and parameter data set by the sub-picture display control command. ,
As the sub-picture display control command, a command to set a display start timing of the sub-picture pixel data or a command to set a display end timing of the sub-picture pixel data can be set,
The configuration is such that the number of extension fields corresponding to the parameter data set by the command to set the display start timing and the command to set the display end timing is set to 0 bytes in advance,
The pixel data of the sub-picture is encoded.

以上詳述したように、この発明によれば、同じ副映像データを複数の異なる時刻で表示する場合でも全く同じ表示制御シーケンステーブルを用いることができ、表示制御シーケンステーブルをリロケータブルとすることができる。   As described in detail above, according to the present invention, the same display control sequence table can be used even when the same sub-picture data is displayed at a plurality of different times, and the display control sequence table can be made relocatable. .

以下、図面を参照して、この発明の一実施の形態に係る画像情報のエンコード/デコードシステムを説明する。なお、重複説明を避けるために、複数の図面に渡り機能上共通する部分には共通の参照符号が用いられている。   Hereinafter, an image information encoding / decoding system according to an embodiment of the present invention will be described with reference to the drawings. In order to avoid redundant description, common reference numerals are used for functionally common parts in a plurality of drawings.

図1〜図27は、この発明の一実施の形態に係る画像情報のエンコード/デコードシステムを説明するための図である。   FIGS. 1 to 27 are diagrams for explaining an image information encoding / decoding system according to an embodiment of the present invention.

図1は、この発明を適用できる情報保持媒体の一例としての光ディスクODの記録データ構造を略示している。   FIG. 1 schematically shows a recording data structure of an optical disk OD as an example of an information storage medium to which the present invention can be applied.

この光ディスクODは、たとえば片面約5Gバイトの記憶容量をもつ両面貼合せディスクであり、ディスク内周側のリードインエリアからディスク外周側のリードアウトエリアまでの間に多数の記録トラックが配置されている。各トラックは多数の論理セクタで構成されており、それぞれのセクタに各種情報(適宜圧縮されたデジタルデータ)が格納されている。   The optical disk OD is a double-sided bonded disk having a storage capacity of about 5 GB on one side, for example, and has a large number of recording tracks arranged between a lead-in area on the inner peripheral side of the disk and a lead-out area on the outer peripheral side of the disk. I have. Each track is composed of a number of logical sectors, and various information (digital data appropriately compressed) is stored in each sector.

図2は、図1の光ディスクODに記録される映像(ビデオ)用ファイルのデータ構造を例示している。   FIG. 2 illustrates a data structure of a video file recorded on the optical disc OD in FIG.

図2に示すように、この映像用ファイルは、ファイル管理情報1および映像用データ2を含んでいる。映像用データ2は、ビデオデータユニット(ブロック)、オーディオデータユニット(ブロック)、副映像データユニット(ブロック)、そしてこれらのデータ再生を制御するために必要な情報(DSI;Disk Search Information )を記録したDSIユニット(ブロック)から構成されている。各ユニットは、たとえばデータの種類毎に一定のデータサイズのパケットに、それぞれ分割される。ビデオデータユニット、オーディオデータユニットおよび副映像データユニットは、これらユニット群の直前に配置されたDSIを基に、それぞれ同期をとって再生される。   As shown in FIG. 2, the video file includes file management information 1 and video data 2. The video data 2 records a video data unit (block), an audio data unit (block), a sub-picture data unit (block), and information (DSI; Disk Search Information) necessary for controlling the reproduction of these data. DSI units (blocks). Each unit is divided into packets of a fixed data size for each data type, for example. The video data unit, audio data unit and sub-picture data unit are reproduced in synchronization with each other based on the DSI arranged immediately before these unit groups.

すなわち、図1の複数論理セクタの集合体の中に、ディスクODで使用されるシステムデータを格納するシステムエリアと、ボリューム管理情報エリアと複数ファイルエリアが、形成される。   That is, a system area for storing system data used in the disk OD, a volume management information area, and a plurality of file areas are formed in the aggregate of a plurality of logical sectors in FIG.

上記複数のファイルエリアのうち、たとえばファイル1は、主映像情報(図中のVIDEO)、主映像に対して補助的な内容を持つ副映像情報(図中のSUB−PICTURE)、音声情報(図中のAUDIO)、再生情報(図中のPLAYBACK INFO.)等を含んでいる。   Of the plurality of file areas, for example, file 1 includes main video information (VIDEO in the figure), sub-video information (SUB-PICTURE in the figure) having auxiliary contents for the main video, and audio information (FIG. AUDIO), playback information (PLAYBACK INFO. In the figure), and the like.

図3は、図2で例示したデータ構造のうち、エンコード(ランレングス圧縮)された副映像情報のパックの論理構造を例示している。   FIG. 3 illustrates the logical structure of a pack of encoded (run-length compressed) sub-picture information in the data structure illustrated in FIG.

図3の上部に示すように、ビデオデータに含まれる副映像情報の1パックはたとえば2048バイト(2kB)で構成される。この副映像情報の1パックは、先頭のパックのヘッダのあとに、1以上の副映像パケットを含んでいる。パックヘッダには、それぞれファイル全体の再生を通じて基準となる時刻(SCR; System Clock Reference)が付与されており、同じ時刻のSCRが付与されている副映像情報のパック内の副映像パケットが後述するデコーダへ転送されるようになっている。第1の副映像パケットは、そのパケットのヘッダのあとに、ランレングス圧縮された副映像データ(SP DATA1)を含んでいる。同様に、第2の副映像パケットは、そのパケットのヘッダのあとに、ランレングス圧縮された副映像データ(SP DATA2)を含んでいる。   As shown in the upper part of FIG. 3, one pack of the sub-picture information included in the video data is composed of, for example, 2048 bytes (2 kB). One pack of the sub-picture information includes one or more sub-picture packets after the header of the first pack. The pack header is provided with a reference time (SCR; System Clock Reference) through reproduction of the entire file. Sub-picture packets in a pack of sub-picture information to which the SCR of the same time is added will be described later. The data is transferred to the decoder. The first sub-picture packet includes run-length compressed sub-picture data (SP DATA1) after the header of the packet. Similarly, the second sub-picture packet includes run-length compressed sub-picture data (SP DATA2) after the header of the packet.

このような複数の副映像データ(SP DATA1、SP DATA2、…)をランレングス圧縮の1ユニット(1単位)分集めたもの、すなわち副映像データユニット30に、副映像ユニットヘッダ31が付与される。この副映像ユニットヘッダ31のあとに、1ユニット分の映像データ(たとえば2次元表示画面の1水平ライン分のデータ)をランレングス圧縮した画素データ32、および各副映像パックの表示制御シーケンス情報を含むテーブル33が続く。   A plurality of such sub-picture data (SP DATA1, SP DATA2,...) Are collected for one unit (one unit) of run-length compression, that is, a sub-picture data unit 30 is provided with a sub-picture unit header 31. . After the sub-picture unit header 31, pixel data 32 obtained by run-length-compressing video data of one unit (for example, data of one horizontal line of a two-dimensional display screen) and display control sequence information of each sub-picture pack are stored. A table 33 including the following follows.

換言すると、1ユニット分のランレングス圧縮データ30は、1以上の副映像パケットの副映像データ部分(SP DATA1、SP DATA2、…)の集まりで形成されている。この副映像データユニット30は、副映像表示用の各種パラメータが記録されている副映像ユニットヘッダSPUH31と、ランレングス符号からなる表示データ(圧縮された画素データ)PXD32と、表示制御シーケンステーブルDCSQT33とで構成されている。   In other words, the run-length compressed data 30 for one unit is formed by a set of sub-picture data portions (SP DATA1, SP DATA2,...) Of one or more sub-picture packets. The sub-picture data unit 30 includes a sub-picture unit header SPUH31 in which various parameters for displaying a sub-picture are recorded, display data (compressed pixel data) PXD32 composed of a run-length code, a display control sequence table DCSQT33, It is composed of

図4は、図3で例示した1ユニット分のランレングス圧縮データ30のうち、副映像ユニットヘッダ31の内容の一部を例示している(SPUH31の他部については図19参照)。ここでは、主映像(たとえば映画の映像本体)とともに記録・伝送(通信)される副映像(たとえば主映像の映画のシーンに対応した字幕)のデータに関して、説明を行なう。   FIG. 4 illustrates a part of the content of the sub-picture unit header 31 in the run-length compressed data 30 for one unit illustrated in FIG. 3 (see FIG. 19 for the other part of the SPUH 31). Here, data of sub-pictures (for example, subtitles corresponding to movie scenes of the main picture) that are recorded and transmitted (communicated) together with the main picture (for example, a movie picture main body) will be described.

図4に示すように、副映像ユニットヘッダSPUH31には、画素データ32のTV画面上での表示サイズすなわち表示開始位置および表示範囲(幅と高さ)SPDSZと、副映像データパケット内の表示制御シーケンステーブル33の記録開始位置SPDCSQTAとが、記録されている。   As shown in FIG. 4, the sub-picture unit header SPUH31 includes a display size of the pixel data 32 on the TV screen, that is, a display start position and a display range (width and height) SPDSZ, and a display control in the sub-picture data packet. The recording start position SPDCSQTA of the sequence table 33 is recorded.

もう少し具体的にいうと、副映像ユニットヘッダSPUH31には、図4に示すように、以下の内容を持つ種々なパラメータ(SPDDADRなど)が記録されている:
(1)この表示データのモニタ画面上における表示開始位置および表示範囲 (幅および高さ)を示す情報(SPDSZ)と;
(2)パケット内の表示制御シーケンステーブル33の記録開始位置情報(副映像の表示制御シーケンステーブル開始アドレスSPDCSQTA)。
More specifically, the sub-picture unit header SPUH31 records various parameters (such as SPDDADR) having the following contents, as shown in FIG. 4:
(1) information (SPDSZ) indicating a display start position and a display range (width and height) of the display data on the monitor screen;
(2) Recording start position information (display control sequence table start address SPDCSQTA of sub-picture) of the display control sequence table 33 in the packet.

図3または図4に示す副映像の画素データ(ランレングスデータ)32は、図5に示すランレングス圧縮規則1〜6によって、その1単位のデータ長(可変長)が決まる。そして、決まったデータ長でエンコード(ランレングス圧縮)およびデコード(ランレングス伸張)が行われる。   The data length (variable length) of one unit of the pixel data (run-length data) 32 of the sub-picture shown in FIG. 3 or FIG. 4 is determined by the run-length compression rules 1 to 6 shown in FIG. Then, encoding (run-length compression) and decoding (run-length decompression) are performed with the determined data length.

図5は、図4で例示した副映像画素データ(ランレングスデータ)32部分が2ビットの画素データで構成される場合において、一実施の形態に係るエンコード方法で採用されるランレングス圧縮規則1〜6を説明するものである。   FIG. 5 shows run-length compression rule 1 used in the encoding method according to one embodiment when the sub-picture pixel data (run-length data) 32 illustrated in FIG. 4 is composed of 2-bit pixel data. 6 are explained.

また、図6は、図4で例示した副映像画素データ(ランレングスデータ)32部分が2ビットの画素データで構成される場合において、上記圧縮規則1〜6を具体的に説明するための図である。   FIG. 6 is a diagram for specifically explaining the compression rules 1 to 6 in a case where the sub-picture pixel data (run-length data) 32 illustrated in FIG. 4 is composed of 2-bit pixel data. It is.

図5の1列目に示す規則1では、同一画素が1〜3個続く場合、4ビットデータでエンコード(ランレングス圧縮)のデータ1単位を構成する。この場合、最初の2ビットで継続画素数を表し、続く2ビットで画素データ(画素の色情報など)を表す。   According to rule 1 shown in the first column of FIG. 5, when one to three identical pixels continue, one unit of encoded (run-length compressed) data is constituted by 4-bit data. In this case, the first two bits represent the number of continuous pixels, and the subsequent two bits represent pixel data (such as pixel color information).

たとえば、図6の上部に示される圧縮前の映像データPXDの最初の圧縮データ単位CU01は、2個の2ビット画素データd0、d1=(0000)bを含んでいる(bはバイナリであることを指す)。この例では、同一の2ビット画素データ(00)bが2個連続(継続)している。   For example, the first compressed data unit CU01 of the video data PXD before compression shown in the upper part of FIG. 6 includes two 2-bit pixel data d0, d1 = (0000) b (b is binary) ). In this example, two identical 2-bit pixel data (00) b are continuous (continuous).

この場合、図6の下部に示すように、継続数「2」の2ビット表示(10)bと画素データの内容(00)bとを繋げたd0、d1=(1000)bが、圧縮後の映像データPXDのデータ単位CU01*となる。   In this case, as shown in the lower part of FIG. 6, d0 and d1 = (1000) b connecting the 2-bit display (10) b of the continuation number "2" and the content (00) b of the pixel data are obtained after compression. Is a data unit CU01 * of the video data PXD.

換言すれば、規則1によってデータ単位CU01の(0000)bがデータ単位CU01*の(1000)bに変換される。この例では実質的なビット長の圧縮は得られていないが、たとえば同一画素(00)bが3個連続するCU01=(000000)bならば、圧縮後はCU01*=(1100)bとなって、2ビットの圧縮効果が得られる。   In other words, (0000) b of data unit CU01 is converted to (1000) b of data unit CU01 * according to rule 1. In this example, substantial compression of the bit length is not obtained. For example, if CU01 = (000000) b in which three identical pixels (00) b are continuous, CU01 * = (1100) b after compression. Thus, a 2-bit compression effect can be obtained.

図5の2列目に示す規則2では、同一画素が4〜15個続く場合、8ビットデータでエンコードのデータ1単位を構成する。この場合、最初の2ビットで規則2に基づくことを示す符号化ヘッダを表し、続く4ビットで継続画素数を表し、その後の2ビットで画素データを表す。   According to rule 2 shown in the second column of FIG. 5, when 4 to 15 identical pixels continue, 8-bit data constitutes one unit of encoded data. In this case, the first two bits represent an encoded header indicating that the rule is based on Rule 2, the subsequent four bits represent the number of continuous pixels, and the subsequent two bits represent pixel data.

たとえば、図6の上部に示される圧縮前の映像データPXDの2番目の圧縮データ単位CU02は、5個の2ビット画素データd2、d3、d4、d5、d6=(0101010101)bを含んでいる。この例では、同一の2ビット画素データ(01)bが5個連続(継続)している。   For example, the second compressed data unit CU02 of the video data PXD before compression shown in the upper part of FIG. 6 includes five 2-bit pixel data d2, d3, d4, d5, d6 = (01010101101) b. . In this example, five identical 2-bit pixel data (01) b are continuous (continuous).

この場合、図6の下部に示すように、符号化ヘッダ(00)bと、継続数「5」の4ビット表示(0101)bと画素データの内容(01)bとを繋げたd2〜d6=(00010101)bが、圧縮後の映像データPXDのデータ単位CU02*となる。   In this case, as shown in the lower part of FIG. 6, d2 to d6 in which the encoded header (00) b, the 4-bit display (0101) b of the continuation number "5", and the content (01) b of the pixel data are connected. = (00010101) b is the data unit CU02 * of the compressed video data PXD.

換言すれば、規則2によってデータ単位CU02の(0101010101)b(10ビット長)がデータ単位CU02*の(00010101)b(8ビット長)に変換される。この例では実質的なビット長圧縮分は10ビットから8ビットへの2ビットしかないが、継続数がたとえば15(CU02の01が15個連続するので30ビット長)の場合は、これが8ビットの圧縮データ(CU02*=00111101)となり、30ビットに対して22ビットの圧縮効果が得られる。つまり、規則2に基づくビット圧縮効果は、規則1のものよりも大きい。しかし、解像度の高い微細な画像のランレングス圧縮に対応するためには、規則1も必要となる。   In other words, (0101010101) b (10-bit length) of the data unit CU02 is converted into (00010101) b (8-bit length) of the data unit CU02 * according to Rule 2. In this example, the effective bit length compression amount is only 2 bits from 10 bits to 8 bits, but if the continuation number is, for example, 15 (30 bits long since 15 CU02 01s are continuous), this is 8 bits (CU02 * = 00111101), and a compression effect of 22 bits can be obtained for 30 bits. That is, the bit compression effect based on Rule 2 is greater than that of Rule 1. However, Rule 1 is also required to cope with run-length compression of fine images with high resolution.

図5の3列目に示す規則3では、同一画素が16〜63個続く場合、12ビットデータでエンコードのデータ1単位を構成する。この場合、最初の4ビットで規則3に基づくことを示す符号化ヘッダを表し、続く6ビットで継続画素数を表し、その後の2ビットで画素データを表す。   According to rule 3 shown in the third column of FIG. 5, when 16 to 63 identical pixels continue, one unit of encoded data is constituted by 12-bit data. In this case, the first 4 bits represent an encoded header indicating that the data is based on Rule 3, the next 6 bits represent the number of continuous pixels, and the subsequent 2 bits represent pixel data.

たとえば、図6の上部に示される圧縮前の映像データPXDの3番目の圧縮データ単位CU03は、16個の2ビット画素データd7〜d22=(101010………1010)bを含んでいる。この例では、同一の2ビット画素データ (10)bが16個連続(継続)している。   For example, the third compressed data unit CU03 of the video data PXD before compression shown in the upper part of FIG. 6 includes 16 2-bit pixel data d7 to d22 = (101010... 1010) b. In this example, 16 pieces of the same 2-bit pixel data (10) b continue (continue).

この場合、図6の下部に示すように、符号化ヘッダ(0000)bと、継続数「16」の6ビット表示(010000)bと画素データの内容(10)bとを繋げたd7〜d22=(000001000010)bが、圧縮後の映像データPXDのデータ単位CU03*となる。   In this case, as shown in the lower part of FIG. 6, d7 to d22 in which the encoded header (0000) b, the 6-bit display (010000) b of the continuation number "16", and the content (10) b of the pixel data are connected. = (000000010010) b is the data unit CU03 * of the compressed video data PXD.

換言すれば、規則3によってデータ単位CU03の(101010………1010)b(32ビット長)がデータ単位CU03*の(000001000010)b(12ビット長)に変換される。この例では実質的なビット長圧縮分は32ビットから12ビットへの20ビットであるが、継続数がたとえば63(CU03の10が63個連続するので126ビット長)の場合は、これが12ビットの圧縮データ(CU03*=000011111110)となり、126ビットに対して114ビットの圧縮効果が得られる。つまり、規則3に基づくビット圧縮効果は、規則2のものよりも大きい。   In other words, (101010... 1010) b (32-bit length) of the data unit CU03 is converted to (0000000100010) b (12-bit length) of the data unit CU03 * according to Rule 3. In this example, the substantial bit length compression amount is 20 bits from 32 bits to 12 bits. However, if the number of continuations is, for example, 63 (126 bits long because 63 of CU03 are continuous, this is 12 bits) (CU03 * = 0000011111110), and a compression effect of 114 bits can be obtained for 126 bits. That is, the bit compression effect based on Rule 3 is greater than that of Rule 2.

図5の4列目に示す規則4では、同一画素が64〜255個続く場合、16ビットデータでエンコードのデータ1単位を構成する。この場合、最初の6ビットで規則4に基づくことを示す符号化ヘッダを表し、続く8ビットで継続画素数を表し、その後の2ビットで画素データを表す。   According to rule 4 shown in the fourth column of FIG. 5, when 64 to 255 identical pixels continue, one unit of encoded data is constituted by 16-bit data. In this case, the first 6 bits represent an encoded header indicating that the data is based on Rule 4, the subsequent 8 bits represent the number of continuous pixels, and the subsequent 2 bits represent pixel data.

たとえば、図6の上部に示される圧縮前の映像データPXDの4番目の圧縮データ単位CU04は、69個の2ビット画素データd23〜d91=(111111………1111)bを含んでいる。この例では、同一の2ビット画素データ(11)bが69個連続(継続)している。   For example, the fourth compressed data unit CU04 of the video data PXD before compression shown in the upper part of FIG. 6 includes 69 2-bit pixel data d23 to d91 = (111111... 1111) b. In this example, 69 pieces of the same 2-bit pixel data (11) b are continuous (continuous).

この場合、図6の下部に示すように、符号化ヘッダ(000000)bと、継続数「69」の8ビット表示(00100101)bと画素データの内容(11)bとを繋げたd23〜d91=(0000000010010111)bが、圧縮後の映像データPXDのデータ単位CU04*となる。   In this case, as shown in the lower part of FIG. 6, d23 to d91 in which the encoded header (000000) b, the 8-bit display (00100101) b of the continuation number “69”, and the content (11) b of the pixel data are connected. = (0000000010010111) b is the data unit CU04 * of the compressed video data PXD.

換言すれば、規則4によってデータ単位CU04の(111111………1111)b(138ビット長)がデータ単位CU04*の(0000000010010111)b(16ビット長)に変換される。この例では実質的なビット長圧縮分は138ビットから16ビットへの122ビットであるが、継続数がたとえば255(CU01の11が255個連続するので510ビット長)の場合は、これが16ビットの圧縮データ(CU04*=0000001111111111)となり、510ビットに対して494ビットの圧縮効果が得られる。つまり、規則4に基づくビット圧縮効果は、規則3のものよりも大きい。   In other words, (111111... 1111) b (138-bit length) of the data unit CU04 is converted into (0000000010010111) b (16-bit length) of the data unit CU04 * according to Rule 4. In this example, the substantial bit length compression amount is 122 bits from 138 bits to 16 bits, but if the number of continuations is, for example, 255 (510 bits long since 255 CU01s are 11 continuous), this is 16 bits. (CU04 * = 000001111111111), and a compression effect of 494 bits is obtained for 510 bits. That is, the bit compression effect based on Rule 4 is greater than that of Rule 3.

図5の5列目に示す規則5では、エンコードデータ単位の切換点からラインの終わりまで同一画素が続く場合に、16ビットデータでエンコードのデータ1単位を構成する。この場合、最初の14ビットで規則5に基づくことを示す符号化ヘッダを表し、続く2ビットで画素データを表す。   According to rule 5 shown in the fifth column of FIG. 5, when the same pixel continues from the switching point of the encoded data unit to the end of the line, one unit of encoded data is constituted by 16-bit data. In this case, the first 14 bits represent an encoded header indicating that the data is based on Rule 5, and the following 2 bits represent pixel data.

たとえば、図6の上部に示される圧縮前の映像データPXDの5番目の圧縮データ単位CU05は、1個以上の2ビット画素データd92〜dn=(000000………0000)bを含んでいる。この例では、同一の2ビット画素データ(00)bが有限個連続(継続)しているが、規則5では継続画素数が1以上いくつでも良い。   For example, the fifth compressed data unit CU05 of the uncompressed video data PXD shown in the upper part of FIG. 6 includes one or more 2-bit pixel data d92 to dn = (000000... 0000) b. In this example, a finite number of the same 2-bit pixel data (00) b are continuous (continuous), but according to rule 5, the number of continuous pixels may be one or more.

この場合、図6の下部に示すように、符号化ヘッダ(00000000000000)bと、画素データの内容(00)bとを繋げたd92〜dn=(0000000000000000)bが、圧縮後の映像データPXDのデータ単位CU05*となる。   In this case, as shown in the lower part of FIG. 6, d92 to dn = (000000000000000000) b, which connects the encoded header (0000000000000) b and the content (00) b of the pixel data, are converted into the compressed video data PXD. The data unit is CU05 *.

換言すれば、規則5によってデータ単位CU05の(000000………0000)b(不特定ビット長)がデータ単位CU05*の(0000000000000000)b(16ビット長)に変換される。規則5では、ラインエンドまでの同一画素継続数が16ビット長以上あれば、圧縮効果が得られる。   In other words, (000000... 0000) b (unspecified bit length) of the data unit CU05 is converted into (000000000000000000) b (16-bit length) of the data unit CU05 * according to Rule 5. According to Rule 5, if the number of continuations of the same pixel up to the line end is 16 bits or more, a compression effect is obtained.

図5の6列目に示す規則6では、エンコード対象データが並んだ画素ラインが1ライン終了した時点で、1ライン分の圧縮データPXDの長さが8ビットの整数倍でない(すなわちバイトアラインでない)場合に、4ビットのダミーデータを追加して、1ライン分の圧縮データPXDがバイト単位になるように(すなわちバイトアラインされるように)している。   According to rule 6 shown in the sixth column of FIG. 5, when one pixel line in which data to be encoded is arranged ends, the length of one line of compressed data PXD is not an integral multiple of 8 bits (that is, it is not byte-aligned). ), 4-bit dummy data is added so that the compressed data PXD for one line is in a byte unit (that is, byte-aligned).

たとえば、図6の下部に示される圧縮後の映像データPXDのデータ単位CU01*〜CU05*の合計ビット長は、必ず4ビットの整数倍にはなっているが、必ずしも8ビットの整数倍になっているとは限らない。   For example, the total bit length of the data units CU01 * to CU05 * of the compressed video data PXD shown in the lower part of FIG. 6 is always an integral multiple of 4 bits, but is always an integral multiple of 8 bits. Not necessarily.

たとえばデータ単位CU01*〜CU05*の合計ビット長が1020ビットでありバイトアラインとするために4ビット不足しているなら、図6の下部に示すように、4ビットのダミーデータCU06*=(0000)bを1020ビットの末尾に付加して、バイトアラインされた1024ビットのデータ単位CU01*〜CU06*を出力する。   For example, if the total bit length of the data units CU01 * to CU05 * is 1020 bits and 4 bits are insufficient for byte alignment, as shown at the bottom of FIG. 6, 4-bit dummy data CU06 * = (0000) B) is added to the end of the 1,020 bits, and 1024-bit byte-aligned data units CU01 * to CU06 * are output.

なお、2ビット画素データは、必ずしも4種類の画素色を表示するものに限定されない。たとえば、画素データ(00)bで副映像の背景画素を表し、画素データ(01)bで副映像のパターン画素を表し、画素データ(10)bで副映像の第1強調画素を表し、画素データ(11)bで副映像の第2強調画素を表わすようにしても良い。   Note that the 2-bit pixel data is not necessarily limited to one that displays four types of pixel colors. For example, pixel data (00) b represents a background pixel of the sub-picture, pixel data (01) b represents a pattern pixel of the sub-picture, pixel data (10) b represents a first emphasized pixel of the sub-picture, The data (11) b may represent the second emphasized pixel of the sub-picture.

画素データの構成ビット数がもっと多ければ、より他種類の副映像画素を指定できる。たとえば画素データが3ビットの(000)b〜(111)bで構成されているときは、ランレングスエンコード/デコードされる副映像データにおいて、最大8種類の画素色+画素種類(強調効果)を指定できるようになる。   If the number of constituent bits of the pixel data is larger, another type of sub-picture pixel can be specified. For example, when the pixel data is composed of (000) b to (111) b of 3 bits, up to eight types of pixel colors + pixel types (enhancement effect) can be set in the sub-picture data to be run-length encoded / decoded. Can be specified.

図7は、エンコードされた画像情報(図3の31+32+33)を持つ高密度光ディスクの、量産からユーザサイドにおける再生までの流れを説明するとともに;エンコードされた画像情報の、放送/ケーブル配信からユーザ/加入者における受信/再生までの流れを説明するブロック図である。   FIG. 7 explains the flow from mass production to reproduction on the user side of a high-density optical disk having encoded image information (31 + 32 + 33 in FIG. 3); It is a block diagram explaining the flow until reception / reproduction in a subscriber.

たとえば圧縮前ランレングスデータが図7のエンコーダ200に入力されると、エンコーダ200は、たとえば図5の圧縮規則1〜6に基づくソフトウエア処理により、入力されたデータがランレングス圧縮(エンコード)される。   For example, when run-length data before compression is input to the encoder 200 of FIG. 7, the encoder 200 performs run-length compression (encoding) of the input data by software processing based on compression rules 1 to 6 of FIG. You.

図1に示すような光ディスクODに図2に示すような論理構成のデータが記録される場合は、図7のエンコーダ200によるランレングス圧縮処理(エンコード処理)は、図3の副映像データに対して実施される。   When data having a logical configuration as shown in FIG. 2 is recorded on the optical disc OD as shown in FIG. 1, the run-length compression processing (encoding processing) by the encoder 200 in FIG. Implemented.

図7のエンコーダ200には、上記光ディスクODを完成させるに必要な種々なデータも入力される。これらのデータは、たとえばMPEG(Mortion Picture Expert Group)の規格に基づき圧縮され、圧縮後のデジタルデータがレーザカッティングマシン202または変調器/送信器210に送られる。   Various data necessary for completing the optical disc OD are also input to the encoder 200 of FIG. These data are compressed based on, for example, the MPEG (Mortion Picture Expert Group) standard, and the compressed digital data is sent to the laser cutting machine 202 or the modulator / transmitter 210.

レーザカッティングマシン202において、図示しないマザーディスクにエンコーダ200からのMPEG圧縮データがカッティングされて、光ディスクマスタ204が製造される。   In the laser cutting machine 202, the MPEG compressed data from the encoder 200 is cut on a mother disk (not shown) to manufacture an optical disk master 204.

2枚貼合せ高密度光ディスク量産設備206では、このマスタ204を雛形にして、たとえば厚さ0. 6ミリのポリカーボネート基板上のレーザ光反射膜に、マスタの情報が転写される。それぞれ別のマスタ情報が転写された大量2枚のポリカーボネート基板は、張り合わされて、厚さ1. 2ミリの両面光ディスク(あるいは片面読み取り形両面ディスク)となる。   In the mass production equipment 206 for two-layered high-density optical discs, the master 204 is used as a template, and the information of the master is transferred to a laser light reflecting film on a polycarbonate substrate having a thickness of 0.6 mm, for example. A large amount of two polycarbonate substrates onto which different pieces of master information have been transferred are bonded together to form a 1.2 mm thick double-sided optical disk (or single-sided reading double-sided disk).

設備206で量産された貼合せ高密度光ディスクODは各種市場に頒布され、ユーザの手元に届く。   The bonded high-density optical disk OD mass-produced in the facility 206 is distributed to various markets and reaches the user.

頒布されたディスクODは、ユーザの再生装置300で再生される。この装置300は、エンコーダ200でエンコードされたデータを元の情報に復元するデコーダ101を備えている。デコーダ101でデコードされた情報は、たとえばユーザのモニタTVに送られ、映像化される。こうして、エンドユーザは大量頒布されたディスクODから、元の映像情報を観賞することができるようになる。   The distributed disk OD is reproduced by the reproduction device 300 of the user. The apparatus 300 includes a decoder 101 for restoring data encoded by the encoder 200 to original information. The information decoded by the decoder 101 is sent to, for example, a user's monitor TV, where it is visualized. Thus, the end user can view the original video information from the mass-distributed disc OD.

一方、エンコーダ200から変調器/送信器210に送られた圧縮情報は、所定の規格に沿って変調され、送信される。たとえば、エンコーダ200からの圧縮映像情報は、対応する音声情報とともに衛星放送(212)される。あるいは、エンコーダ200からの圧縮映像情報は、対応する音声情報とともにケーブル伝送(212)される。   On the other hand, the compression information sent from the encoder 200 to the modulator / transmitter 210 is modulated according to a predetermined standard and transmitted. For example, the compressed video information from the encoder 200 is satellite broadcast (212) together with the corresponding audio information. Alternatively, the compressed video information from the encoder 200 is transmitted by cable (212) together with the corresponding audio information.

放送あるいはケーブル伝送された圧縮映像/音声情報は、ユーザあるいは加入者の受信器/復調器400で受信される。この受信器/復調器400は、エンコーダ200でエンコードされたデータを元の情報に復元するデコーダ101を備えている。デコーダ101でデコードされた情報は、たとえばユーザのモニタTVに送られ、映像化される。こうして、エンドユーザは放送あるいはケーブル伝送された圧縮映像情報から、元の映像情報を観賞することができるようになる。   The broadcast or cable transmitted compressed video / audio information is received by a user / subscriber receiver / demodulator 400. The receiver / demodulator 400 includes a decoder 101 for restoring data encoded by the encoder 200 to original information. The information decoded by the decoder 101 is sent to, for example, a user's monitor TV, where it is visualized. Thus, the end user can enjoy the original video information from the compressed video information broadcast or transmitted by cable.

図8は、この発明に基づく画像デコード(ランレングス伸張)を実行するデコーダのハードウエアの一実施形態(ノンインターレース仕様)を示すブロック図である。ランレングス圧縮された副映像データSPD(図3のデータ32相当)をデコードするデコーダ101(図7参照)は、図8のように構成することができる。このデコーダ101には、同じ時刻のSCRが付与されている副映像情報のパック内の副映像パケットが順次転送されるようになっており、上記SCRも供給されており、このSCRに応じて後述するメインSTC120aの計数が所定時間後に零となる値から開始されるようになっている。この所定時間とは、上記SCRに対応する1副映像ユニット(最大サイズ)のものの転送時間分に対応している。たとえば、1副映像ユニットの最大サイズが65535バイトで転送レートが740nsec/1バイトの場合、65535×740/1000000≒48.5msecとなり、約48.5msec後に零となる値から開始されるようになっている。   FIG. 8 is a block diagram showing an embodiment (non-interlace specification) of hardware of a decoder for executing image decoding (run-length expansion) based on the present invention. The decoder 101 (see FIG. 7) for decoding the run-length compressed sub-picture data SPD (corresponding to the data 32 in FIG. 3) can be configured as shown in FIG. The sub-picture packets in the sub-picture information pack to which the SCR at the same time is added are sequentially transferred to the decoder 101, and the above-mentioned SCR is also supplied. The main STC 120a starts counting from a value that becomes zero after a predetermined time. The predetermined time corresponds to the transfer time of one sub-picture unit (maximum size) corresponding to the SCR. For example, when the maximum size of one sub-picture unit is 65535 bytes and the transfer rate is 740 nsec / 1 byte, 65535 × 740/100000 ≒ 48.5 msec, and starts from a value that becomes zero after about 48.5 msec. ing.

以下、図8を参照しながら、図4に示すようなフォーマットのランレングス圧縮された画素データを含む信号をランレングス伸張する副映像データデコーダについて、説明する。   Hereinafter, the sub-picture data decoder that extends the length of a signal including the run-length-compressed pixel data in the format shown in FIG. 4 will be described with reference to FIG.

図8に示すように、この副映像デコーダ101は、副映像データSPDが入力されるデータI/O102と;副映像データSPDを保存するメモリ108と;このメモリ108の読み書き動作を制御するメモリ制御部105と;メモリ108から読み出された符号データ(ランレングス圧縮された画素データ)のラン情報から1単位(1ユニット)の継続コード長(符号化ヘッダ)を検知し、その継続コード長の切り分け情報を出力する継続コード長検知部106と;この継続コード長検知部106からの情報にしたがって1ユニット分の符号データを取り出す符号データ切分部103と;この符号データ切分部103から出力されるものであって1圧縮単位のラン情報を示す信号と、継続コード長検知部106から出力されるものであってデータビットの「0」が1ユニット分の符号データの先頭から幾つ連続しているかという「0」ビット連続数を示す信号(期間信号)とを受け取り、これらの信号から1ユニットの継続画素数を計算するラン長設定部107と;符号データ切分部103からの画素色情報とラン長設定部107から出力された期間信号とを受け取り、その期間だけ色情報を出力する画素色出力部104(Fast-in/Fast-outタイプ)と;メモリ108から読み出された副映像データSPD中のヘッダデータ(図4参照)を読み込み、読み込んだデータに基づき各種処理設定および制御を行なうマイクロコンピュータ112と;メモリ108の読み書きアドレスを制御するアドレス制御部109と;ラン情報が存在しないラインに対する色情報がマイクロコンピュータ112により設定される不足画素色設定部111と;TV画面などに副映像を表示するときの表示エリアを決定する表示有効許可部110などで、構成されている。   As shown in FIG. 8, the sub-picture decoder 101 includes a data I / O 102 to which the sub-picture data SPD is input; a memory 108 for storing the sub-picture data SPD; and a memory control for controlling a read / write operation of the memory 108. A unit 105 for detecting a continuous code length (encoded header) of one unit (one unit) from the run information of the code data (run-length compressed pixel data) read out from the memory 108; A continuation code length detection unit 106 that outputs separation information; a code data separation unit 103 that extracts code data for one unit according to the information from the continuation code length detection unit 106; an output from the code data separation unit 103 A signal indicating run information of one compression unit, and a signal output from the continuation code length detection unit 106. Receive a signal (period signal) indicating the number of consecutive "0" bits from the beginning of the code data of one unit from the beginning of the code data of one unit (period signal), and calculate the number of continuous pixels of one unit from these signals. And a pixel color output unit 104 (Fast) that receives the pixel color information from the code data separation unit 103 and the period signal output from the run length setting unit 107 and outputs the color information only during that period. a microcomputer 112 for reading header data (see FIG. 4) in the sub-picture data SPD read from the memory 108, and performing various processing settings and control based on the read data; An address control unit 109 for controlling a read / write address of the memory 108; Insufficient pixel color setter 111 set by 2; in a display valid authorization unit 110 for determining the display area when displaying a sub-picture such as TV screens, is constructed.

なお、図24〜図27の説明で言及されるが、デコーダ101のMPU112には、タイマ120およびバッファ121が接続されている。タイマ120は、メインSTC(システムタイマ)120aとサブSTC(サブタイマ)120bから構成されている。   24 to 27, the timer 120 and the buffer 121 are connected to the MPU 112 of the decoder 101. The timer 120 includes a main STC (system timer) 120a and a sub STC (sub timer) 120b.

上記説明を別の言い方で再度説明すると、次のようになる。すなわち、図8に示すように、ランレングス圧縮された副映像データSPDは、データI/O102を介して、デコーダ101内部のバスに送り込まれる。バスに送り込まれたデータSPDは、メモリ制御部105を介してメモリ108へ送られ、そこに記憶される。また、デコーダ101の内部バスは、符号データ切分部103と、継続コード長検知部106と、マイクロコンピュータ(MPUまたはCPU)112とに接続されている。   The above description will be described in another way as follows. That is, as shown in FIG. 8, the run-length compressed sub-picture data SPD is sent to the bus inside the decoder 101 via the data I / O 102. The data SPD sent to the bus is sent to the memory 108 via the memory control unit 105 and stored therein. The internal bus of the decoder 101 is connected to the code data separating unit 103, the continuous code length detecting unit 106, and the microcomputer (MPU or CPU) 112.

メモリ108から読み出された副映像データの副映像ユニットヘッダ31は、マイクロコンピュータ112により読み取られる。マイクロコンピュータ112は、読み出したヘッダ31から、図4に示す各種パラメータに基づいて、アドレス制御部109にデコード開始アドレス(SPDDADR)を設定し、表示有効許可部110に副映像の表示開始位置と表示幅と表示高との情報(SPDSZ)を設定し、符号データ切分部103に副映像の表示幅(ライン上のドット数)を設定する。設定された各種情報は各部(109、110、103)の内部レジスタに保存される。それ以後、レジスタに保存された各種情報は、マイクロコンピュータ112によりアクセスできるようになる。   The sub-picture unit header 31 of the sub-picture data read from the memory 108 is read by the microcomputer 112. The microcomputer 112 sets the decoding start address (SPDDDR) in the address control unit 109 from the read header 31 based on the various parameters shown in FIG. The information (SPDSZ) of the width and the display height is set, and the display width (the number of dots on a line) of the sub-picture is set in the code data separating unit 103. The set various information is stored in an internal register of each unit (109, 110, 103). Thereafter, the various information stored in the register can be accessed by the microcomputer 112.

アドレス制御部109は、レジスタに設定されたデコード開始アドレス(SPDDADR)に基づき、メモリ制御部105を介しメモリ108にアクセスして、デコードしようとする副映像データの読み出しを開始する。こうしてメモリ108から読み出された副映像データは、符号データ切出部103および継続コード長検知部106に与えられる。   The address control unit 109 accesses the memory 108 via the memory control unit 105 based on the decoding start address (SPDDDR) set in the register, and starts reading sub-video data to be decoded. The sub-picture data thus read from the memory 108 is supplied to the code data cutout unit 103 and the continuous code length detection unit 106.

ランレングス圧縮された副映像データSPDの符号化ヘッダ(図5の規則2〜5では2〜14ビット)は継続コード長検知部106により検出され、データSPD内における同一画素データの継続画素数が継続コード長検知部106からの信号を基にラン長設定部107により検出される。   The encoded header of the run-length-compressed sub-picture data SPD (2 to 14 bits in rules 2 to 5 in FIG. 5) is detected by the continuation code length detection unit 106, and the number of continuation pixels of the same pixel data in the data SPD is It is detected by the run length setting unit 107 based on the signal from the continuous code length detection unit 106.

すなわち、継続コード長検知部106は、メモリ108から読み込んだデータの”0”ビットの数を数えて、符号化ヘッダ(図5参照)を検知する。この検知部106は、検知した符号化ヘッダの値にしたがって、符号データ切分部103に切り分け情報SEP.INFO.を与える。   That is, the continuation code length detection unit 106 counts the number of “0” bits of the data read from the memory 108 and detects the encoded header (see FIG. 5). The detection unit 106 supplies the code data separation unit 103 with the separation information SEP. INFO. give.

符号データ切分部103は、与えられた切り分け情報SEP.INFO.にしたがって、継続画素数(ラン情報)をラン長設定部107に設定するとともに、画素データ(SEPARATED DATA;ここでは画素色)をFIFOタイプの画素色出力部104に設定する。その際、符号データ切分部103は、副映像データの画素数をカウントし、画素数カウント値と副映像の表示幅(1ラインの画素数)とを比較している。   The code data separation unit 103 receives the provided separation information SEP. INFO. , The number of continuous pixels (run information) is set in the run length setting unit 107, and the pixel data (SEPARATED DATA; here, the pixel color) is set in the FIFO type pixel color output unit 104. At that time, the code data separating unit 103 counts the number of pixels of the sub-picture data, and compares the pixel number count value with the display width of the sub-picture (the number of pixels in one line).

1ライン分のデコードが終了した時点でバイトアラインされていない(つまり1ライン分のデータビット長が8の倍数でない)場合は、符号データ切分部103は、そのライン上の末尾4ビットデータをエンコード時に付加されたダミーデータであるとみなして、切り捨てる。   If the byte is not aligned at the time when the decoding of one line is completed (that is, the data bit length of one line is not a multiple of 8), the code data separating unit 103 extracts the last 4 bits of data on that line. It is regarded as dummy data added at the time of encoding, and is discarded.

ラン長設定部107は、前記継続画素数(ラン情報)と画素ドットクロック(DOTCLK)と水平/垂直同期信号(H−SYNC/V−SYNC)とに基づいて、画素色出力部104に、画素データを出力させるための信号(PERIOD SIGNAL)を与える。すると、画素色出力部104は、画素データ出力信号(PERIOD SIGNAL)がアクティブである間(つまり同じ画素色を出力する期間中)、符号データ切分部103からの画素データを、デコード
された表示データとして出力する。
The run length setting unit 107 supplies a pixel color output unit 104 with a pixel based on the number of continuous pixels (run information), a pixel dot clock (DOTCLK), and a horizontal / vertical synchronization signal (H-SYNC / V-SYNC). A signal (PERIOD SIGNAL) for outputting data is given. Then, while the pixel data output signal (PERIOD SIGNAL) is active (that is, during the period of outputting the same pixel color), the pixel color output unit 104 decodes the pixel data from the code data separation unit 103 into a decoded display. Output as data.

その際、マイクロコンピュータ112からの指示によりデコード開始ラインが変更されている場合には、ラン情報のないラインが存在することがある。その場合には、不足画素色設定部111が、予め設定された不足の画素色のデータ(COLOR INFO.)を画素色出力部104に与える。すると、ラン情報のないラインデータが符号データ切分部103に与えられている間、画素色出力部104は、不足画素色設定部111からの不足画素色データ(COLOR INFO.)を出力する。   At this time, if the decoding start line has been changed by an instruction from the microcomputer 112, there may be a line without run information. In this case, the missing pixel color setting unit 111 supplies the preset missing pixel color data (COLOR INFO.) To the pixel color output unit 104. Then, the pixel color output unit 104 outputs the insufficient pixel color data (COLOR INFO.) From the insufficient pixel color setting unit 111 while the line data without the run information is given to the code data separating unit 103.

すなわち、図8のデコーダ101の場合、入力された副映像データSPD中に画像データがないと、マイクロコンピュータ112はその分不足する画素色情報を不足画素色設定部111に設定するようになっている。   That is, in the case of the decoder 101 of FIG. 8, if there is no image data in the input sub-picture data SPD, the microcomputer 112 sets the insufficient pixel color information to the insufficient pixel color setting unit 111 accordingly. I have.

この画素色出力部104へは、図示しないモニタ画面上のどの位置にデコードされた副映像を表示させるかを決定する表示許可(Display Enable)信号が、副映像画像の水平/垂直同期信号に同期して、表示有効許可部(Display Activator )110から与えられる。また、マイクロコンピュータ112からの色情報指示に基づいて、許可部110から出力部104へ、色切換信号が送られる。   The pixel color output unit 104 is synchronized with a horizontal / vertical synchronization signal of the sub-picture image by a display enable signal for determining a position on the monitor screen (not shown) where the decoded sub-picture is to be displayed. Then, it is provided from the display activation permitting section (Display Activator) 110. Further, based on a color information instruction from the microcomputer 112, a color switching signal is sent from the permission unit 110 to the output unit 104.

アドレス制御部109は、マイクロコンピュータ112による処理設定後、メモリ制御部105、継続コード長検知部106、符号データ切分部103およびラン長設定部107に対して、アドレスデータおよび各種タイミング信号を送出する。   The address control unit 109 sends address data and various timing signals to the memory control unit 105, the continuation code length detection unit 106, the code data separation unit 103, and the run length setting unit 107 after the processing setting by the microcomputer 112. I do.

データI/O部102を介して副映像データSPDのパックが取り込まれ、それがメモリ108に格納される際、このデータSPDのパックヘッダの内容(デコード開始アドレス、デコード終了アドレス、表示開始位置、表示幅、表示高さなど)がマイクロコンピュータ112により読み取られる。マイクロコンピュータ112は、読み取った内容に基づいて、表示有効許可部110に、デコード開始アドレス、デコード終了アドレス、表示開始位置、表示幅、表示高さなどを設定する。   When a pack of the sub-picture data SPD is fetched via the data I / O unit 102 and stored in the memory 108, the contents of the pack header (decoding start address, decoding end address, display start position, Display width, display height, etc.) are read by the microcomputer 112. The microcomputer 112 sets a decode start address, a decode end address, a display start position, a display width, a display height, and the like in the display validity permitting unit 110 based on the read content.

以下、圧縮された画素データが2ビット構成(使用規則は図5の規則1〜6)の場合について、図8のデコーダ101の動作を説明する。   Hereinafter, the operation of the decoder 101 in FIG. 8 will be described in the case where the compressed pixel data has a 2-bit configuration (the usage rules are rules 1 to 6 in FIG. 5).

マイクロコンピュータ112によりデコードスタートアドレスが設定されると、アドレス制御部109は、メモリ制御部105に対応するアドレスデータを送るとともに、継続コード長検知部106に読込開始信号を送る。   When the microcomputer 112 sets a decode start address, the address control unit 109 sends the corresponding address data to the memory control unit 105 and sends a read start signal to the continuous code length detection unit 106.

継続コード長検知部106は、送られてきた読込開始信号に応答してメモリ制御部105にリード信号を送って符号化データ(圧縮された副映像データ32)を読み込む。そして、この検知部106において、読み込んだデータのうち上位2ビット全てが「0」かどうかがチェックされる。   The continuation code length detection unit 106 sends a read signal to the memory control unit 105 in response to the received read start signal to read the encoded data (compressed sub-video data 32). Then, the detection unit 106 checks whether or not all the upper two bits of the read data are “0”.

それらが「0」でない場合は、圧縮単位のブロック長が4ビットであると判定される(図5の規則1参照)。   If they are not “0”, it is determined that the block length of the compression unit is 4 bits (see rule 1 in FIG. 5).

それら(上位2ビット)が「0」であれば、さらに続く2ビット(上位4ビット)がチェックされる。それらが「0」でない場合は、圧縮単位のブロック長が8ビットであると判定される(図5の規則2参照)。   If those (upper 2 bits) are “0”, the subsequent 2 bits (upper 4 bits) are checked. If they are not “0”, it is determined that the block length of the compression unit is 8 bits (see rule 2 in FIG. 5).

それら(上位4ビット)が「0」であれば、さらに続く2ビット(上位6ビット)がチェックされる。それらが「0」でない場合は、圧縮単位のブロック長が12ビットであると判定される(図5の規則3参照)。   If those (upper 4 bits) are “0”, the subsequent 2 bits (upper 6 bits) are checked. If they are not “0”, it is determined that the block length of the compression unit is 12 bits (see rule 3 in FIG. 5).

それら(上位6ビット)が「0」であれば、さらに続く8ビット(上位14ビット)がチェックされる。それらが「0」でない場合は、圧縮単位のブロック長が16ビットであると判定される(図5の規則4参照)。   If those (upper 6 bits) are “0”, further 8 bits (upper 14 bits) are checked. If they are not “0”, it is determined that the block length of the compression unit is 16 bits (see rule 4 in FIG. 5).

それら(上位14ビット)が「0」であれば、圧縮単位のブロック長が16ビットであるとともに、ラインエンドまで同じ画素データが連続していると判定される(図5の規則5参照)。   If these (upper 14 bits) are “0”, it is determined that the block length of the compression unit is 16 bits and the same pixel data continues until the line end (see rule 5 in FIG. 5).

また、ラインエンドまで読み込んだ画素データのビット数が8の整数倍であればそのままとし、8の整数倍でなければ、バイトアラインを実現するために、読み込んだデータの末尾に4ビットのダミーデータが必要であると判定される(図5の規則6参照)。   If the number of bits of the pixel data read up to the line end is an integer multiple of 8, the bit data is left as it is, and if it is not an integer multiple of 8, 4-bit dummy data is added to the end of the read data to realize byte alignment. Is determined to be necessary (see rule 6 in FIG. 5).

符号データ切分部103は、継続コード長検知部106による上記判定結果に基づいて、メモリ108から副映像データ32の1ブロック分(1圧縮単位)を取り出す。そして、切分部103において、取り出された1ブロック分データが、継続画素数と画素データ(画素の色情報など)に切り分けられる。切り分けられた継続画素数のデータ(RUN INFO.)はラン長設定部107に送られ、切り分けられた画素データ(SEPARATED DATA)は画素色出力部104に送られる。   The code data separating unit 103 extracts one block (one compression unit) of the sub-picture data 32 from the memory 108 based on the determination result by the continuous code length detecting unit 106. Then, in the separation unit 103, the extracted data for one block is separated into the number of continuous pixels and pixel data (such as pixel color information). The data of the divided continuous pixel number (RUN INFO.) Is sent to the run length setting unit 107, and the separated pixel data (SEPARATED DATA) is sent to the pixel color output unit 104.

一方、表示有効許可部110は、マイクロコンピュータ112から受け取った表示開始位置情報、表示幅情報および表示高情報にしたがい、装置外部から供給される画素ドットクロック(PIXELーDOT CLK)、水平同期信号(H−SYNC)および垂直同期信号(V−SYNC)に同期して、副映像表示期間を指定する表示許可信号(イネーブル信号)を生成する。この表示許可信号は、ラン長設定部107に出力される。   On the other hand, according to the display start position information, the display width information, and the display height information received from the microcomputer 112, the display validity permitting section 110 supplies a pixel dot clock (PIXEL-DOT CLK) and a horizontal synchronization signal (PIXEL-DOT CLK) supplied from outside the device. H-SYNC) and a vertical synchronizing signal (V-SYNC) to generate a display permission signal (enable signal) for specifying a sub-image display period. This display permission signal is output to run length setting section 107.

ラン長設定部107には、継続コード長検知部106から出力されるものであって現在のブロックデータがラインエンドまで連続するかどうかを示す信号と、符号データ切分部103からの継続画素データ(RUN INFO.)とが送られる。ラン長設定部107は、検知部106からの信号および切分部103からのデータに基づいて、デコード中のブロックが受け持つ画素ドット数を決定し、このドット数に対応する期間中、画素色出力部104へ表示許可信号(出力イネーブル信号)を出力するように構成されている。   The run length setting unit 107 includes a signal output from the continuation code length detection unit 106 and indicating whether or not the current block data continues to the line end, and a continuation pixel data from the code data separation unit 103. (RUN INFO.) Is sent. The run length setting unit 107 determines the number of pixel dots covered by the block being decoded based on the signal from the detection unit 106 and the data from the separation unit 103, and during the period corresponding to the number of dots, outputs the pixel color. It is configured to output a display permission signal (output enable signal) to the unit 104.

画素色出力部104は、ラン長設定部107からの期間信号受信中イネーブルとなり、その期間中、符号データ切分部103から受け取った画素色情報を、画素ドットクロック(PIXELーDOT CLK)に同期して、デコードされた表示データとして、図示しない表示装置などへ送出する。すなわち、デコード中ブロックの画素パターン連続ドット数分の同じ表示データが、画素色出力部104から出力される。   The pixel color output unit 104 is enabled while receiving the period signal from the run length setting unit 107, and synchronizes the pixel color information received from the code data separation unit 103 with the pixel dot clock (PIXEL-DOT CLK) during that period. Then, the decoded display data is transmitted to a display device (not shown) or the like. That is, the same display data as the number of continuous dots of the pixel pattern of the block being decoded is output from the pixel color output unit 104.

また、継続コード長検知部106は、符号化データがラインエンドまで同じ画素色データであると判定すると、符号データ切分部103へ継続コード長16ビット用の信号を出力し、ラン長設定部107にはラインエンドまで同じ画素色データであることを示す信号を出力する。   If the continuation code length detection unit 106 determines that the encoded data is the same pixel color data until the line end, the continuation code length detection unit 106 outputs a signal for a continuation code length of 16 bits to the code data separation unit 103, and the run length setting unit A signal 107 indicates that the pixel color data is the same until the line end.

ラン長設定部107は、検知部106から上記信号を受け取ると、水平同期信号H−SYNCが非アクティブになるまで符号化データの色情報がイネーブル状態を保持し続けるように、画素色出力部104へ出力イネーブル信号(期間信号)を出力する。   Upon receiving the above signal from the detection unit 106, the run length setting unit 107 sets the pixel color output unit 104 such that the color information of the encoded data keeps the enabled state until the horizontal synchronization signal H-SYNC becomes inactive. To output an output enable signal (period signal).

なお、マイクロコンピュータ112が副映像の表示内容をスクロールさせるためにデコード開始ラインを変更した場合は、予め設定していた表示領域内にデコード使用とするデータラインが存在しない(つまりデコードラインが不足する)可能性がある。   When the microcomputer 112 changes the decoding start line in order to scroll the display content of the sub-picture, the data line to be used for decoding does not exist in the preset display area (that is, the decoding line is insufficient). )there is a possibility.

図8のデコーダ101は、このような場合に対処するために、不足したラインを埋める画素色データを予め用意している。そして、実際にライン不足が検知されると、不足画素色データの表示モードに切り換えられる。具体的にいえば、データエンド信号がアドレス制御部109から表示有効許可部110に与えられると、許可部110は画素色出力部104に色切換信号(COLOR SW SIGNAL)を送る。画素色出力部104は、この切換信号に応答して、符号データからの画素色データのデコード出力を、不足画素色設定部110からの色情報(COLOR INFO.)のデコード出力に切り換える。この切換状態は、不足ラインの表示期間中(DISPLAY ENABLE=アクティブ)、維持される。   In order to cope with such a case, the decoder 101 in FIG. 8 prepares pixel color data for filling the missing lines in advance. Then, when the line shortage is actually detected, the display mode is switched to the display mode of the insufficient pixel color data. More specifically, when a data end signal is given from the address control unit 109 to the display validity permission unit 110, the permission unit 110 sends a color switching signal (COL SW SW SIGNAL) to the pixel color output unit 104. In response to the switching signal, the pixel color output unit 104 switches the decoded output of the pixel color data from the code data to the decoded output of the color information (COLOR INFO.) From the insufficient pixel color setting unit 110. This switching state is maintained during the display period of the insufficient line (DISPLAY ENABLE = active).

なお、上記ライン不足が生じた場合、不足画素色データを用いる代わりに、その間、デコード処理動作を中止することもできる。   When the line shortage occurs, instead of using the insufficient pixel color data, the decoding operation can be stopped during that time.

具体的には、例えばデータエンド信号がアドレス制御部109から表示有効許可部110へ入力されたときに、許可部110から画素色出力部104へ表示中止を指定する色切換信号を出力すればよい。すると、画素色出力部104は、この表示中止指定色切換信号がアクティブの期間中、副映像の表示を中止するようになる。   Specifically, for example, when a data end signal is input from the address control unit 109 to the display validity permission unit 110, the permission unit 110 may output a color switching signal designating display suspension to the pixel color output unit 104. . Then, the pixel color output unit 104 stops displaying the sub-picture while the display stop designation color switching signal is active.

図9は、エンコードされた画素データ(副映像データ)のうち、文字パターン「A」がどのようにデコードされるかを、2例(ノンインターレース表示およびインターレース表示)説明するものである。   FIG. 9 illustrates two examples (non-interlaced display and interlaced display) of how the character pattern “A” is decoded in the encoded pixel data (sub-picture data).

図8のデコーダ101は、図9の上部で示すような圧縮データを図9の左下部に示すようなノンインターレース表示データにデコードする場合に用いることができる。   The decoder 101 of FIG. 8 can be used when decoding compressed data as shown in the upper part of FIG. 9 into non-interlaced display data as shown in the lower left part of FIG.

これに対し、図9の上部で示すような圧縮データを図9の右下部に示すようなインターレース表示データにデコードする場合は、同一画素ラインを二度スキャンするラインダブラ(たとえば、奇数フィールドのライン#1と同じ内容のライン#10を、偶数フィールドにおいて再スキャンする;V−SYNC単位の切換)が必要になる。   On the other hand, when decoding compressed data as shown in the upper part of FIG. 9 into interlaced display data as shown in the lower right part of FIG. 9, a line doubler that scans the same pixel line twice (for example, line # of an odd field) Line # 10 having the same content as 1 is re-scanned in an even field; switching between V-SYNC units is required.

また、インターレース表示と同等の画像表示量をノンインターレース表示する場合は、別のインダブラ(たとえば、図9右下部のライン#1と同じ内容を持つライン#10をライン#1に連続させる;H−SYNC単位の切換)が必要になる。   When non-interlaced display is performed with the same image display amount as interlaced display, another indubbler (for example, line # 10 having the same content as line # 1 at the lower right of FIG. 9 is made continuous with line # 1; SYNC unit).

図10は、この発明の一実施の形態に係る画像デコード(ランレングス伸張)を実行するものであって、たとえば図11あるいは図12マイクロコンピュータ112により実行されるソフトウエアを説明するフローチャートである。(ここでは、図3の表示制御シーケンステーブルDCSQT33のデコードについては触れない。DCSQT33部分のデコードについては、図25〜図27を参照して後述する。)
また、図11は、図10のソフトウエアで使用されるデコードステップ(ST105)の内容の一例を説明するフローチャートである。
FIG. 10 is a flowchart for executing image decoding (run-length decompression) according to an embodiment of the present invention and explaining software executed by the microcomputer 112 shown in FIG. 11 or FIG. 12, for example. (Decoding of the display control sequence table DCSQT33 in FIG. 3 is not described here. Decoding of the DCSQT33 portion will be described later with reference to FIGS. 25 to 27.)
FIG. 11 is a flowchart illustrating an example of the contents of the decoding step (ST105) used in the software of FIG.

すなわち、マイクロコンピュータ112は、ランレングス圧縮された副映像データ(画素データは2ビット構成)の初めのヘッダ31部分を読み込んで、その内容(図4参照)を解析する。そして、解析されたヘッダの内容に基づいて、デコードされる画像データのライン数およびドット数が指定される。これらライン数およびドット数が指定されると(ステップST101)、ラインカウント数およびドットカウント数が「0」に初期化される(ステップST102〜ステップST103)。   That is, the microcomputer 112 reads the first header 31 portion of the run-length compressed sub-picture data (pixel data is composed of 2 bits) and analyzes the contents (see FIG. 4). Then, the number of lines and the number of dots of the image data to be decoded are specified based on the content of the analyzed header. When the number of lines and the number of dots are designated (step ST101), the number of lines and the number of dots are initialized to “0” (steps ST102 to ST103).

マイクロコンピュータ112は、副映像ユニットヘッダ31の後に続くデータビット列を順次取り込んで行き、ドット数およびドットカウント数を計数する。そしてドット数からドットカウント数を引き算して、継続画素数を算出する(ステップST104)。   The microcomputer 112 sequentially takes in the data bit string following the sub-picture unit header 31 and counts the number of dots and the number of dots. Then, the number of continuous pixels is calculated by subtracting the number of dots from the number of dots (step ST104).

こうして継続画素数が算出されると、マイクロコンピュータ112は、この継続画素数の値に応じてデコード処理を実行する(ステップST105)。   When the number of continuous pixels is calculated in this way, the microcomputer 112 performs a decoding process according to the value of the number of continuous pixels (step ST105).

ステップST105のデコード処理後、マイクロコンピュータ112はドットカウント数と継続画素数とを加算し、これを新たなドットカウント数とする(ステップST106)。   After the decoding process in step ST105, the microcomputer 112 adds the dot count number and the continuation pixel number, and sets this as a new dot count number (step ST106).

そして、マイクロコンピュータ112はデータを順次とりこんではステップST105のデコード処理を実行し、累積したドットカウント数が初めに設定したライン終了数(ラインエンドの位置)と一致したとき、1ライン分のデータについてのデコード処理を終了する(ステップST107イエス)。   Then, the microcomputer 112 sequentially fetches the data and executes the decoding process in step ST105. When the accumulated dot count matches the line end number (line end position) set first, the microcomputer 112 performs the data processing for one line. Is completed (Yes in step ST107).

次に、デコードしたデータがバイトアラインされておれば(ステップST108Aイエス)、ダミーデータ分を取り除く(ステップST108B)。そしてラインカウント数を+1インクリメントし(ステップST109)、最終ラインに到達するまで(ステップST1010ノー)、ステップST102〜ステップST109の処理を反復する。最終ラインに到達すれば(ステップST1010イエス)、デコードは終了する。   Next, if the decoded data is byte-aligned (Yes in step ST108A), the dummy data is removed (step ST108B). Then, the line count number is incremented by +1 (step ST109), and the processing of steps ST102 to ST109 is repeated until the last line is reached (No in step ST1010). If the last line has been reached (step ST1010: YES), the decoding ends.

図10のデコード処理ステップST105の処理内容は、たとえば図11に示すようになっている。   The processing content of the decoding processing step ST105 in FIG. 10 is, for example, as shown in FIG.

この処理では、初めから2ビットを取得しては、そのビットが「0」か否かを判定する織りを繰り返す(ステップST111〜ステップST119)。これにより、図5のランレングス圧縮規則1〜6に対応した継続画素数、つまりラン連続数が決定される(ステップST120〜ステップST123)。   In this process, after acquiring two bits from the beginning, weaving to determine whether the bit is “0” is repeated (step ST111 to step ST119). As a result, the number of continuous pixels corresponding to the run length compression rules 1 to 6 in FIG. 5, that is, the number of consecutive runs is determined (steps ST120 to ST123).

そしてラン連続数が決定された後、そのあとに続けて読み込んだ2ビットが画素パターン(画素データ;画素の色情報)とされる(ステップST124)。   Then, after the number of consecutive runs is determined, the two bits read subsequently are used as a pixel pattern (pixel data; pixel color information) (step ST124).

画素データ(画素の色情報)が決まると、インデックスパラメータ「i」を0とし(ステップST125)、パラメータ「i」がラン連続数と一致するまで(ステップST126)、2ビット画素パターンを出力しては(ステップST127)、パラメータ「i」を+1インクリメントし(ステップST128)、同じ画素データの1単位分の出力を終えて、デコード処理を終了する。   When the pixel data (pixel color information) is determined, the index parameter “i” is set to 0 (step ST125), and a 2-bit pixel pattern is output until the parameter “i” matches the number of consecutive runs (step ST126). (Step ST127), increments the parameter “i” by +1 (Step ST128), ends the output of one unit of the same pixel data, and ends the decoding process.

このように、この副映像データのデコード方法によれば、副映像データのデコード処理が、数ビットの判定処理とデータブロックの切り分け処理とデータビットの計数処理だけという、簡単な処理で済む。このため、従来のMH符号化方法などで使用される大掛かりなコード表は必要なくなり、エンコードされたビットデータを元の画素情報にデコードする処理・構成が簡単になる。   As described above, according to the decoding method of the sub-picture data, the decoding process of the sub-picture data can be a simple process of determining a few bits, separating a data block, and counting data bits. This eliminates the need for a large code table used in the conventional MH encoding method and the like, and simplifies the processing and configuration for decoding the encoded bit data into the original pixel information.

なお、上記実施の形態では、データデコード時に最大16ビットのビットデータを読み取れば、同じ画素の1単位分の符号ビット長を決定できるものとしたが、この符号ビット長はこれに限定されない。たとえばこの符号ビット長は32ビットでも64ビットでもよい。ただしビット長が増えれば、その分容量の大きなデータバッファが必要になる。   In the above-described embodiment, the code bit length for one unit of the same pixel can be determined by reading bit data of up to 16 bits at the time of data decoding, but the code bit length is not limited to this. For example, the code bit length may be 32 bits or 64 bits. However, as the bit length increases, a data buffer having a larger capacity is required.

また、上記実施の形態では画素データ(画素の色情報)を、たとえば16色のカラーパレットから選択された3色の色情報としたが、これ以外に、色の3原色(赤成分R、緑成分G、青成分B;または輝度信号成分Y、クロマ赤信号成分Cr、クロマ青信号成分Cbなど)それぞれの振幅情報を、2ビットの画素データで表現することもできる。つまり、画素データは特定種類の色情報に限定されることはない。   Further, in the above embodiment, the pixel data (color information of the pixel) is the color information of three colors selected from, for example, a color palette of 16 colors. However, in addition to this, the three primary colors (red component R, green Component G, blue component B; or luminance signal component Y, chroma red signal component Cr, chroma blue signal component Cb, etc.) can also be represented by 2-bit pixel data. That is, the pixel data is not limited to the specific type of color information.

図12は、エンコード(図3のSPUH+PXD+DCSQTのエンコード)およびデコード(SPUH+PXD+DCSQTのデコード)が実行される光ディスク記録再生装置の概要を説明するブロック図である。   FIG. 12 is a block diagram illustrating an outline of an optical disc recording / reproducing apparatus in which encoding (encoding of SPUH + PXD + DCSQT in FIG. 3) and decoding (decoding of SPUH + PXD + DCSQT) are executed.

図12において、光ディスクプレーヤ300は、基本的には従来の光ディスク再生装置(コンパクトディスクプレーヤあるいはレーザディスクプレーヤ)と同様な構成を持つ。ただし、この光ディスクプレーヤ300は、挿入された光ディスクOD(ランレングス圧縮された副映像データを含む画像情報が記録されたもの)から、ランレングス圧縮された画像情報をデコードする前のデジタル信号 (エンコードされたままのデジタル信号)を出力できるようになっている。このエンコードされたままのデジタル信号は圧縮されているので、必要な伝送帯域幅は非圧縮データを伝送する場合に比べて少なくて良い。   In FIG. 12, an optical disk player 300 has basically the same configuration as a conventional optical disk reproducing device (compact disk player or laser disk player). However, the optical disc player 300 uses a digital signal (encoding) before decoding the run-length-compressed image information from the inserted optical disc OD (where the image information including the run-length-compressed sub-picture data is recorded). Digital signal as it is). Since this encoded digital signal is compressed, the required transmission bandwidth may be smaller than in the case of transmitting uncompressed data.

光ディスクプレーヤ300からの圧縮デジタル信号は変調器/送信器210を介してオンエアされ、または通信ケーブルに送出される。   The compressed digital signal from the optical disc player 300 is sent on-air via the modulator / transmitter 210 or sent out to a communication cable.

オンエアされた圧縮デジタル信号、あるいはケーブル送信された圧縮デジタル信号は、受信者あるいはケーブル加入者の受信器/復調器400により、受信される。この受信器400は、たとえば図8に示すような構成のデコーダ101を備えている。受信器400のデコーダ101は、受信し復調した圧縮デジタル信号をデコードして、エンコードされる前の原副映像データを含む画像情報を出力する。   The compressed digital signal that has been aired or transmitted by cable is received by the receiver / demodulator 400 of the receiver or cable subscriber. The receiver 400 includes the decoder 101 having a configuration as shown in FIG. 8, for example. The decoder 101 of the receiver 400 decodes the received and demodulated compressed digital signal, and outputs image information including original sub-video data before being encoded.

図12の構成において、送受信の伝送系がおよそ5Mビット/秒以上の平均ビットレートを持つものであれば、高品位なマルチメディア映像・音声情報の放送ができる。   In the configuration of FIG. 12, if the transmission / reception transmission system has an average bit rate of about 5 Mbit / sec or more, high-quality multimedia video / audio information can be broadcast.

図13は、この発明に基づきエンコードされた画像情報が、通信ネットワーク(インターネットなど)を介して、任意の2コンピュータユーザ間で送受される場合を説明するブロック図である。   FIG. 13 is a block diagram illustrating a case where image information encoded according to the present invention is transmitted / received between any two computer users via a communication network (such as the Internet).

図示しないホストコンピュータで管理する自己情報#1を持つユーザ#1はパーソナルコンピュータ5001を所有しており、このパーソナルコンピュータ5001には、種々な入出力機器5011および種々な外部記憶装置5021が接続されている。また、このパーソナルコンピュータ5001の内部スロット(図示せず)には、この発明に基づくエンコーダおよびデコーダが組み込まれ、通信に必要な機能を持つモデムカード5031が装着されている。   User # 1 having self-information # 1 managed by a host computer (not shown) owns personal computer 5001, and various input / output devices 5011 and various external storage devices 5021 are connected to personal computer 5001. I have. An internal slot (not shown) of the personal computer 5001 is provided with a modem card 5031 having a built-in encoder and decoder according to the present invention and having functions necessary for communication.

同様に、別の自己情報#Nを持つユーザ#Nはパーソナルコンピュータ500Nを所有しており、このパーソナルコンピュータ500Nには、種々な入出力機器501Nおよび種々な外部記憶装置502Nが接続されている。また、このパーソナルコンピュータ500Nの内部スロット(図示せず)には、この発明に基づくエンコーダおよびデコーダが組み込まれ、通信に必要な機能を持つモデムカード503Nが装着されている。   Similarly, a user #N having another self information #N owns a personal computer 500N, and various input / output devices 501N and various external storage devices 502N are connected to the personal computer 500N. An encoder and a decoder according to the present invention are incorporated in an internal slot (not shown) of the personal computer 500N, and a modem card 503N having functions necessary for communication is mounted.

いま、あるユーザ#1がコンピュータ5001を操作し、インターネットなどの回線600を介して別のユーザ#Nのコンピュータ500Nと通信を行なう場合を想定してみる。この場合、ユーザ#1およびユーザ#Nは双方ともエンコーダおよびデコーダが組み込まれたモデムカード5031および503Nを持っているので、この発明により効率よく圧縮された画像データを短時間で交換できる。   Now, it is assumed that a user # 1 operates the computer 5001 and communicates with a computer 500N of another user #N via a line 600 such as the Internet. In this case, since both user # 1 and user #N have modem cards 5031 and 503N in which an encoder and a decoder are incorporated, the present invention can efficiently exchange compressed image data in a short time.

図24は、エンコードされた画像情報(図3のSPUH+PXD+DCSQT)を光ディスクODに記録し、記録された情報(SPUH+PXD+DCSQT)をこの発明に基づきデコードする記録再生装置の概要を示している。   FIG. 24 shows an outline of a recording / reproducing apparatus which records encoded image information (SPUH + PXD + DCSQT in FIG. 3) on an optical disk OD and decodes the recorded information (SPUH + PXD + DCSQT) according to the present invention.

図24のエンコーダ200は、図7のエンコーダ200と同様なエンコード処理(図13〜図14に対応する処理)を、ソフトウエアあるいはハードウエア(ファームウエアあるいはワイアードロジック回路を含む)で実行するように構成されている。   The encoder 200 of FIG. 24 executes the same encoding processing (processing corresponding to FIGS. 13 to 14) as the encoder 200 of FIG. 7 by software or hardware (including firmware or a wired logic circuit). It is configured.

エンコーダ200でエンコードされた副映像データその他を含む記録信号は、変調器/レーザドライバ702において、たとえば(2、7)RLL変調される。変調された記録信号は、レーザドライバ702から光ヘッド704の高出力レーザダイオードに送られる。この光ヘッド704からの記録用レーザにより、記録信号に対応したパターンが、光磁気記録ディスクまたは相変化光ディスクODに、書き込まれる。   A recording signal including sub-picture data and the like encoded by the encoder 200 is subjected to, for example, (2, 7) RLL modulation in the modulator / laser driver 702. The modulated recording signal is sent from the laser driver 702 to the high-power laser diode of the optical head 704. By the recording laser from the optical head 704, a pattern corresponding to the recording signal is written on the magneto-optical recording disk or the phase-change optical disk OD.

ディスクODに書き込まれた情報は、光ヘッド706のレーザピックアップにより読み取られ、復調器/エラー訂正部708において復調され、かつ必要に応じてエラー訂正処理を受ける。復調されエラー訂正された信号は、音声/映像用データ処理部710において種々なデータ処理を受けて、記録前の情報が再生される。   The information written on the disk OD is read by the laser pickup of the optical head 706, demodulated by the demodulator / error correction unit 708, and subjected to error correction processing as needed. The demodulated and error-corrected signal undergoes various data processing in the audio / video data processing unit 710, and the information before recording is reproduced.

このデータ処理部710は、図8のデコーダ101に対応するデコード処理部を含んでいる。このデコード処理部により、図10〜図11に対応するデコード処理(圧縮された副映像データの伸張)が実行される。   This data processing unit 710 includes a decoding processing unit corresponding to the decoder 101 in FIG. The decoding process (decompression of the compressed sub-picture data) corresponding to FIGS.

ここで、図2または図3に示される副映像データは、図15に示すように複数チャネルで構成されている。副映像データユニットは、これら複数チャネルの中から任意に選択されたチャネルの、複数副映像データパケットで構成される。ここでの副映像は、文字あるいは図形などの情報を持ち、ビデオデータやオーディオデータと同時に再生処理されて、ビデオデータの再生画面上にスーパーインポーズ表示される。   Here, the sub-picture data shown in FIG. 2 or 3 is composed of a plurality of channels as shown in FIG. The sub-picture data unit is composed of a plurality of sub-picture data packets of a channel arbitrarily selected from the plurality of channels. The sub-picture has information such as characters or figures, is reproduced at the same time as video data and audio data, and is superimposed and displayed on a video data reproduction screen.

図16は、副映像パケットのデータ構造を示す。図16に示すように、副映像のパケットデータは、パケットヘッダ3と、副映像ヘッダ31と、副映像データ32と、表示制御シーケンステーブル33とで構成されている。   FIG. 16 shows the data structure of a sub-picture packet. As shown in FIG. 16, the sub-picture packet data includes a packet header 3, a sub-picture header 31, sub-picture data 32, and a display control sequence table 33.

パケットヘッダ3には、再生システムがその副映像データユニットの表示制御を開始すべき時刻がプレゼンテーションタイムスタンプ(PTS;Presentation Time Stamp )として記録されている。ただし、このPTSは、図17に示すように、各副映像データユニット(Y,W)内の先頭の副映像データパケットのヘッダ3にだけ記録されるようになっている。このPTSは、所定の再生時刻SCRにより再生される複数の副映像データユニットにおいて、その再生順に沿った値が各副映像データユニットに対して記述されている。   In the packet header 3, the time at which the playback system should start the display control of the sub-picture data unit is recorded as a presentation time stamp (PTS). However, as shown in FIG. 17, the PTS is recorded only in the header 3 of the first sub-picture data packet in each sub-picture data unit (Y, W). In the PTS, in a plurality of sub-video data units reproduced at a predetermined reproduction time SCR, values along the reproduction order are described for each sub-video data unit.

図18は、1以上の副映像パケットで構成される副映像ユニット(図3の30参照)の直列配列状態(n、n+1)と、そのうちの1ユニット(n+1)のパケットヘッダに記述されたタイムスタンプPTSと、このPTSに対応したユニット(n+1)の表示制御の状態(それ以前の副映像の表示クリアと、これから表示する副映像の表示制御シーケンスの指定)とを、例示している。   FIG. 18 shows the serial arrangement state (n, n + 1) of sub-picture units (see 30 in FIG. 3) composed of one or more sub-picture packets, and the time described in the packet header of one unit (n + 1) of them. The stamp PTS and the state of display control of the unit (n + 1) corresponding to the PTS (clearing of the display of the previous sub-picture and designation of the display control sequence of the sub-picture to be displayed from now on) are illustrated.

副映像ヘッダ31には、副映像データパケットのサイズ(2バイトのSPCSZ)と、パケット内の表示制御シーケンステーブル33の記録開始位置(2バイトのSPDCSQTA)とが記録されている。   In the sub-picture header 31, the size of the sub-picture data packet (SPCSZ of 2 bytes) and the recording start position of the display control sequence table 33 (SPDCSQTA of 2 bytes) in the packet are recorded.

表示制御シーケンステーブル33には、映像データの表示開始時刻/表示終了時刻を示す副映像表示制御タイムスタンプ(SPDCTS;Sub-Picture Display Control Time Stamp)と、表示すべき副映像データ(PXD)32の記録位置(SPNDCSQA;Sub-Picture Next Display Control Sequence Address )、副映像データの表示制御コマンド(COMMAND)とを1グループとする表示制御シーケンス情報(DCSQT;Display Control Sequence Table)が、1以上記録される。   The display control sequence table 33 includes a sub-picture display control time stamp (SPDCTS) indicating the display start time / display end time of the video data and the sub-picture data (PXD) 32 to be displayed. One or more display control sequence information (DCSQT; Display Control Sequence Table) in which a recording position (SPNDSQQA; Sub-Picture Next Display Control Sequence Address) and a sub video data display control command (COMMAND) are grouped together are recorded. .

ここで、パケットヘッダ3内のタイムスタンプPTSは、たとえばファイル (図2)先頭の再生開始時刻のような、ファイル全体の再生を通じて基準となる時刻(SCR;System Clock Reference)からの相対時間で規定されている。このSCRは、パケットヘッダ3の手前に付与されているパックヘッダ内に記述されている。一方、表示制御シーケンステーブル33内の各タイムスタンプSPDCTSは、上記PTSからの相対時間で規定される。   Here, the time stamp PTS in the packet header 3 is defined as a relative time from a reference time (SCR; System Clock Reference) throughout reproduction of the entire file, such as a reproduction start time at the beginning of the file (FIG. 2). Have been. This SCR is described in a pack header provided before the packet header 3. On the other hand, each time stamp SPDCTS in the display control sequence table 33 is defined by a relative time from the PTS.

最初に表示処理されるシーケンスの副映像表示制御タイムスタンプSPDCTSには「0」を記述される。   “0” is described in the sub-video display control time stamp SPDCTS of the sequence to be displayed first.

次に、再生システムにおける副映像データパケットのタイムスタンプPTS処理について説明する。ここでは、再生システム内の副映像プロセサ(たとえば図8のMPU112およびその周辺回路)において、このPTS処理が実行されるものとする。   Next, the time stamp PTS processing of the sub-picture data packet in the playback system will be described. Here, it is assumed that the PTS processing is executed in the sub-picture processor (for example, the MPU 112 in FIG. 8 and its peripheral circuits) in the playback system.

図15は、副映像データをデコードする場合において、副映像データユニットのバッファリング状態が、タイムスタンプPTSのある副映像チャネルによってどのように変化するかを説明するための図である。   FIG. 15 is a diagram for explaining how the buffering state of the sub-picture data unit changes depending on the sub-picture channel having the time stamp PTS when decoding the sub-picture data.

(1)副映像プロセサ(図8その他)は、外部(光ディスクあるいは放送局など)から送られてくる副映像データパケットの中から、予め選択されたチャネルの副映像データパケットをデコードし、そのパケット内にPTSがあるかどうかを調べる。   (1) The sub-picture processor (FIG. 8 and others) decodes a sub-picture data packet of a preselected channel from among sub-picture data packets sent from the outside (such as an optical disc or a broadcasting station), and decodes the packet. To see if there is a PTS inside.

たとえば図15のチャネル*4fに示すようにPTSが存在する場合は、そのPTSがパケットヘッダ3から切り離される。その後、たとえば図17に示すように副映像データの頭にPTSが付けられ、PTSヘッダ付きの副映像データが副映像バッファ(たとえば図8のバッファ121)にバッファリング(格納)される。   For example, when a PTS exists as shown by the channel * 4f in FIG. 15, the PTS is separated from the packet header 3. Thereafter, as shown in FIG. 17, for example, a PTS is added to the head of the sub-picture data, and the sub-picture data with a PTS header is buffered (stored) in a sub-picture buffer (for example, buffer 121 in FIG. 8).

なお、図15のグラフは、PTS付きチャネル*4fの副映像データパケットがバッファリングされるにつれて、副映像バッファ121へのバッファリング量が累積して行く様子を例示している。   Note that the graph of FIG. 15 illustrates a state in which the buffering amount to the sub-video buffer 121 is accumulated as the sub-video data packets of the channel * 4f with PTS are buffered.

(2)システムリセット後、副映像プロセサは、PTSを含んだ最初のパケットを受け取った直後の垂直ブランキング期間中(ある表示画面フレーム/フィールドから次の表示画面フレーム/フィールドへの切り換わり期間中)にこのPTSを取り込み、取り込んだPTSを基準タイムカウンタとしてのメインSTC120a(副映像プロセサ内のカウンタ例えば図8のタイマ120の一部)のカウント値と比較する。このメインSTC120aは、たとえばファイル先頭の再生開始時刻などファイル全体の再生を通じて基準となる時刻SCRからの経過時間を計るものであるが、上述した所定時間後に零となる値から開始されるようになっている。これにより、上記PTS(副映像ユニットの最初のパケットに付与されている)には、この副映像ユニットの転送時間を考慮することなく、「0」を記述することができる。   (2) After the system reset, the sub-picture processor performs the vertical blanking period immediately after receiving the first packet including the PTS (during the switching period from one display screen frame / field to the next display screen frame / field). ), And compares the fetched PTS with a count value of a main STC 120a (a counter in the sub-picture processor, for example, a part of the timer 120 in FIG. 8) as a reference time counter. The main STC 120a measures the elapsed time from the reference time SCR through the reproduction of the entire file such as the reproduction start time at the beginning of the file. The main STC 120a starts from a value that becomes zero after the above-described predetermined time. ing. Accordingly, “0” can be described in the PTS (attached to the first packet of the sub-picture unit) without considering the transfer time of the sub-picture unit.

(3)上記PTSとSTC120aのカウント値との比較の結果、STC120aのカウント値がPTSより大きい場合には、その副映像データは直ちに表示処理される。一方、STC120aのカウント値がPTSより小さい場合には何の処理も行われない。この比較は、次の垂直ブランキング期間中に、再度実行される。   (3) As a result of the comparison between the PTS and the count value of the STC 120a, if the count value of the STC 120a is larger than the PTS, the sub-picture data is immediately displayed. On the other hand, if the count value of STC 120a is smaller than PTS, no processing is performed. This comparison is performed again during the next vertical blanking period.

(4)副映像データの処理に入ると、同じ垂直ブランキング期間中に、その副映像データパケット内の表示制御シーケンステーブル33に記録されている最初の副映像表示制御タイムスタンプSPDCTSが、副映像プロセサ内のサブ基準タイムカウンタ(サブSTC)のカウント値と比較される。このサブSTCは、副映像データユニットの再生開始時刻からの経過時間を計る、副映像プロセサ内のサブ基準タイムカウンタ(例えば図8のタイマ120の他部)サブSTC120bで構成される。したがって、このサブSTC120bは、次の(後続の)副映像データユニットに表示が切り替わる度に、全ビットが”0”にクリアされ、その後再びインクリメント(タイムカウント)を開始する。   (4) When the processing of the sub-picture data is started, during the same vertical blanking period, the first sub-picture display control time stamp SPDCTS recorded in the display control sequence table 33 in the sub-picture data packet is changed to the sub-picture. It is compared with the count value of a sub reference time counter (sub STC) in the processor. The sub-STC is configured by a sub-reference time counter (for example, the other part of the timer 120 in FIG. 8) sub-STC 120b in the sub-image processor that measures the elapsed time from the reproduction start time of the sub-image data unit. Therefore, every time the display is switched to the next (subsequent) sub-picture data unit, all bits of this sub-STC 120b are cleared to "0", and then the increment (time count) is started again.

(5)サブSTC120bのカウント値と副映像表示制御タイムスタンプSPDCTSとの比較の結果、サブSTC120bのカウント値がSPDCTSよりも大きい場合は、表示制御シーケンステーブル33の先頭の表示制御シーケンスの制御データ(DCSQT;たとえば図16のDCSQT0)が直ちに実行され、副映像の表示処理が開始される。   (5) As a result of comparing the count value of the sub STC 120b with the sub-video display control time stamp SPDCTS, if the count value of the sub STC 120b is larger than SPDCTS, the control data of the first display control sequence of the display control sequence table 33 ( DCSQT (for example, DCSQT0 in FIG. 16) is immediately executed, and the display processing of the sub-picture is started.

(6)一旦表示処理が開始されると、垂直ブランキング期間毎に、現在表示している副映像データユニットの次の副映像データユニットの先頭パケットに付加されているPTSが読み込まれ、この読み込まれたPTSとメインSTC120aのカウント値とが比較される。   (6) Once the display processing is started, the PTS added to the first packet of the sub-picture data unit next to the currently displayed sub-picture data unit is read every vertical blanking period, and this reading is performed. The obtained PTS is compared with the count value of main STC 120a.

この比較の結果、メインSTC120aのカウント値がPTSよりも大きければ、図16のチャネルポインタが次の副映像データユニットのPTSのアドレス値に設定され、処理すべき副映像データユニットが次のものに切り替えられる。たとえば、図17を例にとると、上記チャネルポインタの設定変更により、副映像データユニットYから次の副映像データユニットWに切り替わる。この時点で、副映像データユニットYのデータはもう必要ないので、副映像バッファ(たとえば図8ではメモリ108)には副映像データユニットYの大きさの空き領域が生じる。このため、新たに副映像データパケットをこの空き領域に転送することができる。   As a result of this comparison, if the count value of main STC 120a is larger than the PTS, the channel pointer in FIG. 16 is set to the address value of the PTS of the next sub-picture data unit, and the next sub-picture data unit to be processed is set to the next. Can be switched. For example, taking FIG. 17 as an example, switching from the sub-picture data unit Y to the next sub-picture data unit W is performed by changing the setting of the channel pointer. At this point, since the data of the sub-picture data unit Y is no longer needed, a free area of the size of the sub-picture data unit Y is generated in the sub-picture buffer (for example, the memory 108 in FIG. 8). Therefore, a new sub-picture data packet can be newly transferred to this empty area.

これによって、副映像データユニット(たとえば図17のユニットW)のサイズおよびその切り換わり時刻(ユニットYからユニットWへの切り換わり時刻)から、副映像データパケットのバッファリング状態(図15参照)を、(ユニットWの)副映像データのエンコード時点で、事前に一意的に規定することができるようになる。したがって、映像・音声・副映像のパケットをシリアル転送したときに、それぞれのデコーダ部のバッファ(副映像デコーダの場合は図8その他のメモリ108)においてオーバーフローあるいはアンダーフローが生じないようなビットストリームの生成が可能になる。   Thus, the buffering state of the sub-picture data packet (see FIG. 15) is determined based on the size of the sub-picture data unit (for example, unit W in FIG. 17) and its switching time (the switching time from unit Y to unit W). ,.. (At the time of encoding the sub-video data). Therefore, when a video / audio / sub-picture packet is serially transferred, a buffer of each decoder unit (in the case of a sub-picture decoder, the other memory 108 in FIG. 8) does not generate an overflow or underflow in a bit stream. Generation becomes possible.

また、上記PTSとメインSTC120aのカウント値との比較の結果、メインSTC120aのカウント値がPTSよりも大きくない場合は副映像データユニットの切り替えは行われず、表示制御シーケンステーブルポインタ(図16のDCSQTポインタ)が次の表示制御シーケンステーブルDCSQTのアドレス値に設定される。そして、現在の副映像データパケット内の次のDCSQTの副映像表示制御タイムスタンプSPDCTSとサブSTC120bのカウント値とが比較される。この比較結果を基に、次のDCSQTを実行するかどうかが判定される。この動作については、後に詳述する。   When the PTS is compared with the count value of the main STC 120a, if the count value of the main STC 120a is not larger than the PTS, the sub-video data unit is not switched, and the display control sequence table pointer (the DCSQT pointer in FIG. ) Is set to the address value of the next display control sequence table DCSQT. Then, the sub video display control time stamp SPDCTS of the next DCSQT in the current sub video data packet is compared with the count value of the sub STC 120b. Based on the comparison result, it is determined whether or not to execute the next DCSQT. This operation will be described later in detail.

なお、副映像データパケット内の最後のDCSQTは、次の表示制御シーケンステーブルDCSQTとして自分自身を指し示しているので、前記(5)のDCSQT処理は基本的には変わらない。   Since the last DCSQT in the sub-picture data packet indicates itself as the next display control sequence table DCSQT, the DCSQT processing of (5) is basically unchanged.

(7)通常再生では、前記(4)、(5)、(6)の処理が繰り返される。   (7) In normal reproduction, the processing of (4), (5), and (6) is repeated.

なお、前記(6)の処理において、次の副映像データユニットのPTSを読み込む際にそのPTSを指し示すチャネルポインタ(図16参照)の値は、現在の副映像データユニット内のパケットサイズ(SPCSZ)を用いることで、求めるられる。   In the process (6), when reading the PTS of the next sub-picture data unit, the value of the channel pointer (see FIG. 16) indicating the PTS is set to the packet size (SPCSZ) in the current sub-picture data unit. Is obtained by using.

同様に、表示制御シーケンステーブル33内で次のDCSQTの副映像表示制御タイムスタンプSPDCTSを指し示すDCSQTポインタの値は、このテーブル33内に記述されているDCSQTのサイズ情報(次の副映像表示制御シーケンスのアドレスSPNDCSQTA)を用いて求められる。   Similarly, the value of the DCSQT pointer indicating the next DCSQT sub-picture display control time stamp SPDCTS in the display control sequence table 33 is the size information of the DCSQT described in this table 33 (the next sub-picture display control sequence). Address SPNDSQTA).

次に、副映像ヘッダ31、副映像データ32、および表示制御シーケンステーブル33それぞれの詳細について説明する。   Next, details of the sub-picture header 31, the sub-picture data 32, and the display control sequence table 33 will be described.

図19は、副映像ユニットヘッダ(SPUH)31の構造を示す。副映像ユニットヘッダSPUHは、副映像データパケットのサイズ(SPDSZ)およびパケット内の表示制御シーケンステーブル33の記録開始位置情報(副映像の表示制御シーケンステーブル開始アドレスSPDCSQTA;DCSQの相対アドレスポインタ)を含んでいる。   FIG. 19 shows the structure of the sub-picture unit header (SPUH) 31. The sub-picture unit header SPUH includes the size (SPDSZ) of the sub-picture data packet and the recording start position information of the display control sequence table 33 in the packet (sub-picture display control sequence table start address SPDCSQTA; relative address pointer of DCSQ). In.

なお、アドレスSPDCSQTAで指し示される副映像表示制御シーケンステーブルSPDCSQTの内容は、図20に示すように、複数の表示制御シーケンスDCSQ1〜DCSQnで構成されている。   The contents of the sub-video display control sequence table SPDCSQT indicated by the address SPDCSQTA are composed of a plurality of display control sequences DCSQ1 to DCSQn as shown in FIG.

また、各表示制御シーケンスDCSQ(1〜n)は、図21に示すように、副映像の表示制御開始時間を示す副映像表示制御タイムスタンプSPDCTSと、次の表示制御シーケンスの位置を示すアドレスSPNDCSQAと、1以上の副映像表示制御コマンドSPDCCMDとを含んでいる。   As shown in FIG. 21, each display control sequence DCSQ (1 to n) includes a sub-picture display control time stamp SPDCTS indicating a sub-picture display control start time and an address SPNDSQSQA indicating the position of the next display control sequence. And one or more sub-picture display control commands SPDCCMD.

副映像データ32は、個々の副映像データパケットと1対1で対応するデータ領域(PXDエリア)の集まりで構成されている。   The sub-picture data 32 is composed of a group of data areas (PXD areas) corresponding one-to-one with individual sub-picture data packets.

ここで、副映像データユニットが切り替わるまでは、同じデータ領域中の任意のアドレスの副映像画素データPXDを読み出せるようになっている。これにより、1つの副映像表示イメージに固定されない、任意の副映像表示(たとえば副映像のスクロール表示)が可能となる。この任意のアドレスは、副映像データ(画素データPXD)の表示開始アドレスを設定するコマンド(図22のコマンドテーブル中のSETDSPXA)により設定される。   Here, until the sub-picture data unit is switched, the sub-picture pixel data PXD at an arbitrary address in the same data area can be read. As a result, an arbitrary sub-video display (for example, scroll display of a sub-video) that is not fixed to one sub-video display image can be performed. This arbitrary address is set by a command (SETDSPXA in the command table of FIG. 22) for setting the display start address of the sub-picture data (pixel data PXD).

図23は、表示制御シーケンステーブル33の具体例を示す。前述したように、表示制御シーケンステーブル33内の1つの表示制御シーケンス情報(DCSQT)には、副映像表示制御タイムスタンプ(SPDCTS)および副映像データ記録位置(SPNDCSQA)の後に、複数の表示制御コマンド(COMMAND3、COMMAND4など)とそのコマンドにより設定される各種パラメータデータが配置されている。そして、表示制御の終了を示す終了コマンド(エンドコード)が最後に付加されている。   FIG. 23 shows a specific example of the display control sequence table 33. As described above, one display control sequence information (DCSQT) in the display control sequence table 33 includes a plurality of display control commands after the sub-video display control time stamp (SPDCTS) and the sub-video data recording position (SPNDSQSQA). (COMMAND3, COMMAND4, etc.) and various parameter data set by the command are arranged. An end command (end code) indicating the end of the display control is added at the end.

次に、表示制御シーケンステーブル33の処理手順を説明する。   Next, a processing procedure of the display control sequence table 33 will be described.

(1)まず、表示制御シーケンステーブル33の最初のDCSQT(図16ではDCSQT0)に記録されているタイムスタンプ(SPDCTS)が、副映像プロセサのサブSTC120b(たとえば図8のタイマ120の一機能)のカウント値と比較される。   (1) First, the time stamp (SPDCTS) recorded in the first DCSQT (DCSQT0 in FIG. 16) of the display control sequence table 33 is the time stamp (SPDCTS) of the sub video processor sub STC 120b (for example, one function of the timer 120 in FIG. 8). It is compared with the count value.

(2)比較の結果、サブSTC120bのカウント値がタイムスタンプSPDCTSよりも大きい場合には、表示制御シーケンステーブル33内の全ての表示制御コマンドCOMMANDが、表示制御終了コマンドCMDEND(図22)が現れるまで実行される。   (2) As a result of the comparison, when the count value of the sub STC 120b is larger than the time stamp SPDCTS, all the display control commands COMMAND in the display control sequence table 33 are processed until the display control end command CMDEND (FIG. 22) appears. Be executed.

(3)表示制御が開始されたあとは、一定時間毎(たとえば垂直ブランキング期間毎)に、次の表示制御シーケンステーブルDCSQTに記録されている副映像表示制御タイムスタンプSPDCTSとサブSTC120bのカウント値とを比較することにより、次のDCSQTに更新するか(つまり図16のDCSQTポインタを次のDCSQTに移すか)どうかが、判定される。   (3) After the display control is started, the sub-video display control time stamp SPDCTS and the count value of the sub STC 120b recorded in the next display control sequence table DCSQT at fixed time intervals (for example, every vertical blanking period). Is compared with the next DCSQT (that is, whether the DCSQT pointer in FIG. 16 is moved to the next DCSQT).

ここで、表示制御シーケンステーブル33内のタイムスタンプSPDCTS
は、PTSが更新されてから(つまり副映像データユニットが更新されてから)の相対時間で記録されているので、副映像データユニットのPTSが変わってもSPDCTSを書き替える必要はない。したがって、同じ副映像データ32を複数の異なる時刻で表示する場合でも全く同じ表示制御シーケンステーブルDCSQTを用いることができる。すなわち、表示制御シーケンステーブルDCSQTをリロケータブルとすることができる。
Here, the time stamp SPDCTS in the display control sequence table 33
Is recorded at a relative time after the PTS is updated (that is, after the sub-picture data unit is updated), so that it is not necessary to rewrite the SPDCTS even if the PTS of the sub-picture data unit changes. Therefore, the same display control sequence table DCSQT can be used even when the same sub-picture data 32 is displayed at a plurality of different times. That is, the display control sequence table DCSQT can be made relocatable.

次に、副映像の表示制御コマンドの詳細について説明する。図22は、副映像表示制御コマンドSPDCCMDの一覧を示す。主な副映像表示制御コマンドとしては、次のようなものがある。   Next, details of the sub-image display control command will be described. FIG. 22 shows a list of sub-picture display control commands SPDCCMD. The main sub-image display control commands are as follows.

(1)副映像画素データの表示開始タイミングをセットするコマンドSTADSP
これは、副映像データ32の表示開始制御を実行するコマンドである。すなわち、あるDCSQTからこのコマンドSTADSPを含むDCSQTに切り替わったときに、副映像データ32の表示が、このコマンドを含むDCSQTのタイムスタンプSPDCTSで示された時刻から開始されることになる。
(1) Command STADSP for setting display start timing of sub-picture pixel data
This is a command for executing the display start control of the sub-picture data 32. That is, when switching from a certain DCSQT to a DCSQT including the command STASPD, the display of the sub-picture data 32 is started from the time indicated by the time stamp SPDCTS of the DCSQT including the command.

副映像プロセサ(たとえば図8のMPU112)は、このコマンドをデコードすると、(このコマンドをアクセスした時点ではこのコマンドが属するDCSQTのSPDCTSで示された時刻はすぎているので)直ちに、副映像プロセサ内部の表示制御系のイネーブルビットを、アクティブ状態にする。   When the sub-picture processor (for example, the MPU 112 in FIG. 8) decodes this command, the sub-picture processor immediately decodes this command (since the time indicated by the DCDCT SPDCTS to which this command belongs has passed at the time of accessing this command). Activate the enable bit of the display control system.

(2)副映像画素データの表示終了タイミングをセットするコマンドSTPDSP
これは、副映像データ32の表示終了制御を実行するためのコマンドである。副映像プロセサは、このコマンドをデコードすると、(このコマンドをアクセスした時点ではこのコマンドが属するDCSQTのSPDCTSで示された時刻はすぎているので)直ちに、副映像プロセサ内部の表示制御系のイネーブルビットを、アクティブ状態にする。
(2) Command STPDSP for setting display end timing of sub-picture pixel data
This is a command for executing the display end control of the sub-picture data 32. When the sub-picture processor decodes this command, it immediately transmits the enable bit of the display control system inside the sub-picture processor (since the time indicated by SPDCTS of the DCSQT to which this command belongs has passed at the time of accessing this command). To the active state.

(3)副映像画素データのカラーコードをセットするコマンドSETCOLOR
これは、副映像画素データの色コードを設定するためのコマンドである。このコマンドによって、副映像は、文字あるいは模様などのパターン画素と、パターン画素のふちどり等の強調画素と、副映像が表示される範囲領域でパターン画素および強調画素以外の領域の画素である背景画素とに分けて、色情報を設定することができる。
(3) Command SETCOLOR for setting color code of sub-picture pixel data
This is a command for setting the color code of the sub-picture pixel data. By this command, the sub-picture is composed of a pattern pixel such as a character or a pattern, an emphasized pixel such as a trimming of the pattern pixel, and a background pixel which is a pixel in a region other than the pattern pixel and the emphasized pixel in a region where the sub-image is displayed. And color information can be set.

(4)主映像に対する副映像画素データのコントラストをセットするコマンドSETCONTR
これは、コマンドSETCOLORと同様、図40で例示した4種類の画素に対して色コードデータの代わりにコントラストデータを設定するためのコマンドである。
(4) Command SETCONTR for setting contrast of sub-picture pixel data with respect to main picture
This is a command for setting contrast data instead of color code data for the four types of pixels illustrated in FIG. 40, similarly to the command SETCOLOR.

(5)主映像上における副映像画素データの表示エリアをセットするコマンドSETDAREA
これは、副映像画素データ32を表示する位置を指定するためのコマンドである。
(5) Command SETDAREA for setting display area of sub-picture pixel data on main picture
This is a command for specifying a position at which the sub-picture pixel data 32 is displayed.

(6)副映像画素データの表示開始アドレスをセットするコマンドSETDSPXA
これは、副映像画素データ32の表示開始アドレスを設定するためのコマンドである。
(6) Command SETDSPXA for setting the display start address of sub-picture pixel data
This is a command for setting the display start address of the sub-picture pixel data 32.

(7)副映像画素データのカラーコードおよび主映像に対する副映像画素データのコントラストの切換をセットするコマンドCHGCOLCON
これは、副映像画素データ32の色コードおよび主映像に対する副映像画素データ32のコントラストを表示中に変更するためのコマンドである。
(7) Command CHGCOLCON to set switching of color code of sub-picture pixel data and contrast of sub-picture pixel data with respect to main picture
This is a command for changing the color code of the sub-picture pixel data 32 and the contrast of the sub-picture pixel data 32 with respect to the main picture during display.

なお、図22のコマンドテーブルは、上述したコマンドの他に、副映像画素データの表示開始タイミングを強制的にセットするコマンドFSTADSPと、および副映像の表示制御を終了するコマンドCMDENDを含んでいる。   The command table in FIG. 22 includes, in addition to the above-described commands, a command FSTADSP for forcibly setting the display start timing of the sub-picture pixel data, and a command CMDEND for ending the display control of the sub-picture.

図24は、図3に示すような副映像ユニット30を生成する方法の一例を説明するフローチャートである。   FIG. 24 is a flowchart illustrating an example of a method of generating the sub-picture unit 30 as illustrated in FIG.

副映像として、たとえばビデオ(主映像)の台詞に対応した字幕および/またはイメージが使用される場合、この台詞字幕/イメージがビットマップデータ化される(ステップST10)。このビットマップデータを作成するときには、字幕部分をビデオの画面のどの位置のどの領域に表示するかを、決定しなければならない。そのために、表示制御コマンドSETDAREA(図22参照)のパラメータが決定される(ステップST12)。   When, for example, subtitles and / or images corresponding to dialogue of a video (main video) are used as sub-images, the dialogue subtitles / images are converted into bitmap data (step ST10). When creating this bitmap data, it is necessary to determine in which position and in which region on the video screen the subtitle portion is to be displayed. Therefore, the parameters of the display control command SETDAREA (see FIG. 22) are determined (step ST12).

副映像の表示位置(空間的パラメータ)が決定されると、副映像を構成する画素データPXDのエンコードに移る(主映像全体をエンコードするわけではない)。その際、字幕(副映像)の色、字幕領域の背景色、字幕色・背景色のビデオ主映像に対する混合比が決定される。そのために、表示制御コマンドSETCOLORおよびSETCONTR(図22参照)のパラメータが決定される(ステップST14)。   When the display position (spatial parameter) of the sub-picture is determined, the process proceeds to encoding of the pixel data PXD constituting the sub-picture (the whole main picture is not encoded). At this time, the color of the caption (sub-picture), the background color of the caption area, and the mixture ratio of the caption color / background color to the video main picture are determined. Therefore, the parameters of the display control commands SETCOLOR and SETCONTR (see FIG. 22) are determined (step ST14).

次に、作成したビットマップデータをビデオの台詞に合わせて表示すべきタイミングが決定される。このタイミング決定は副映像タイムスタンプPTSにより行なわれる。その際、タイムスタンプPTSの最大限度時刻と、表示制御コマンドSTADSP、STPDSPおよびCHGCOLCON(図22参照)の各パラメータ(時間的パラメータ)が決定される(ステップST16)。   Next, the timing at which the created bitmap data is to be displayed in accordance with the speech of the video is determined. This timing is determined by the sub-picture time stamp PTS. At this time, the maximum time of the time stamp PTS and each parameter (temporal parameter) of the display control commands STADSP, STPDSP and CHGCOLCON (see FIG. 22) are determined (step ST16).

ここで、副映像タイムスタンプPTSは、MPEG2システムレイヤのターゲットデコーダバッファの消費モデルから、最終的に決定される。ここでは、字幕の表示を開始する時刻が、副映像タイムスタンプPTSの最大限度時刻として決められる。   Here, the sub-picture time stamp PTS is finally determined from the consumption model of the target decoder buffer of the MPEG2 system layer. Here, the time at which the display of subtitles is started is determined as the maximum time of the sub-picture time stamp PTS.

表示制御コマンドSTADSPおよびSTPDSPは、副映像タイムスタンプPTSからの相対時刻として記録される。そのため、PTSが決まるまではコマンドSTADSPおよびSTPDSPを決定することはできない。そこで、この実施形態では、絶対時刻を決めておき、PTSの絶対時間が決まってから、その相対値を決定するようにしている。   The display control commands STADSP and STPDSP are recorded as relative times from the sub-picture time stamp PTS. Therefore, the commands STADSP and STPDSP cannot be determined until the PTS is determined. Thus, in this embodiment, the absolute time is determined, and the relative value is determined after the absolute time of the PTS is determined.

また、作成した字幕に対して、空間的・時間的に表示色や表示領域を変化させたい場合には、その変化に基づいたコマンドCHGCOLCONのパラメータが決定される。   When it is desired to change the display color or display area spatially and temporally with respect to the created caption, the parameters of the command CHGCOLCON are determined based on the change.

副映像の表示位置(空間的パラメータ)および表示タイミング(時間的パラメータ)が(仮に)決定されると、副映像表示制御シーケンステーブルDCSQTの内容(DCSQ)が作成される(ステップST18)。具体的には、表示制御シーケンステーブルDCSQの表示制御開始時間SPDCTS(図21参照)の値は、表示制御コマンドSTADSP(表示開始タイミング)の発効時刻および表示制御コマンドSTPDSP(表示終了タイミング)の発効時刻に準拠して、決定される。   When the display position (spatial parameter) and the display timing (temporal parameter) of the sub-picture are (tentatively) determined, the contents (DCSQ) of the sub-picture display control sequence table DCSQT are created (step ST18). Specifically, the value of the display control start time SPDCTS (see FIG. 21) of the display control sequence table DCSQ is determined by the effective time of the display control command STADSP (display start timing) and the effective time of the display control command STPDSP (display end timing). Determined in accordance with

作成された画素データPXD32および表示制御シーケンステーブルDCSQT33を合わせると、副映像データユニット30(図3参照)のサイズを決定することができる。そこで、そのサイズを元に副映像ユニットヘッダSPUH31のパラメータSPDSZ(副映像サイズ;図19参照)およびSPDCSQTA(表示制御シーケンステーブルの開始アドレス;図19参照)を決めて、副映像ユニットヘッダSPUH31を作成する。その後、SPUH31とPXD32とDCSQT33とを結合することにより、1つの字幕に対する副映像ユニットが作成される(ステップST20)。   By combining the created pixel data PXD32 and the display control sequence table DCSQT33, it is possible to determine the size of the sub-picture data unit 30 (see FIG. 3). Therefore, the sub-picture unit header SPUH31 is created by determining the parameters SPDSZ (sub-picture size; see FIG. 19) and SPDCSQTA (start address of the display control sequence table; see FIG. 19) of the sub-picture unit header SPUH31 based on the size. I do. Thereafter, by combining SPUH31, PXD32, and DCSQT33, a sub-picture unit for one subtitle is created (step ST20).

作成された副映像ユニット30のサイズが所定値(2048バイトあるいは2kバイト)を超える場合は(ステップST22イエス)、2kバイト単位で複数パケットに分割される(ステップST24)。この場合、タイムスタンプPTSは、副映像ユニット30の先頭になるパケットにのみ記録される(ステップST26)。   If the size of the created sub-picture unit 30 exceeds a predetermined value (2048 bytes or 2 kbytes) (YES in step ST22), it is divided into a plurality of packets in units of 2k bytes (step ST24). In this case, the time stamp PTS is recorded only in the packet at the head of the sub-picture unit 30 (step ST26).

作成された副映像ユニット30のサイズが所定値(2kバイト)以内である場合は(ステップST22ノー)、1つだけパケットが生成され(ステップST23)、タイムスタンプPTSはそのパケットの頭に記録される(ステップST26)。   If the size of the created sub-picture unit 30 is within a predetermined value (2 kbytes) (No in step ST22), only one packet is generated (step ST23), and the time stamp PTS is recorded at the beginning of the packet. (Step ST26).

こうして出来上がった1以上のパケットはパック化され、ビデオその他のパックと合わされて、1本のデータストリームが出来上がる(ステップST28)。このとき、各パックのならび順は、MPEG2システムレイヤのターゲットデコーダバッファの消費モデルから、そのシーケンス記録コードSRCと副映像タイムスタンプPTSとを基に決定される。ここで初めてPTSが確定し、これにより図21の各パラメータ(SPDCTS等)が最終的に決定されることになる。   One or more packets thus completed are packed and combined with video and other packs to form one data stream (step ST28). At this time, the order of the packs is determined based on the sequence recording code SRC and the sub-picture time stamp PTS from the consumption model of the target decoder buffer of the MPEG2 system layer. Here, the PTS is determined for the first time, whereby the parameters (SPDCTS and the like) in FIG. 21 are finally determined.

図25は、図24の処理手順にしたがって生成された副映像データストリームのパック分解およびデコードを並列処理する手順の一例を説明するフローチャートである。   FIG. 25 is a flowchart illustrating an example of a procedure for performing parallel processing of pack decomposition and decoding of the sub-picture data stream generated according to the processing procedure of FIG.

まず、デコードシステムは、転送されてくるストリームのIDを読み取って、選択された副映像パック(データストリームから分離されたもの)だけを副映像デコーダ(たとえば図8の副映像デコーダ101)に転送する(ステップST40)。   First, the decoding system reads the ID of the transferred stream and transfers only the selected sub-picture pack (separated from the data stream) to the sub-picture decoder (for example, the sub-picture decoder 101 in FIG. 8). (Step ST40).

最初のパック転送が行われると、インデックスパラメータ”i”が「1」にセットされ(ステップST42)、1番目の副映像パックの分解処理(ステップST44;図26を参照して後述する)が実行される。   When the first pack transfer is performed, the index parameter "i" is set to "1" (step ST42), and the first sub-picture pack is decomposed (step ST44; described later with reference to FIG. 26). Is done.

分解されたパック(図6下部に示すような圧縮された副映像データPXDを含む)は、副映像バッファ(図8ではメモリ108)に一時格納され(ステップST46)、インデックスパラメータ”i”が1つインクリメントされる(ステップST50)。   The decomposed pack (including the compressed sub-picture data PXD as shown in the lower part of FIG. 6) is temporarily stored in the sub-picture buffer (the memory 108 in FIG. 8) (step ST46), and the index parameter “i” is set to 1 Is incremented by one (step ST50).

インクリメントされたi番目のパックが存在すれば、すなわちステップST44で分解処理したパックが最終パックでなければ(ステップST52ノー)、インクリメントされたi番目の副映像パックに対する分解処理(ステップST44)が実行される。   If the incremented i-th pack exists, that is, if the pack decomposed in step ST44 is not the final pack (No in step ST52), the decomposing process (step ST44) for the incremented i-th sub-picture pack is executed. Is done.

分解されたi番目の副映像パック(ここでは2番目のパック)は、1番目に分解されたパックと同様に副映像バッファ(メモリ108)に一時格納され(ステップST46)、インデックスパラメータ”i”がさらに1つインクリメントされる(ステップST50)。   The decomposed i-th sub-picture pack (here, the second pack) is temporarily stored in the sub-picture buffer (memory 108) in the same manner as the first decomposed pack (step ST46), and the index parameter "i" Is further incremented by one (step ST50).

以上のようにして、インデックスパラメータ”i”をインクリメントしながら複数の副映像パックが連続的に分解され(ステップST44)、副映像バッファ(メモリ108)に格納される(ステップST46)。   As described above, a plurality of sub-picture packs are successively decomposed while incrementing the index parameter "i" (step ST44) and stored in the sub-picture buffer (memory 108) (step ST46).

連続してインクリメントされたi番目のパックが存在しなくなれば、すなわちステップST44で分解処理したパックが最終パックであれば(ステップST52イエス)、デコードしようとするストリームの副映像パック分解処理が終了する。   If the continuously incremented i-th pack does not exist, that is, if the pack decomposed in step ST44 is the last pack (step ST52: YES), the sub-picture pack decomposing process of the stream to be decoded ends. .

上記副映像パック分解処理(ステップST44〜ST52)が連続的に実行されている最中に、この副映像パック分解処理と独立・並行して、副映像バッファ(メモリ108)に一時格納された副映像パックのデコード処理が行われる。   While the sub-picture pack disassembly processing (steps ST44 to ST52) is continuously performed, the sub-picture pack temporarily stored in the sub-picture buffer (memory 108) is executed independently and in parallel with the sub-picture pack disassembly processing. The video pack is decoded.

すなわち、インデックスパラメータ”j”が「1」にセットされると(ステップST60)、1番目の副映像パックを副映像バッファ(メモリ108)から読み出す動作に入る(ステップST62)。この時点で、まだメモリ108に1番目の副映像パックが格納されていないならば(ステップST63ノー;ステップST46の処理がまだ行われていないとき)、読出対象のパックデータがメモリ108に格納されるまで、デコード処理は、パック読出動作の空ループ(ステップST62〜ST63)を実行している。   That is, when the index parameter "j" is set to "1" (step ST60), an operation of reading the first sub-picture pack from the sub-picture buffer (memory 108) is started (step ST62). At this point, if the first sub-picture pack has not yet been stored in the memory 108 (No in step ST63; when the processing in step ST46 has not been performed), the pack data to be read is stored in the memory 108. Until the decoding process, the empty loop of the pack read operation (steps ST62 to ST63) is executed.

メモリ108に1番目の副映像パックが格納されておれば(ステップST63イエス)、その副映像パックが読み出され、デコード処理される(ステップST64;デコード処理の具体例は図24〜図27を参照して後述する)。   If the first sub-picture pack is stored in the memory 108 (Yes in step ST63), the sub-picture pack is read and decoded (step ST64; see FIGS. 24 to 27 for a specific example of the decoding process). See below).

このデコード処理の結果(たとえば図6上部に示すような圧縮前の副映像データPXDを含む)は、デコード処理中に図8の副映像デコーダ101から表示系(図示せず)へ送られ、デコードデータに対応する副映像の表示がなされる。   The result of this decoding process (including, for example, uncompressed sub-picture data PXD as shown in the upper part of FIG. 6) is sent from the sub-picture decoder 101 of FIG. 8 to a display system (not shown) during the decoding process, and is decoded. A sub-picture corresponding to the data is displayed.

上記デコード処理において表示制御終了コマンド(図22のCMDEND)が実行されていなければ(ステップST66ノー)、インデックスパラメータ”j”が1つインクリメントされる(ステップST67)。   If the display control end command (CMDEND in FIG. 22) has not been executed in the decoding process (No in step ST66), the index parameter “j” is incremented by one (step ST67).

インクリメントされたj番目のパック(ここでは2番目)がメモリ108に存在すれば、そのパックがメモリ108から読み出され、デコードされる(ステップST64)。デコードされたj番目の副映像パック(ここでは2番目のパック)は、1番目にデコードされたパックと同様に表示系に送られ、インデックスパラメータ”j”がさらに1つインクリメントされる(ステップST67)。   If the incremented j-th pack (here, the second pack) exists in the memory 108, the pack is read from the memory 108 and decoded (step ST64). The decoded j-th sub-picture pack (here, the second pack) is sent to the display system in the same manner as the first decoded pack, and the index parameter “j” is further incremented by one (step ST67). ).

以上のようにして、インデックスパラメータ”j”をインクリメントしながら(ステップST67)、メモリ108に格納されている1以上の副映像パックが連続的にデコードされ(ステップST64)、デコードされた副映像データ(PXD)に対応する副映像の画像表示が実行される。   As described above, while incrementing the index parameter "j" (step ST67), one or more sub-picture packs stored in the memory 108 are continuously decoded (step ST64), and the decoded sub-picture data is decoded. The image display of the sub-video corresponding to (PXD) is executed.

上記デコード処理において表示制御終了コマンド(図22のCMDEND)が実行されれば(ステップST66イエス)、副映像バッファ(メモリ108)内の副映像データのデコード処理が終了する。   If a display control end command (CMDEND in FIG. 22) is executed in the decoding process (YES in step ST66), the decoding process of the sub-picture data in the sub-picture buffer (memory 108) ends.

以上のデコード処理(ステップST62〜ST64)は、終了コマンドCMDENDが実行されない限り(ステップST66ノー)反復される。この実施の形態では、デコード処理は、終了コマンドCMDENDの実行(ステップST66イエス)をもって終了するようになっている。   The above decoding process (steps ST62 to ST64) is repeated unless the end command CMDEND is executed (No in step ST66). In this embodiment, the decoding process ends when the end command CMDEND is executed (Yes in step ST66).

図26は、図25のパック分解処理の一例を説明するフローチャートである。副映像デコーダ101は、転送されてくるパックからパックヘッダ(図3参照)を読み飛ばして、パケットを得る(ステップST72)。このパケットにタイムスタンプPTSがないときは(ステップST74ノー)、パケットヘッダ(PH)を削除して、副映像ユニットデータ(PXD)だけを、副映像デコーダのバッファ(たとえば121)に格納する(ステップST76)。   FIG. 26 is a flowchart illustrating an example of the pack disassembly process of FIG. The sub-picture decoder 101 skips the pack header (see FIG. 3) from the transferred pack to obtain a packet (step ST72). If the packet does not have a time stamp PTS (No in step ST74), the packet header (PH) is deleted, and only the sub-picture unit data (PXD) is stored in the buffer (eg, 121) of the sub-picture decoder (step ST74). ST76).

上記パケットにタイムスタンプPTSがあるときは(ステップST74イエス)、パケットヘッダ(PH)からPTSだけが抜き取られ、抜き取られたPTSが副映像ユニットデータ(30)に接続されて、副映像デコーダ101のバッファ121に格納される(ステップST78)。   When the packet has a time stamp PTS (Yes in step ST74), only the PTS is extracted from the packet header (PH), and the extracted PTS is connected to the sub-picture unit data (30). The data is stored in the buffer 121 (step ST78).

図27、図28は、図25の副映像デコード処理の一例を説明するフローチャートである。このデコード処理のうち、たとえば図6の下部に示す圧縮データPXDを図6の上部に示す非圧縮データPXDに戻す処理については、図10、図11その他を参照して説明済みである。   FIGS. 27 and 28 are flowcharts illustrating an example of the sub-picture decoding process of FIG. Among the decoding processes, for example, the process of returning the compressed data PXD shown in the lower part of FIG. 6 to the non-compressed data PXD shown in the upper part of FIG. 6 has been described with reference to FIGS.

すなわち、所定の再生時刻に対応するつまり同じ時刻のSCRが付与されている副映像情報のパック内の副映像パケットが1副映像ユニット分、副映像デコーダ101に順次転送され、そのSCRに応じて副映像デコーダ101は、メインSTC120aの計数が所定時間後に零となる値から開始し、副映像データユニットの先頭パケットに付加されているPTSが転送されているか否かを調べる (ステップST80)。この結果、副映像デコーダ101は、そのPTSが転送されている場合、そのPTSとメインSTC120aのカウント値とが比較され(ステップST81)、そのPTSが転送されていない場合、転送されるまで待機している。   That is, sub-picture packets in a pack of sub-picture information corresponding to a predetermined reproduction time, that is, to which the SCR of the same time is added, are sequentially transferred to the sub-picture decoder 101 for one sub-picture unit, and according to the SCR. The sub-picture decoder 101 starts from a value at which the count of the main STC 120a becomes zero after a predetermined time, and checks whether or not the PTS added to the head packet of the sub-picture data unit has been transferred (step ST80). As a result, if the PTS has been transferred, the sub-picture decoder 101 compares the PTS with the count value of the main STC 120a (step ST81), and if the PTS has not been transferred, stands by until the PTS is transferred. ing.

この比較の結果、副映像デコーダ101は、メインSTC120aのカウント値がPTSよりも大きい場合、次の副映像データユニットの先頭パケットに付加されているPTSが転送されているか否かを調べ(ステップST82)、メインSTC120aのカウント値がPTSよりも小さい場合、同じになるまで待機している。   As a result of this comparison, when the count value of main STC 120a is larger than the PTS, sub-picture decoder 101 checks whether or not the PTS added to the first packet of the next sub-picture data unit has been transferred (step ST82). If the count value of the main STC 120a is smaller than the PTS, the main STC 120a waits until it becomes the same.

この結果、次の副映像データユニットの先頭パケットに付加されているPTSが転送されている場合、副映像デコーダ101は、そのPTSとメインSTC120aのカウント値とが比較される(ステップST83)。   As a result, if the PTS added to the first packet of the next sub-picture data unit has been transferred, the sub-picture decoder 101 compares the PTS with the count value of the main STC 120a (step ST83).

ステップ82で次の副映像データユニットのPTSが転送されていない場合、あるいはステップ83でメインSTC120aのカウント値が次の副映像データユニットのPTSよりも小さい場合、副映像デコーダ101は、デコードする副映像データユニットを現在のものに決定し(ステップST84)、ステップ86へ進む。   If the PTS of the next sub-picture data unit is not transferred in step 82, or if the count value of the main STC 120a is smaller than the PTS of the next sub-picture data unit in step 83, the sub-picture decoder 101 The video data unit is determined to be the current one (step ST84), and the process proceeds to step 86.

すなわち、最初の副映像データユニットのPTSは「0」のため、メインSTC120aのカウント値が「0」となった際に、デコードする副映像データユニットを決定し、ステップ86へ進む。   That is, since the PTS of the first sub-picture data unit is "0", when the count value of the main STC 120a becomes "0", the sub-picture data unit to be decoded is determined, and the routine proceeds to step 86.

ステップ83でメインSTC120aのカウント値が次の副映像データユニットのPTSよりも大きい場合、副映像デコーダ101は、デコードする副映像データユニットを次のものに決定し(ステップST85)、ステップ86へ進む。   If the count value of the main STC 120a is larger than the PTS of the next sub-picture data unit in step 83, the sub-picture decoder 101 determines the next sub-picture data unit to be decoded (step ST85), and proceeds to step 86. .

次に、副映像デコーダ101は、表示制御シーケンステーブル33の最初のDCSQT(図16ではDCSQT0)に記録されているタイムスタンプSPDCTS(「0」)が転送されているか否かを調べる(ステップST86)。このタイムスタンプSPDCTSが転送されている場合、副映像デコーダ101は、このタイムスタンプSPDCTSとサブSTC120bのカウント値とが比較され(ステップST87)、転送されていない場合、ステップ81に戻る。   Next, the sub-picture decoder 101 checks whether or not the time stamp SPDCTS (“0”) recorded in the first DCSQT (DCSQT0 in FIG. 16) of the display control sequence table 33 has been transferred (step ST86). . If the time stamp SPDCTS has been transferred, the sub-picture decoder 101 compares the time stamp SPDCTS with the count value of the sub STC 120b (step ST87). If not transferred, the process returns to step 81.

そして、ステップ87の比較の結果、サブSTC120bのカウント値がタイムスタンプSPDCTSよりも大きい場合、副映像デコーダ101は、次の表示制御シーケンスDCSQのタイムスタンプSPDCTSが転送されているか否かを調べる(ステップST88)。この結果、そのタイムスタンプSPDCTSが転送されている場合、副映像デコーダ101は、そのタイムスタンプSPDCTSとサブSTC120bのカウント値とが比較される(ステップST89)。   Then, as a result of the comparison in step 87, if the count value of the sub STC 120b is larger than the time stamp SPDCTS, the sub-picture decoder 101 checks whether or not the time stamp SPDCTS of the next display control sequence DCSQ has been transferred (step S87). ST88). As a result, when the time stamp SPDCTS is transferred, the sub-video decoder 101 compares the time stamp SPDCTS with the count value of the sub STC 120b (step ST89).

ステップ88で次の表示制御シーケンスDCSQのタイムスタンプSPDCTSが転送されていない場合、あるいはステップ89でサブSTC120bのカウント値が次の表示制御シーケンスDCSQのタイムスタンプSPDCTSよりも小さい場合、副映像デコーダ101は、デコードする表示制御シーケンスDCSQを現在のものに決定し(ステップST90)、ステップ92へ進む。   If the time stamp SPDCTS of the next display control sequence DCSQ is not transferred in step 88, or if the count value of the sub STC 120b is smaller than the time stamp SPDCTS of the next display control sequence DCSQ in step 89, the sub-picture decoder 101 , The display control sequence DCSQ to be decoded is determined to be the current one (step ST90), and the process proceeds to step 92.

ステップ89でサブSTC120bのカウント値が次の表示制御シーケンスDCSQのタイムスタンプSPDCTSよりも大きい場合、副映像デコーダ101は、デコードする表示制御シーケンスDCSQを次のものに決定し(ステップST91)、ステップ92へ進む。   If the count value of the sub STC 120b is larger than the time stamp SPDCTS of the next display control sequence DCSQ in step 89, the sub-picture decoder 101 determines the next display control sequence DCSQ to be decoded (step ST91), and step 92. Proceed to.

次に、副映像デコーダ101は、デコードする表示制御シーケンスDCSQに対応する画素データのデコードをその各コマンドを用いて開始する(ステップST92)。   Next, the sub-video decoder 101 starts decoding the pixel data corresponding to the display control sequence DCSQ to be decoded by using the respective commands (step ST92).

たとえば、コマンドSETDAREAにより副映像の表示位置および表示領域が設定され、コマンドSETCOLORにより副映像の表示色が設定され、コマンドSETCONTRによりビデオ主映像に対する副映像のコントラストが設定される。   For example, the display position and display area of the sub-picture are set by the command SETDAREA, the display color of the sub-picture is set by the command SETCOLOR, and the contrast of the sub-picture with respect to the video main picture is set by the command SETCONTR.

そして、表示開始タイミングコマンドSTADSPを実行してから別の表示制御シーケンスDCSQで表示終了タイミングコマンドSTPDSPが実行されるまで、切換コマンドCHGCOLCONに準拠した表示制御を行いつつ、ランレングス圧縮されている画素データPXD(32)のデコードが行われる。   Then, from the execution of the display start timing command STADSP until the execution of the display end timing command STPDSP in another display control sequence DCSQ, the display control in accordance with the switching command CHGCOLCON is performed, and the run-length compressed pixel data is executed. PXD (32) is decoded.

また、副映像デコーダ101は、表示制御シーケンスDCSQに対応する全ての表示制御コマンドCOMMANDが表示制御終了コマンドCMDENDまですべて転送されているか否かを調べる(ステップST93)。   Further, the sub-video decoder 101 checks whether or not all the display control commands COMMAND corresponding to the display control sequence DCSQ have been transferred up to the display control end command CMDEND (step ST93).

この結果、副映像デコーダ101は、転送されていない場合、サブSTC120bのカウント値をクリアし、ステップ81に戻り、再び、最初の表示制御シーケンスDCSQに対するデコードが行われ、転送されている場合、ステップ94に進む。   As a result, if not transferred, the sub-picture decoder 101 clears the count value of the sub STC 120b, returns to step 81, decodes the first display control sequence DCSQ again, and if transferred, returns to step 81. Go to 94.

このステップ94において、副映像デコーダ101は、次の表示制御シーケンスDCSQがあるか否かを調べ、次の表示制御シーケンスDCSQがある場合、ステップ88に戻り、次の表示制御シーケンスDCSQに対するデコードが行われ、次の表示制御シーケンスDCSQがない場合、ステップ82に戻り、次の副映像データユニットに対する処理が行われる。   In this step 94, the sub-picture decoder 101 checks whether or not there is the next display control sequence DCSQ, and if there is the next display control sequence DCSQ, the process returns to step 88 to decode the next display control sequence DCSQ. If there is no next display control sequence DCSQ, the process returns to step 82 and the process for the next sub-picture data unit is performed.

上記したように、メインタイマの初期値が画素データの転送時間を考慮して所定時間後に「0」となる値となっているため、再生を行う最初の副映像データユニットにおけるプレゼンテーションタイムスタンプPTSを画素データの転送時間を考慮せずに零を記述することができる。   As described above, the initial value of the main timer becomes “0” after a predetermined time in consideration of the transfer time of the pixel data. Zero can be described without considering the transfer time of the pixel data.

また、メインタイマが最初に零に変化するまで副映像の表示が禁止されているため、メインタイマの負の値と正の値の区別をする機能を省くことができる。   Further, since the display of the sub-picture is prohibited until the main timer first changes to zero, the function of distinguishing between the negative value and the positive value of the main timer can be omitted.

さらに、所望の表示制御シーケンスDCSQに対する処理の途中で、デコード処理が中断してしまった場合に、再び最初の表示制御シーケンスDCSQ0からデコード処理を行うことにより、デコード処理が中断することによる表示抜け等の表示崩れが発生するのを防ぐことができる。   Further, if the decoding process is interrupted in the middle of the process for the desired display control sequence DCSQ, the decoding process is performed again from the first display control sequence DCSQ0, thereby causing a display omission due to the interruption of the decoding process. Display collapse can be prevented.

また、上記例では、メインタイマの初期値を画素データの転送時間を考慮して所定時間後に「0」となる値としたが、これに限らず、サブタイマの初期値を画素データの転送時間を考慮して所定時間後に「0」となる値とするようにしても良い。この場合も上記同様な効果が達成できる。   In the above example, the initial value of the main timer is set to “0” after a predetermined time in consideration of the transfer time of the pixel data. However, the present invention is not limited to this. Considering this, the value may become “0” after a predetermined time. In this case, the same effect as above can be achieved.

この発明を適用できる情報保持媒体の一例としての光ディスクの記録データ構造を略示する図。FIG. 1 is a diagram schematically showing a recording data structure of an optical disk as an example of an information storage medium to which the present invention can be applied. 図1の光ディスクに記録されるデータの論理構造を例示する図。FIG. 2 is a view exemplifying a logical structure of data recorded on the optical disc of FIG. 1. 図2で例示したデータ構造のうち、エンコード(ランレングス圧縮、表示制御シーケンステーブルの付加など)される副映像パックの論理構造を例示する図。FIG. 3 is a diagram illustrating a logical structure of a sub-picture pack to be encoded (run-length compression, addition of a display control sequence table, and the like) in the data structure illustrated in FIG. 2. 図3で例示した副映像パックのうち、この発明の一実施の形態に係るエンコード方法が適用される副映像データ部分の内容を例示する図。FIG. 4 is a diagram exemplifying the contents of a sub-picture data portion of the sub-picture pack illustrated in FIG. 3 to which the encoding method according to the embodiment of the present invention is applied; 図4で例示した副映像データ部分を構成する画素データが複数ビット(ここでは2ビット)で構成される場合において、この発明の一実施の形態に係るエンコード方法で採用される圧縮規則1〜6を説明する図。In the case where the pixel data constituting the sub-picture data portion illustrated in FIG. 4 is composed of a plurality of bits (here, 2 bits), compression rules 1 to 6 employed in the encoding method according to the embodiment of the present invention. FIG. 図4で例示した副映像データ部分を構成する画素データが2ビットで構成される場合において、この発明の一実施の形態に係るエンコード方法で採用される圧縮規則1〜6を具体的に説明する図。In the case where the pixel data constituting the sub-picture data portion illustrated in FIG. 4 is composed of 2 bits, the compression rules 1 to 6 employed in the encoding method according to one embodiment of the present invention will be specifically described. FIG. エンコードされた画像情報を持つ高密度光ディスクの、量産からユーザサイドにおける再生までの流れを説明するとともに;エンコードされた画像情報の、放送/ケーブル配信からユーザ/加入者における受信/再生までの流れを説明するブロック図。The flow from mass production to reproduction on the user side of a high-density optical disk having encoded image information will be described; and the flow of encoded image information from broadcast / cable distribution to reception / reproduction by a user / subscriber will be described. FIG. この発明に基づく画像デコード(ランレングス伸張など)を実行するデコーダハードウエアの一実施形態(ノンインターレース仕様)を説明するブロック図。FIG. 2 is a block diagram illustrating an embodiment (non-interlaced specification) of decoder hardware that executes image decoding (such as run-length expansion) based on the present invention. エンコードされた画素データ(副映像データ)のうち、文字パターン「A」がどのようにデコードされるかを、2例(ノンインターレース表示およびインターレース表示)説明する図。FIG. 7 is a view for explaining two examples (non-interlaced display and interlaced display) of how a character pattern “A” is decoded among encoded pixel data (sub-picture data). この発明の一実施の形態に係る画像デコード(ランレングス伸張部分)を実行するものであって、たとえば図8のMPU(112)により実行されるソフトウエアを説明するフローチャート図。FIG. 9 is a flowchart for explaining software executed by the MPU (112) in FIG. 8 for performing image decoding (run-length decompression) according to the embodiment of the present invention. 図10のソフトウエアで使用されるデコードステップ(ST105)の内容の一例を説明するフローチャート図。FIG. 11 is a flowchart illustrating an example of the contents of a decoding step (ST105) used in the software of FIG. 10. エンコードされた画像情報を持つ高密度光ディスクから再生された圧縮データがそのまま放送またはケーブル配信され、放送またはケーブル配信された圧縮データがユーザまたは加入者側でデコードされる場合を説明するブロック図。FIG. 4 is a block diagram illustrating a case where compressed data reproduced from a high-density optical disk having encoded image information is broadcast or distributed as it is, and the broadcast or cable distributed compressed data is decoded by a user or a subscriber. エンコードされた画像情報が、通信ネットワーク(インターネットなど)を介して、任意の2コンピュータユーザ間で送受される場合を説明するブロック図。FIG. 11 is a block diagram illustrating a case where encoded image information is transmitted and received between any two computer users via a communication network (such as the Internet). エンコードおよびデコードが実行される光ディスク記録再生装置の概要を説明するブロック図。FIG. 2 is a block diagram illustrating an outline of an optical disc recording / reproducing apparatus on which encoding and decoding are performed. この発明により副映像データをデコードする場合において、副映像データユニットのバッファリング状態が、タイムスタンプ(PTS)のある副映像チャネルによってどのように変化するかを説明する図。FIG. 7 is a diagram illustrating how the buffering state of a sub-picture data unit changes depending on a sub-picture channel having a time stamp (PTS) when decoding sub-picture data according to the present invention. 副映像パケットのデータ構造を説明する図。FIG. 4 is a view for explaining the data structure of a sub-picture packet. 副映像データユニット内のタイムスタンプ(PTS)の位置を説明する図。FIG. 4 is a diagram for explaining the position of a time stamp (PTS) in a sub-picture data unit. 直列に並んだ副映像ユニットと、そのうちの1ユニットのパケットヘッダに記述されたタイムスタンプ(PTS)および表示制御シーケンス(DCSQ)との対応関係を例示する図。The figure which illustrates the correspondence relationship with the time stamp (PTS) and display control sequence (DCSQ) described in the packet header of one of the sub-video units arranged in series. 図3または図4の副映像ユニットヘッダ(SPUH)に含まれるパラメータのうち、副映像サイズおよび表示制御シーケンステーブルの開始アドレス(DCSQの相対アドレスポインタ)を説明する図。FIG. 5 is a view for explaining a sub-picture size and a start address (a relative address pointer of DCSQ) of a display control sequence table among parameters included in a sub-picture unit header (SPUH) of FIG. 3 or FIG. 4. 副映像表示制御シーケンステーブル(SPDCSQT)の構成を説明する図。The figure explaining the structure of a sub-picture display control sequence table (SPDCSQT). 図20のテーブル(SPDCSQT)を構成する各パラメータ(DCSQ)の中身を説明する図。The figure explaining the content of each parameter (DCSQ) which comprises the table (SPDCSQT) of FIG. 副映像の表示制御コマンド(SPDCCMD)の内容を説明する図。The figure explaining the content of the display control command (SPDCCMD) of a sub-picture. 図16に示すパケット内の表示制御シーケンステーブルの具体例を示す図。FIG. 17 is a view showing a specific example of a display control sequence table in the packet shown in FIG. 16. 表示制御シーケンス(DCSQ)の処理を中心にした、この発明の副映像エンコード処理手順の一例を説明するフローチャート図。FIG. 9 is a flowchart illustrating an example of a sub-picture encoding processing procedure of the present invention, centering on processing of a display control sequence (DCSQ). 図24の処理手順でエンコードされた副映像データストリームのパック分解およびデコードを並列処理する手順の一例を説明するフローチャート図。FIG. 25 is a flowchart illustrating an example of a procedure for performing parallel processing of pack decomposition and decoding of the sub-picture data stream encoded by the processing procedure of FIG. 24. 図25のパック分解処理の一例を説明するフローチャート図。FIG. 26 is a flowchart illustrating an example of the pack disassembly process of FIG. 25. 図25の副映像デコード処理の一例を説明するフローチャート図。FIG. 26 is a flowchart for explaining an example of the sub-picture decoding process in FIG. 25. 図25の副映像デコード処理の一例を説明するフローチャート図。FIG. 26 is a flowchart for explaining an example of the sub-picture decoding process in FIG. 25.

符号の説明Explanation of reference numerals

1…ファイル管理情報 2…映像用データ PH…パケットヘッダ 30…副映像ユニット 31…副映像ユニットヘッダSPUH 32…副映像の画素データPXD 33…表示制御シーケンステーブルDCSQT 101…デコーダ 102…データI/O 103…符号データ切分部 104…画素色出力部(FIFOタイプ) 105…メモリ制御部 106…継続コード長検知部 107…ラン長設定部 108…メモリ 109…アドレス制御部 110…表示有効許可部 111…不足画素色設定部 112…マイクロコンピュータ(MPUまたはCPU) 113…ヘッダ切分部 114…ラインメモリ 115…セレクタ 118…セレクト信号生成部 120…システムタイマ 120a…メインSTC 120b…サブSTC 121…バッファメモリ   DESCRIPTION OF SYMBOLS 1 ... File management information 2 ... Video data PH ... Packet header 30 ... Sub-picture unit 31 ... Sub-picture unit header SPUH 32 ... Sub-picture pixel data PXD 33 ... Display control sequence table DCSQT 101 ... Decoder 102 ... Data I / O 103: Code data separation unit 104: Pixel color output unit (FIFO type) 105: Memory control unit 106: Continuous code length detection unit 107: Run length setting unit 108: Memory 109: Address control unit 110: Display validity permission unit 111 ... Insufficient pixel color setting section 112... Microcomputer (MPU or CPU) 113... Header separating section 114... Line memory 115... Selector 118... Select signal generating section 120. Buffer memory

Claims (3)

主映像情報とともに同時再生可能な副映像情報が副映像データーユニットを構成し、
前記副映像データーユニットは一定のデーターサイズのパケットに分割され、前記副映像パケットはパケットヘッダを含み、
前記パケットヘッダは表示時刻を表現したタイムスタンプを含み
更に前記副映像データーユニットは
表示制御シーケンスを含む表示制御シーケンステーブルと
ランレングス圧縮された副映像の画素データーと
副映像ユニットヘッダとを含み、
前記副映像ユニットヘッダは前記表示制御シーケンステーブルの開始アドレス情報を含み、
前記ランレングス圧縮は前記副映像の同一画素データーの連続をデーター単位に変換して行われ、
前記表示制御シーケンスは
副映像の表示制御に関する開始時間を示す情報と
次の表示制御シーケンスのアドレス情報と
1以上の副映像表示制御コマンドと
前記副映像表示制御コマンドにより設定されるパラメーターデーターとを含み、
前記副映像表示制御コマンドとして、前記副映像の画素データーの表示開始タイミングをセットするコマンドもしくは前記副映像の画素データーの表示終了タイミングをセットするコマンドが設定可能であり、
前記表示開始タイミングをセットするコマンドと前記表示終了タイミングをセットするコマンドにより設定される前記パラメーターデーターに対応した拡張フィールド数を予め0バイトに設定しておくように構成し、
前記副映像の画素データーをエンコード処理する事を特徴とする副映像のエンコード方法。
Sub-picture information that can be reproduced simultaneously with the main picture information constitutes a sub-picture data unit,
The sub-picture data unit is divided into packets of a fixed data size, the sub-picture packet includes a packet header,
The packet header includes a time stamp representing a display time, and the sub-picture data unit further includes a display control sequence table including a display control sequence, pixel data of a run-length compressed sub-picture, and a sub-picture unit header,
The sub-picture unit header includes start address information of the display control sequence table,
The run-length compression is performed by converting a continuation of the same pixel data of the sub-picture into data units,
The display control sequence includes information indicating a start time for display control of a sub-picture, address information of a next display control sequence, one or more sub-picture display control commands, and parameter data set by the sub-picture display control command. ,
As the sub-picture display control command, a command to set a display start timing of the sub-picture pixel data or a command to set a display end timing of the sub-picture pixel data can be set,
The configuration is such that the number of extension fields corresponding to the parameter data set by the command to set the display start timing and the command to set the display end timing is set to 0 bytes in advance,
A sub-picture encoding method characterized by encoding pixel data of the sub-picture.
主映像情報とともに同時再生可能な副映像情報が副映像データーユニットを構成し、
前記副映像データーユニットは一定のデーターサイズのパケットに分割され、前記副映像パケットはパケットヘッダを含み、
前記パケットヘッダは表示時刻を表現したタイムスタンプを含み
更に前記副映像データーユニットは
表示制御シーケンスを含む表示制御シーケンステーブルと
ランレングス圧縮された副映像の画素データーと
副映像ユニットヘッダとを含み、
前記副映像ユニットヘッダは前記表示制御シーケンステーブルの開始アドレス情報を含み、
前記ランレングス圧縮は前記副映像の同一画素データーの連続をデーター単位に変換して行われ、
前記表示制御シーケンスは
副映像の表示制御に関する開始時間を示す情報と
次の表示制御シーケンスのアドレス情報と
1以上の副映像表示制御コマンドと
前記副映像表示制御コマンドにより設定されるパラメーターデーターとを含み、
前記副映像表示制御コマンドとして、前記副映像の画素データーの表示開始タイミングをセットするコマンドもしくは前記副映像の画素データーの表示終了タイミングをセットするコマンドが設定可能であり、
前記表示開始タイミングをセットするコマンドと前記表示終了タイミングをセットするコマンドにより設定される前記パラメーターデーターに対応した拡張フィールド数を予め0バイトに設定しておくように構成して記録された情報保持媒体から前記副映像情報を再生することを特徴とする再生方法。
Sub-picture information that can be reproduced simultaneously with the main picture information constitutes a sub-picture data unit,
The sub-picture data unit is divided into packets of a fixed data size, the sub-picture packet includes a packet header,
The packet header includes a time stamp representing a display time, and the sub-picture data unit further includes a display control sequence table including a display control sequence, pixel data of a run-length compressed sub-picture, and a sub-picture unit header,
The sub-picture unit header includes start address information of the display control sequence table,
The run-length compression is performed by converting a continuation of the same pixel data of the sub-picture into data units,
The display control sequence includes information indicating a start time for display control of a sub-picture, address information of a next display control sequence, one or more sub-picture display control commands, and parameter data set by the sub-picture display control command. ,
As the sub-picture display control command, a command to set a display start timing of the sub-picture pixel data or a command to set a display end timing of the sub-picture pixel data can be set,
An information storage medium recorded and configured so that the number of extension fields corresponding to the parameter data set by the command for setting the display start timing and the command for setting the display end timing is set to 0 bytes in advance. And reproducing the sub-picture information from the sub-picture information.
主映像情報とともに同時再生可能な副映像情報が副映像データーユニットを構成し、
前記副映像データーユニットは一定のデーターサイズのパケットに分割され、前記副映像パケットはパケットヘッダを含み、
前記パケットヘッダは表示時刻を表現したタイムスタンプを含み
更に前記副映像データーユニットは
表示制御シーケンスを含む表示制御シーケンステーブルと
ランレングス圧縮された副映像の画素データーと
副映像ユニットヘッダとを含み、
前記副映像ユニットヘッダは前記表示制御シーケンステーブルの開始アドレス情報を含み、
前記ランレングス圧縮は前記副映像の同一画素データーの連続をデーター単位に変換して行われ、
前記表示制御シーケンスは
副映像の表示制御に関する開始時間を示す情報と
次の表示制御シーケンスのアドレス情報と
1以上の副映像表示制御コマンドと
前記副映像表示制御コマンドにより設定されるパラメーターデーターとを含み、
前記副映像表示制御コマンドとして、前記副映像の画素データーの表示開始タイミングをセットするコマンドもしくは前記副映像の画素データーの表示終了タイミングをセットするコマンドが設定可能であり、
前記表示開始タイミングをセットするコマンドと前記表示終了タイミングをセットするコマンドにより設定される前記パラメーターデーターに対応した拡張フィールド数を予め0バイトに設定しておくように構成された前記副映像情報に対するデコーダーを具備する事を特徴とする再生装置。
Sub-picture information that can be reproduced simultaneously with the main picture information constitutes a sub-picture data unit,
The sub-picture data unit is divided into packets of a fixed data size, the sub-picture packet includes a packet header,
The packet header includes a time stamp representing a display time, and the sub-picture data unit further includes a display control sequence table including a display control sequence, pixel data of a run-length compressed sub-picture, and a sub-picture unit header,
The sub-picture unit header includes start address information of the display control sequence table,
The run-length compression is performed by converting a continuation of the same pixel data of the sub-picture into data units,
The display control sequence includes information indicating a start time for display control of a sub-picture, address information of a next display control sequence, one or more sub-picture display control commands, and parameter data set by the sub-picture display control command. ,
As the sub-picture display control command, a command to set a display start timing of the sub-picture pixel data or a command to set a display end timing of the sub-picture pixel data can be set,
A decoder for the sub-picture information, wherein the number of extension fields corresponding to the parameter data set by the command for setting the display start timing and the command for setting the display end timing is set to 0 bytes in advance. A playback device comprising:
JP2004171954A 2004-06-10 2004-06-10 Image information encoding method, reproducing method, and reproducing apparatus Expired - Lifetime JP3680073B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004171954A JP3680073B2 (en) 2004-06-10 2004-06-10 Image information encoding method, reproducing method, and reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004171954A JP3680073B2 (en) 2004-06-10 2004-06-10 Image information encoding method, reproducing method, and reproducing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP04113096A Division JP3679851B2 (en) 1996-02-28 1996-02-28 Image information encoding method, reproducing method, and reproducing apparatus

Publications (2)

Publication Number Publication Date
JP2004328780A true JP2004328780A (en) 2004-11-18
JP3680073B2 JP3680073B2 (en) 2005-08-10

Family

ID=33509308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004171954A Expired - Lifetime JP3680073B2 (en) 2004-06-10 2004-06-10 Image information encoding method, reproducing method, and reproducing apparatus

Country Status (1)

Country Link
JP (1) JP3680073B2 (en)

Also Published As

Publication number Publication date
JP3680073B2 (en) 2005-08-10

Similar Documents

Publication Publication Date Title
JP4199245B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680071B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP2006246504A (en) Encode method, reproduction method, and reproduction apparatus for image information
JP3680070B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680072B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4199251B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680078B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4199249B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4199250B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4199247B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680069B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680075B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4199248B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3887400B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680074B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680076B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP4316665B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP3680077B2 (en) Image information encoding method, reproducing method, and reproducing apparatus
JP2006287952A (en) Encoding method, reproduction method, and reproduction apparatus of image information
JP2006287953A (en) Encoding method, reproduction method, and reproduction apparatus of image information
JP2006287957A (en) Encoding method, reproduction method, and reproduction apparatus of image information
JP2004266869A (en) Playback apparatus and playback method
JP2004328780A (en) Encoding method, decoding method and decoding device of image information
JP2006304321A (en) Encoding method, reproducing method and reproducing apparatus of image information
JP2006270977A (en) Encode method, reproduction method, and reproducing apparatus for image information

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20040830

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20041224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050516

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090520

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090520

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100520

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110520

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110520

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120520

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120520

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130520

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130520

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 9

EXPY Cancellation because of completion of term