JP2000152174A - Image data processor its method and image data recorder - Google Patents

Image data processor its method and image data recorder

Info

Publication number
JP2000152174A
JP2000152174A JP31759598A JP31759598A JP2000152174A JP 2000152174 A JP2000152174 A JP 2000152174A JP 31759598 A JP31759598 A JP 31759598A JP 31759598 A JP31759598 A JP 31759598A JP 2000152174 A JP2000152174 A JP 2000152174A
Authority
JP
Japan
Prior art keywords
data
image data
length
unit
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31759598A
Other languages
Japanese (ja)
Inventor
Tomoji Miyazawa
智司 宮澤
Satoshi Takagi
聡 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31759598A priority Critical patent/JP2000152174A/en
Publication of JP2000152174A publication Critical patent/JP2000152174A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To process image data with common hardware without making the processing complicated even when a data quantity of non-image data relating to image data varies with an image format. SOLUTION: A stream converter 106 generates image data resulting from discrete cosine transform DCT and variable length coding processing and non- image data such as a header and user data relating to the image data. The image data are variable length data for each macro block and the non-image data are outputted as data corresponding to one macro block. A packing and shuffling section 107 packs the image data and the non-image data. Fixed frames whose number is incremented by one with respect to number of macro blocks for one image are prepared and the non-image data and the image data are respectively packed in each fixed frame. One fixed frame is assigned to the non-image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、可変長の画像デ
ータと共に、可変長の非画像データを記録するために適
用される画像データ処理装置および方法、並びに画像デ
ータ記録装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image data processing apparatus and method applied to record variable-length non-image data together with variable-length image data, and an image data recording apparatus.

【0002】[0002]

【従来の技術】ディジタルVTR(VIdeo Tape Recorde
r) に代表されるように、ディジタル画像信号を記録媒
体に記録し、また、記録媒体から再生するようなデータ
記録再生装置が知られている。ディジタル画像記録機器
における記録処理部では、ビデオおよびオーディオのデ
ィジタルデータを所定長のパケットに格納し、パケット
単位にデータの内容を示す情報、エラー訂正符号の符号
化を行い、パケット化されたデータ、エラー訂正符号の
パリティ等に対して、同期パターン、IDを付加してシ
ンクブロックを構成し、シンクブロックの単位でシリア
ルデータに変換し、回転ヘッドにより磁気テープに記録
される。記録側において、データをシンクブロックのデ
ータ領域に詰め込む処理をパッキングと称し、再生側に
おいて、シンクブロックのデータ領域からデータを取り
出す処理をデパッキングと称する。また、積符号を使用
している時には、パッキングによって積符号のECC(E
rror Correctig Code)ブロックの1行分の長さにデータ
を詰め込まれる。
2. Description of the Related Art Digital VTR (Video Tape Recorder)
As represented by r), there is known a data recording / reproducing apparatus for recording a digital image signal on a recording medium and reproducing the digital image signal from the recording medium. In a recording processing unit of a digital image recording device, video and audio digital data are stored in packets of a predetermined length, information indicating data contents, an error correction code is encoded in packet units, and packetized data is stored. A sync block and an ID are added to the parity of the error correction code to form a sync block, converted into serial data in sync block units, and recorded on a magnetic tape by a rotating head. The process of packing data into the data area of the sync block on the recording side is called packing, and the process of extracting data from the data area of the sync block on the reproduction side is called depacking. When a product code is used, the product code ECC (E
(rror Correctig Code) Data is packed to the length of one line of the block.

【0003】画像データのデータ量を圧縮するために、
圧縮符号化がなされる。例えばMPEG(Moving Pictur
e Experts Group)の場合には、DCT(Discrete Cosine
Transform) により生じた係数データを可変長符号化す
る。ヘリカルスキャン型のVTRのように、1トラック
または所定数のトラック当たりに記録できるデータ量が
固定されている時には、所定期間に発生する可変長符号
のデータ量が目標値以下となるように、データ量が制御
される。そして、所定期間に対して用意されている複数
のシンクブロックのデータ領域に可変長符号化データ、
すなわち、不等長データをパッキングするようになされ
る。
In order to compress the amount of image data,
Compression encoding is performed. For example, MPEG (Moving Pictur
e Experts Group), DCT (Discrete Cosine)
Transform) performs variable-length coding on the coefficient data. When the amount of data that can be recorded per track or a predetermined number of tracks is fixed, as in a helical scan type VTR, the data length is set so that the data amount of the variable-length code generated in a predetermined period is equal to or less than a target value. The amount is controlled. Then, variable-length encoded data is stored in a data area of a plurality of sync blocks prepared for a predetermined period,
That is, unequal length data is packed.

【0004】MPEGにおいて、画像データは、シーケ
ンス、GOP(Group Of Picture)、ピクチャ、スライ
ス、マクロブロック、ブロックの6層の階層構造を有し
ており、各階層の多重化処理がなされる。多重化処理
は、MPEGにおいてシンタックス(syntax)として規定
されており、ピクチャデータ以外に、PES(Packetize
dElementary Stream)ヘッダ、シーケンスヘッダ、GO
Pヘッダ、スライスヘッダ等のヘッダ情報が多重化され
る。ヘッダ情報は、ピクチャデータの復号等の処理にと
って必要なものであり、MPEGのエレメンタリストリ
ームを記録/再生する時には、ピクチャデータと共にヘ
ッダ情報を記録/再生することが必要となる。ヘッダ情
報を記録/再生する一つの方法としては、ヘッダ情報の
全体またはその中で、再生にとって必要最小限のデータ
を固定長データとして記録/再生することが考えられ
る。
[0004] In MPEG, image data has a six-layer hierarchical structure of a sequence, a GOP (Group Of Picture), a picture, a slice, a macroblock, and a block, and multiplexing processing of each layer is performed. The multiplexing process is defined as a syntax in MPEG, and includes PES (Packetize) in addition to picture data.
dElementary Stream) header, sequence header, GO
Header information such as a P header and a slice header is multiplexed. The header information is necessary for processing such as decoding of picture data. When recording / reproducing an MPEG elementary stream, it is necessary to record / reproduce the header information together with the picture data. As one method of recording / reproducing the header information, it is conceivable to record / reproduce the minimum amount of data necessary for reproduction as fixed length data in the entire header information or in the header information.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、ヘッダ
情報のデータ量を固定長データとして扱うことが難しい
場合がある。一つには、種々の画像データのフォーマッ
トが存在し、ヘッダ情報のデータ量が変動する。例えば
アメリカのディジタルテレビジョン放送の画像フォーマ
ットは、18種類存在している。第2には、ビデオイン
デックスのデータとか、特定ライン上に多重化されるア
ンシラリイデータ(クローズドキャプション、テレテキ
スト、垂直ブランキング期間のタイムコード(VIT
C)等)をビデオエレメンタリストリームとして伝送す
るために、ピクチャヘッダ中のユーザデータに挿入する
場合には、ユーザデータのデータ量が変動する。
However, it may be difficult to handle the data amount of the header information as fixed-length data. For one, there are various image data formats, and the data amount of header information varies. For example, there are 18 image formats for digital television broadcasting in the United States. Second, video index data or ancillary data multiplexed on a specific line (closed caption, teletext, time code (VIT
C)) is transmitted as a video elementary stream and inserted into user data in a picture header, the data amount of the user data fluctuates.

【0006】このように、本来の画像データでないにも
かかわらず、そのデータ長が可変であるデータ(ヘッダ
情報、ビデオインデックス、アンシラリイデータ等であ
り、これらを総称してピクチャデータ以外という意味で
非画像データと称する)を記録するためには、個々の記
録すべき画像フォーマットを考慮して記録領域を割り当
てる必要があり、また、発生しうるデータ量の最大量を
記録可能な記録領域を確保する必要がある。
As described above, although data is not original image data, its data length is variable (header information, video index, ancillary data, etc., and these are collectively referred to as data other than picture data. In order to record non-image data), it is necessary to allocate a recording area in consideration of each image format to be recorded, and secure a recording area capable of recording the maximum amount of data that can occur. There is a need to.

【0007】画像フォーマットが1種類あるいは2種類
程度である場合には、データ量の変動幅を比較的小さ
く、個々の画像フォーマットに対応して非画像データの
記録領域をテープ上で設定することは、それほど難しく
ない。しかしながら、画像フォーマットの種類が多い
と、非画像データのデータ量の変動幅が大きくなった
り、予測できなくなり、非画像データ用の記録領域を設
定することが難しくなる。また、発生しうるデータ量の
最大量を記録可能な領域を設定すると、データ量が多く
ない時には、テープ上で記録に使用されない無駄な領域
が生じ、テープの記録容量を有効に利用できない。
When there are only one or two types of image formats, the fluctuation range of the data amount is relatively small, and it is not possible to set a recording area of non-image data on a tape corresponding to each image format. Not so difficult. However, if there are many types of image formats, the fluctuation range of the data amount of non-image data becomes large or unpredictable, and it becomes difficult to set a recording area for non-image data. Further, if an area in which the maximum amount of data that can occur can be recorded is set, when the data amount is not large, a useless area not used for recording occurs on the tape, and the recording capacity of the tape cannot be used effectively.

【0008】従って、この発明の目的は、これらの問題
を生じることなく、可変長の非画像データを記録するこ
とを可能とする画像データ処理装置および方法、並びに
画像データ記録装置を提供するものである。
Accordingly, it is an object of the present invention to provide an image data processing apparatus and method, and an image data recording apparatus which can record non-image data of variable length without causing these problems. is there.

【0009】[0009]

【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明は、複数の所定範囲の画像領域
にそれぞれ対応して発生した複数の可変長の画像データ
と、画像データに関連する非画像データとからなるデー
タが入力され、画像データおよび非画像データを複数の
固定枠に配置し、固定枠からはみ出すオーバーフローデ
ータを他の固定枠に生じた空き領域に詰め込むことを特
徴とする画像データ処理装置である。
In order to solve the above-mentioned problems, the invention according to claim 1 comprises a plurality of variable-length image data generated corresponding to a plurality of predetermined ranges of image areas, respectively. Data including non-image data related to the image data is input, the image data and the non-image data are arranged in a plurality of fixed frames, and overflow data protruding from the fixed frame is packed into an empty area generated in another fixed frame. Is an image data processing device.

【0010】請求項2の発明は、画像データを記録媒体
に記録する記録装置において、複数の所定範囲の画像領
域にそれぞれ対応して発生した複数の可変長の画像デー
タと、画像データに関連する非画像データとからなるデ
ータが入力され、画像データおよび非画像データを複数
の固定枠に配置し、固定枠からはみ出すオーバーフロー
データを他の固定枠に生じた空き領域に詰め込むパッキ
ング部と、パッキング部の出力に対してエラー訂正符号
化の処理と、固定枠に詰め込まれたデータ毎に同期信号
を付加する処理を行う処理部と、処理部の出力を記録媒
体に記録する記録手段とからなることを特徴とする画像
データ記録装置である。
According to a second aspect of the present invention, in a recording apparatus for recording image data on a recording medium, a plurality of variable-length image data generated corresponding to a plurality of predetermined ranges of image areas, respectively, and the image data are related. A packing unit to which data consisting of non-image data is input, arranging image data and non-image data in a plurality of fixed frames, and packing overflow data protruding from the fixed frames into an empty area generated in another fixed frame; and a packing unit. A processing unit for performing an error correction coding process on the output of the data, a process of adding a synchronization signal for each data packed in the fixed frame, and a recording unit for recording the output of the processing unit on a recording medium. An image data recording apparatus characterized by the following.

【0011】請求項9の発明は、複数の所定範囲の画像
領域にそれぞれ対応して発生した複数の可変長の画像デ
ータと、画像データに関連する非画像データとからなる
データが入力されるステップと、画像データおよび非画
像データを複数の固定枠に配置し、固定枠からはみ出す
オーバーフローデータを他の固定枠に生じた空き領域に
詰め込むステップとからなることを特徴とする画像デー
タ処理方法である。
According to a ninth aspect of the present invention, there is provided a step of inputting data comprising a plurality of variable-length image data generated respectively corresponding to a plurality of predetermined image areas and non-image data related to the image data. And arranging image data and non-image data in a plurality of fixed frames, and filling overflow data that overflows the fixed frame into a free area generated in another fixed frame. .

【0012】画像データは、所定範囲例えばマクロブロ
ックに対応して発生した不等長データからなる。また、
画像データの復元に必要な情報、ユーザデータ等の非画
像データも発生する。非画像データを画像データと同等
に扱って、固定枠にパッキングする。非画像データを画
像データと同様にパッキング処理することによって、非
画像データ専用の記録領域を記録媒体に設定する必要が
なく、画像フォーマットの変更、ユーザデータのデータ
量の変動によって、非画像データのデータ量が変動して
も、処理を複雑とすることなく、共通のハードウエアに
よって処理することができる。
The image data consists of unequal length data generated corresponding to a predetermined range, for example, a macroblock. Also,
Information necessary for restoring image data and non-image data such as user data are also generated. Non-image data is treated in the same manner as image data and packed in a fixed frame. By performing the packing process on the non-image data in the same manner as the image data, it is not necessary to set a recording area dedicated to the non-image data on the recording medium. Even if the data amount fluctuates, processing can be performed by common hardware without complicating the processing.

【0013】[0013]

【発明の実施の形態】以下、この発明をディジタルVT
Rに対して適用した一実施形態について説明する。この
一実施形態は、放送局の環境で使用して好適なもので、
互いに異なる複数のフォーマットのビデオ信号の記録・
再生を可能とするものである。例えば、NTSC方式に
基づいたインターレス走査で有効ライン数が480本の
信号(480i信号)およびPAL方式に基づいたイン
ターレス走査で有効ライン数が576本の信号(576
i信号)の両者を殆どハードウエアを変更せずに記録・
再生することが可能とされる。さらに、インターレス走
査でライン数が1080本の信号(1080i信号)、
プログレッシブ走査(ノンインターレス)でライン数が
それぞれ480本、720本、1080本の信号(48
0p信号、720p信号、1080p信号)などの記録
・再生も行うようにできる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to a digital VT.
An embodiment applied to R will be described. This embodiment is suitable for use in a broadcast station environment,
Recording and recording of video signals of multiple different formats
It enables playback. For example, a signal (480i signal) having 480 effective lines in the interlaced scanning based on the NTSC system and a signal (576 signals) having 576 effective lines in the interlaced scanning based on the PAL system.
i) are recorded with almost no hardware changes.
It is possible to reproduce. Furthermore, a signal having 1080 lines (1080i signal) in interlaced scanning,
In progressive scanning (non-interlace), the number of lines is 480, 720, and 1080, respectively.
Recording / reproduction such as 0p signal, 720p signal, and 1080p signal) can also be performed.

【0014】また、この一実施形態では、ビデオ信号
は、MPEG2方式に基づき圧縮符号化される。周知の
ように、MPEG2は、動き補償予測符号化と、DCT
による圧縮符号化とを組み合わせたものである。MPE
G2のデータ構造は、階層構造をなしており、下位か
ら、ブロック層、マクロブロック層、スライス層、ピク
チャ層、GOP層およびシーケンス層となっている。
In this embodiment, the video signal is compression-coded based on the MPEG2 system. As is well known, MPEG2 uses motion compensated predictive coding and DCT.
This is a combination of compression encoding by MPE
The data structure of G2 has a hierarchical structure, and includes, from the bottom, a block layer, a macroblock layer, a slice layer, a picture layer, a GOP layer, and a sequence layer.

【0015】ブロック層は、DCTを行う単位であるD
CTブロックからなる。マクロブロック層は、複数のD
CTブロックで構成される。スライス層は、ヘッダ部
と、行間をまたがらない任意個のマクロブロックより構
成される。ピクチャ層は、ヘッダ部と、複数のスライス
とから構成される。ピクチャは、1画面に対応する。G
OP層は、ヘッダ部と、フレーム内符号化に基づくピク
チャであるIピクチャと、予測符号化に基づくピクチャ
であるPおよびBピクチャとから構成される。
The block layer is a unit for performing DCT, D
It consists of a CT block. The macroblock layer includes a plurality of D
It is composed of CT blocks. The slice layer is composed of a header section and any number of macroblocks that do not extend between rows. The picture layer includes a header section and a plurality of slices. A picture corresponds to one screen. G
The OP layer includes a header portion, an I picture that is a picture based on intra-frame coding, and P and B pictures that are pictures based on predictive coding.

【0016】Iピクチャ(Intra-coded picture:イント
ラ符号化画像) は、符号化されるときその画像1枚の中
だけで閉じた情報を使用するものである。従って、復号
時には、Iピクチャ自身の情報のみで復号できる。Pピ
クチャ(Predictive-coded picture :順方向予測符号化
画像)は、予測画像(差分をとる基準となる画像)とし
て、時間的に前の既に復号されたIピクチャまたはPピ
クチャを使用するものである。動き補償された予測画像
との差を符号化するか、差分を取らずに符号化するか、
効率の良い方をマクロブロック単位で選択する。Bピク
チャ(Bidirectionally predictive-coded picture :両
方向予測符号化画像)は、予測画像(差分をとる基準と
なる画像)として、時間的に前の既に復号されたIピク
チャまたはPピクチャ、時間的に後ろの既に復号された
IピクチャまたはPピクチャ、並びにこの両方から作ら
れた補間画像の3種類を使用する。この3種類のそれぞ
れの動き補償後の差分の符号化と、イントラ符号化の中
で、最も効率の良いものをマクロブロック単位で選択す
る。
An I-picture (Intra-coded picture) uses information that is closed only in one picture when it is coded. Therefore, at the time of decoding, decoding can be performed using only the information of the I picture itself. A P-picture (Predictive-coded picture: a forward predictive coded picture) uses a previously decoded I-picture or P-picture which is temporally previous as a predicted picture (a reference picture for taking a difference). . Whether to encode the difference from the motion-compensated predicted image, to encode without taking the difference,
The more efficient one is selected for each macroblock. A B picture (Bidirectionally predictive-coded picture) is a temporally previous I-picture or P-picture which is temporally preceding, and a temporally backward I-picture, We use three types of I-pictures or P-pictures already decoded, as well as interpolated pictures made from both. Among the three types of difference coding after motion compensation and intra coding, the most efficient one is selected for each macroblock.

【0017】従って、マクロブロックタイプとしては、
フレーム内符号化(Intra) マクロブロックと、過去から
未来を予測する順方向(Foward)フレーム間予測マクロブ
ロックと、未来から過去を予測する逆方向(Backward)フ
レーム間予測マクロブロックと、前後両方向から予測す
る両方向マクロブロックとがある。Iピクチャ内の全て
のマクロブロックは、フレーム内符号化マクロブロック
である。また、Pピクチャ内には、フレーム内符号化マ
クロブロックと順方向フレーム間予測マクロブロックと
が含まれる。Bピクチャ内には、上述した4種類の全て
のタイプのマクロブロックが含まれる。
Therefore, as the macroblock type,
Intra-frame coding (Intra) macroblock, forward (Fward) inter-frame prediction macroblock predicting the future from the past, and backward (Backward) interframe prediction macroblock predicting the future from the future, There is a bidirectional macroblock to be predicted. All macroblocks in an I picture are intra-coded macroblocks. The P picture includes an intra-frame coded macro block and a forward inter-frame predicted macro block. The B picture includes all four types of macroblocks described above.

【0018】GOPには、最低1枚のIピクチャが含ま
れ、PおよびBピクチャは、存在しなくても許容され
る。最上層のシーケンス層は、ヘッダ部と複数のGOP
とから構成される。
A GOP contains at least one I picture, and P and B pictures are allowed even if they do not exist. The top sequence layer is composed of a header section and multiple GOPs.
It is composed of

【0019】MPEGのフォーマットにおいては、スラ
イスが1つの可変長符号系列である。可変長符号系列と
は、可変長符号を復号化しなければデータの境界を検出
できない系列である。
In the MPEG format, a slice is one variable-length code sequence. A variable-length code sequence is a sequence in which a data boundary cannot be detected unless a variable-length code is decoded.

【0020】また、シーケンス層、GOP層、ピクチャ
層、スライス層およびマクロブロック層の先頭には、そ
れぞれ、バイト単位に整列された所定のビットパターン
を有する識別コード(スタートコードと称される)が配
される。なお、上述した各層のヘッダ部は、ヘッダ、拡
張データまたはユーザデータをまとめて記述したもので
ある。シーケンス層のヘッダには、画像(ピクチャ)の
サイズ(縦横の画素数)等が記述される。GOP層のヘ
ッダには、タイムコードおよびGOPを構成するピクチ
ャ数等が記述される。
At the head of the sequence layer, GOP layer, picture layer, slice layer, and macroblock layer, an identification code (referred to as a start code) having a predetermined bit pattern arranged in byte units is provided. Be placed. Note that the header section of each layer described above collectively describes a header, extension data, or user data. In the header of the sequence layer, the size of the image (picture) (the number of vertical and horizontal pixels) and the like are described. The time code, the number of pictures constituting the GOP, and the like are described in the header of the GOP layer.

【0021】スライス層に含まれるマクロブロックは、
複数のDCTブロックの集合であり、DCTブロックの
符号化系列は、量子化されたDCT係数の系列を0係数
の連続回数(ラン)とその直後の非0系列(レベル)を
1つの単位として可変長符号化したものである。マクロ
ブロックならびにマクロブロック内のDCTブロックに
は、バイト単位に整列した識別コードが付加されない。
The macro blocks included in the slice layer are:
It is a set of a plurality of DCT blocks, and the encoded sequence of the DCT block is a variable of a sequence of quantized DCT coefficients, with the number of consecutive 0 coefficients (run) and a non-zero sequence (level) immediately after it as one unit. It is a long code. The macroblock and the DCT block in the macroblock are not provided with the identification codes arranged in byte units.

【0022】マクロブロックは、画面(ピクチャ)を1
6画素×16ラインの格子状に分割したものである。ス
ライスは、例えばこのマクロブロックを水平方向に連結
してなる。連続するスライスの前のスライスの最後のマ
クロブロックと、次のスライスの先頭のマクロブロック
とは連続しており、スライス間でのマクロブロックのオ
ーバーラップを形成することは、許されていない。ま
た、画面のサイズが決まると、1画面当たりのマクロブ
ロック数は、一意に決まる。
The macro block is composed of one screen (picture).
It is divided into a grid of 6 pixels × 16 lines. A slice is formed by connecting these macroblocks in the horizontal direction, for example. The last macroblock of the previous slice of a continuous slice and the first macroblock of the next slice are continuous, and it is not allowed to form a macroblock overlap between slices. When the size of the screen is determined, the number of macroblocks per screen is uniquely determined.

【0023】一方、復号および符号化による信号の劣化
を避けるためには、符号化データ上で編集することが望
ましい。このとき、PピクチャおよびBピクチャは、そ
の復号に、時間的に前のピクチャあるいは前後のピクチ
ャを必要とする。そのため、編集単位を1フレーム単位
とすることができない。この点を考慮して、この一実施
形態では、1つのGOPが1枚のIピクチャからなるよ
うにしている。
On the other hand, in order to avoid signal deterioration due to decoding and encoding, it is desirable to edit the encoded data. At this time, the P picture and the B picture require a temporally preceding picture or a preceding and succeeding picture for decoding. Therefore, the editing unit cannot be set to one frame unit. In consideration of this point, in this embodiment, one GOP is made up of one I picture.

【0024】また、例えば1フレーム分の記録データが
記録される記録領域が所定のものとされる。MPEG2
では、可変長符号化を用いているので、1フレーム期間
に発生するデータを所定の記録領域に記録できるよう
に、1フレーム分の発生データ量が制御される。さら
に、この一実施形態では、磁気テープへの記録に適する
ように、1スライスを1マクロブロックから構成すると
共に、1マクロブロックを、所定長の固定枠に当てはめ
る。MPEGでは、1スライスを1ストライプ(16ラ
イン)で構成するのが普通であり、画面の左端から可変
長符号化が始まり、右端で終わる。従って、VTRによ
ってそのままMPEGエレメンタリストリームを記録し
た場合、高速再生時に、再生できる部分が画面の左端に
集中し、均一に更新することができない。また、データ
のテープ上の配置を予測できないため、テープパターン
を一定の間隔でトレースしたのでは、均一な画面更新が
できなくなる。さらに、1箇所でもエラーが発生する
と、画面右端まで影響し、次のスライスヘッダが検出さ
れるまで復帰できない。このために、1スライスを1マ
クロブロックで構成するようにしている。
A recording area in which, for example, one frame of recording data is recorded is a predetermined area. MPEG2
Since the variable length coding is used, the amount of generated data for one frame is controlled so that data generated during one frame period can be recorded in a predetermined recording area. Further, in this embodiment, one slice is composed of one macroblock so as to be suitable for recording on a magnetic tape, and one macroblock is applied to a fixed frame having a predetermined length. In MPEG, one slice is generally composed of one stripe (16 lines), and variable-length coding starts from the left end of the screen and ends at the right end. Therefore, when the MPEG elementary stream is recorded as it is by the VTR, the portion that can be reproduced is concentrated at the left end of the screen during high-speed reproduction, and cannot be uniformly updated. Further, since the arrangement of the data on the tape cannot be predicted, if the tape pattern is traced at a constant interval, the screen cannot be uniformly updated. Furthermore, if an error occurs even at one location, it affects the right edge of the screen and cannot return until the next slice header is detected. For this purpose, one slice is composed of one macroblock.

【0025】図1は、この一実施形態による記録再生装
置の記録側の構成の一例を示す。記録時には、所定のイ
ンターフェース例えばSDI(Serial Data Interface)
の受信部を介してディジタルビデオ信号が端子101か
ら入力される。SDIは、(4:2:2)コンポーネン
トビデオ信号とディジタルオーディオ信号と付加的デー
タとを伝送するために、SMPTEによって規定された
インターフェイスである。入力ビデオ信号は、ビデオエ
ンコーダ102においてDCT(Discrete Cosine Trans
form) の処理を受け、係数データに変換され、係数デー
タが可変長符号化される。ビデオエンコーダ102から
の可変長符号化(VLC)データは、MPEG2に準拠
したエレメンタリストリームである。この出力は、セレ
クタ103の一方の入力端に供給される。
FIG. 1 shows an example of the configuration of the recording side of the recording / reproducing apparatus according to this embodiment. At the time of recording, a predetermined interface, for example, SDI (Serial Data Interface)
The digital video signal is input from the terminal 101 via the receiving unit of the above. SDI is an interface defined by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals, and additional data. An input video signal is converted by a video encoder 102 into a DCT (Discrete Cosine Transform).
form), is converted into coefficient data, and the coefficient data is subjected to variable length coding. The variable length coded (VLC) data from the video encoder 102 is an elementary stream compliant with MPEG2. This output is supplied to one input terminal of the selector 103.

【0026】一方、入力端子104を通じて、ANSI
/SMPTE 305Mによって規定されたインターフ
ェイスである、SDTI(Serial Data Transport Inter
face) のフォーマットのデータが入力される。この信号
は、SDTI受信部105で同期検出される。そして、
バッファに一旦溜め込まれ、エレメンタリストリームが
抜き出される。抜き出されたエレメンタリストリーム
は、セレクタ103の他方の入力端に供給される。
On the other hand, through the input terminal 104, the ANSI
SDTI (Serial Data Transport Inter), which is an interface defined by / SMPTE 305M
face) format data is input. This signal is synchronously detected by SDTI receiving section 105. And
Once stored in the buffer, the elementary stream is extracted. The extracted elementary stream is supplied to the other input terminal of the selector 103.

【0027】セレクタ103で選択され出力されたエレ
メンタリストリームは、ストリームコンバータ106に
供給される。ストリームコンバータ106では、MPE
G2の規定に基づきDCTブロック毎に並べられていた
DCT係数を、1マクロブロックを構成する複数のDC
Tブロックを通して、周波数成分毎にまとめ、まとめた
周波数成分を並べ替える。また、ストリームコンバータ
106は、エレメンタリストリームの1スライスが1ス
トライプの場合には、1スライスを1マクロブロックか
らなるものにする。さらに、ストリームコンバータ10
6は、1マクロブロックで発生する可変長データの最大
長を所定長に制限する。これは、高次のDCT係数を0
とすることでなしうる。並べ替えられた変換エレメンタ
リストリームは、パッキングおよびシャフリング部10
7に供給される。
The elementary stream selected and output by the selector 103 is supplied to a stream converter 106. In the stream converter 106, the MPE
The DCT coefficients arranged for each DCT block based on the G2 rule are replaced with a plurality of DCTs constituting one macroblock.
Through the T block, frequency components are grouped, and the grouped frequency components are rearranged. Further, when one slice of the elementary stream is one stripe, the stream converter 106 converts one slice to one macroblock. Further, the stream converter 10
No. 6 limits the maximum length of variable length data generated in one macroblock to a predetermined length. This reduces the higher order DCT coefficients to 0
Can be done by The rearranged converted elementary stream is stored in the packing and shuffling unit 10.
7 is supplied.

【0028】エレメンタリストリームのビデオデータ
は、可変長符号化されているため、各マクロブロックの
データの長さが不揃いである。パッキングおよびシャフ
リング部107では、マクロブロックが固定枠に詰め込
まれる。このとき、固定枠からはみ出たオーバーフロー
部分は、固定枠のサイズに対して空いている領域に順に
詰め込まれる。また、画像フォーマット、シャフリング
パターンのバージョン等の情報を有するシステムデータ
が入力端子108からパッキングおよびシャフリング部
107に供給され、ピクチャデータと同様にシステムデ
ータが記録処理を受ける。システムデータは、ビデオA
UXとして記録される。また、走査順に発生する1フレ
ームのマクロブロックを並び替え、テープ上のマクロブ
ロックの記録位置を分散させるシャフリングが行われ
る。シャフリングによって、変速再生時に断片的にデー
タが再生される時でも、画像の更新率を向上させること
ができる。
Since the video data of the elementary stream is variable-length coded, the data length of each macroblock is not uniform. In the packing and shuffling unit 107, macro blocks are packed in a fixed frame. At this time, the overflow portion that protrudes from the fixed frame is sequentially packed in an area vacant with respect to the size of the fixed frame. In addition, system data having information such as an image format and a version of a shuffling pattern is supplied from the input terminal 108 to the packing and shuffling unit 107, and the system data is subjected to a recording process similarly to the picture data. System data is video A
Recorded as UX. Also, shuffling is performed in which the macroblocks of one frame generated in the scanning order are rearranged and the recording positions of the macroblocks on the tape are dispersed. Shuffling can improve the image update rate even when data is reproduced in pieces during variable speed reproduction.

【0029】パッキングおよびシャフリング部107か
らのビデオデータおよびシステムデータ(以下、特に必
要な場合を除き、システムデータを含む場合も単にビデ
オデータと言う。)が外符号エンコーダ109に供給さ
れる。ビデオデータおよびオーディオデータに対するエ
ラー訂正符号としては、積符号が使用される。積符号
は、ビデオデータまたはオーディオデータの2次元配列
の縦方向に外符号の符号化を行い、その横方向に内符号
の符号化を行い、データシンボルを2重に符号化するも
のである。外符号および内符号としては、リードソロモ
ンコード(Reed-Solomon code) を使用できる。
Video data and system data from the packing and shuffling unit 107 (hereinafter, also referred to as video data even when system data is included unless otherwise necessary) are supplied to the outer code encoder 109. A product code is used as an error correction code for video data and audio data. The product code encodes an outer code in a vertical direction of a two-dimensional array of video data or audio data, encodes an inner code in a horizontal direction thereof, and encodes data symbols doubly. As the outer code and the inner code, a Reed-Solomon code can be used.

【0030】外符号エンコーダ109の出力がシャフリ
ング部110に供給され、複数のECCブロックにわた
ってシンクブロック単位で順番を入れ替える、シャフリ
ングがなされる。シンクブロック単位のシャフリングに
よって特定のECCブロックにエラーが集中することが
防止される。シャフリング部110でなされるシャフリ
ングをインターリーブと称することもある。シャフリン
グ部110の出力が混合部111に供給され、オーディ
オデータと混合される。なお、混合部111は、後述の
ように、メインメモリにより構成される。
The output of the outer code encoder 109 is supplied to a shuffling unit 110, and shuffling is performed so that the order is changed over a plurality of ECC blocks in sync block units. The shuffling in sync block units prevents errors from concentrating on a specific ECC block. Shuffling performed by the shuffling unit 110 may be referred to as interleaving. The output of the shuffling unit 110 is supplied to the mixing unit 111 and mixed with the audio data. The mixing unit 111 is configured by a main memory, as described later.

【0031】112で示す入力端子からオーディオデー
タが供給される。この一実施形態では、非圧縮のディジ
タルオーディオ信号が扱われる。ディジタルオーディオ
信号は、入力側のSDI受信部(図示しない)またはS
DTI受信部105で分離されたもの、またはオーディ
オインターフェースを介して入力されたものである。入
力ディジタルオーディオ信号が遅延部113を介してA
UX付加部114に供給される。遅延部113は、オー
ディオ信号とビデオ信号と時間合わせ用のものである。
入力端子115から供給されるオーディオAUXは、補
助的データであり、オーディオデータのサンプリング周
波数等のオーディオデータに関連する情報を有するデー
タである。オーディオAUXは、AUX付加部114に
てオーディオデータに付加され、オーディオデータと同
等に扱われる。
Audio data is supplied from an input terminal denoted by reference numeral 112. In this embodiment, an uncompressed digital audio signal is handled. The digital audio signal is supplied to an input SDI receiver (not shown)
These are separated by the DTI receiving unit 105 or input through an audio interface. The input digital audio signal is supplied to A
It is supplied to the UX adding unit 114. The delay unit 113 is for time alignment of the audio signal and the video signal.
The audio AUX supplied from the input terminal 115 is auxiliary data, and is data having information related to audio data such as the sampling frequency of audio data. The audio AUX is added to the audio data by the AUX adding unit 114, and is treated the same as the audio data.

【0032】AUX付加部114からのオーディオデー
タおよびAUX(以下、特に必要な場合を除き、AUX
を含む場合も単にオーディオデータと言う。)が外符号
エンコーダ116に供給される。外符号エンコーダ11
6は、オーディオデータに対して外符号の符号化を行
う。外符号エンコーダ116の出力がシャフリング部1
17に供給され、シャフリング処理を受ける。オーディ
オシャフリングとして、シンクブロック単位のシャフリ
ングと、チャンネル単位のシャフリングとがなされる。
The audio data and AUX from the AUX adding unit 114 (hereinafter, AUX except when necessary)
Is also simply referred to as audio data. ) Is supplied to the outer code encoder 116. Outer code encoder 11
No. 6 encodes an outer code for audio data. The output of the outer code encoder 116 is the shuffling unit 1
17 and undergoes a shuffling process. As audio shuffling, shuffling in sync block units and shuffling in channel units are performed.

【0033】シャフリング部117の出力が混合部11
1に供給され、ビデオデータとオーディオデータが1チ
ャンネルのデータとされる。混合部111の出力がID
付加部118が供給され、ID付加部118にて、シン
クブロック番号を示す情報等を有するIDが付加され
る。ID付加部118の出力が内符号エンコーダ119
に供給され、内符号の符号化がなされる。さらに、内符
号エンコーダ119の出力が同期付加部120に供給さ
れ、シンクブロック毎の同期信号が付加される。同期信
号が付加されることによってシンクブロックが連続する
記録データが構成される。この記録データが記録アンプ
121を介して回転ヘッド122に供給され、磁気テー
プ123上に記録される。回転ヘッド122は、実際に
は、隣接するトラックを形成するヘッドのアジマスが互
いに異なる複数の磁気ヘッドが回転ドラムに取り付けら
れたものである。
The output of the shuffling unit 117 is
1 and the video data and the audio data are converted into data of one channel. The output of the mixing unit 111 is ID
The adding unit 118 is supplied, and the ID adding unit 118 adds an ID including information indicating a sync block number. The output of the ID addition unit 118 is the inner code encoder 119
, And the inner code is encoded. Further, the output of the inner code encoder 119 is supplied to the synchronization adding section 120, and a synchronization signal for each sync block is added. By adding the synchronization signal, recording data in which the sync blocks are continuous is configured. This recording data is supplied to the rotary head 122 via the recording amplifier 121, and is recorded on the magnetic tape 123. In practice, the rotary head 122 is configured such that a plurality of magnetic heads having different azimuths of heads forming adjacent tracks are attached to the rotary drum.

【0034】記録データに対して必要に応じてスクラン
ブル処理を行っても良い。また、記録時にディジタル変
調を行っても良く、さらに、パーシャル・レスポンスク
ラス4とビタビ符号を使用しても良い。
The recording data may be subjected to a scrambling process as required. Further, digital modulation may be performed at the time of recording, and a partial response class 4 and Viterbi code may be used.

【0035】図2は、この発明の一実施形態の再生側の
構成の一例を示す。磁気テープ123から回転ヘッド1
22で再生された再生信号が再生アンプ131を介して
同期検出部132に供給される。再生信号に対して、等
化や波形整形などがなされる。また、ディジタル変調の
復調、ビタビ復号等が必要に応じてなされる。同期検出
部132は、シンクブロックの先頭に付加されている同
期信号を検出する。同期検出によって、シンクブロック
が切り出される。
FIG. 2 shows an example of the configuration on the reproducing side according to an embodiment of the present invention. Rotating head 1 from magnetic tape 123
The reproduction signal reproduced at 22 is supplied to the synchronization detection unit 132 via the reproduction amplifier 131. Equalization and waveform shaping are performed on the reproduced signal. Further, demodulation of digital modulation, Viterbi decoding, and the like are performed as necessary. The synchronization detection unit 132 detects a synchronization signal added to the head of the sync block. The sync block is cut out by the synchronization detection.

【0036】同期検出ブロック132の出力が内符号エ
ンコーダ133に供給され、内符号のエラー訂正がなさ
れる。内符号エンコーダ133の出力がID補間部13
4に供給され、内符号によりエラーとされたシンクブロ
ックのID例えばシンクブロック番号が補間される。I
D補間部134の出力が分離部135に供給され、ビデ
オデータとオーディオデータとが分離される。上述した
ように、ビデオデータは、MPEGのイントラ符号化で
発生したDCT係数データおよびシステムデータを意味
し、オーディオデータは、PCM(Pulse Code Modulati
on) データおよびAUXを意味する。
The output of the synchronization detection block 132 is supplied to the inner code encoder 133, where the error of the inner code is corrected. The output of the inner code encoder 133 is the ID interpolation unit 13
The ID of the sync block, which has been supplied to the block No. 4 and made an error by the inner code, for example, a sync block number is interpolated. I
The output of the D interpolation unit 134 is supplied to a separation unit 135, where the video data and the audio data are separated. As described above, video data means DCT coefficient data and system data generated by MPEG intra coding, and audio data is PCM (Pulse Code Modulati
on) means data and AUX.

【0037】分離部135からのビデオデータがデシャ
フリング部136において、シャフリングと逆の処理が
なされる。デシャフリング部136は、記録側のシャフ
リング部110でなされたシンクブロック単位のシャフ
リングを元に戻す処理を行う。デシャフリング部136
の出力が外符号デコーダ137に供給され、外符号によ
るエラー訂正がなされる。訂正できないエラーが発生し
た場合には、エラーの有無を示すエラーフラグがエラー
有りを示すものとされる。
The video data from the separation unit 135 is subjected to a process reverse to shuffling in a deshuffling unit 136. The deshuffling unit 136 performs a process of restoring the shuffling in sync block units performed by the shuffling unit 110 on the recording side. Deshuffling part 136
Is supplied to the outer code decoder 137, and error correction by the outer code is performed. When an error that cannot be corrected occurs, an error flag indicating the presence or absence of the error is set to indicate the presence of the error.

【0038】外符号デコーダ137の出力がデシャフリ
ングおよびデパッキング部138に供給される。デシャ
フリングおよびデパッキング部138は、記録側のパッ
キングおよびシャフリング部107でなされたマクロブ
ロック単位のシャフリングを元に戻す処理を行う。ま
た、デシャフリングおよびデパッキング部138では、
記録時に施されたパッキングを分解する。すなわち、マ
クロブロック単位にデータの長さを戻して、元の可変長
符号(不等長データ)を復元する。さらに、デシャフリ
ングおよびデパッキング部138において、システムデ
ータが分離され、出力端子139に取り出される。
The output of the outer code decoder 137 is supplied to a deshuffling and depacking unit 138. The deshuffling and depacking unit 138 performs processing for restoring shuffling in macroblock units performed by the packing and shuffling unit 107 on the recording side. In the deshuffling and depacking unit 138,
Disassemble the packing applied during recording. That is, the length of the data is returned in units of macroblocks, and the original variable length code (unequal length data) is restored. Further, in the deshuffling and depacking section 138, the system data is separated and taken out to the output terminal 139.

【0039】デシャフリングおよびデパッキング部13
8の出力が補間部140に供給され、エラーフラグが立
っている(すなわち、エラーのある)データが修整され
る。すなわち、変換前に、マクロブロックデータの途中
にエラーがあるとされた場合には、エラー箇所以降の周
波数成分のDCT係数が復元できない。そこで、例えば
エラー箇所のデータをブロック終端符号(EOB)に置
き替え、それ以降の周波数成分のDCT係数をゼロとす
る。同様に、高速再生時にも、シンクブロック長に対応
する長さまでのDCT係数のみを復元し、それ以降の係
数は、ゼロデータに置き替えられる。さらに、補間部1
40では、ビデオデータの先頭に付加されているヘッダ
がエラーの場合に、ヘッダ(シーケンスヘッダ、GOP
ヘッダ、ピクチャヘッダ、ユーザデータ等)を回復する
処理もなされる。
Deshuffling and depacking unit 13
The output of No. 8 is supplied to the interpolation unit 140, and the data for which the error flag is set (that is, there is an error) is corrected. That is, if it is determined that there is an error in the macroblock data before the conversion, the DCT coefficients of the frequency components after the error location cannot be restored. Therefore, for example, the data at the error location is replaced with a block end code (EOB), and the DCT coefficients of the subsequent frequency components are set to zero. Similarly, at the time of high-speed reproduction, only DCT coefficients up to the length corresponding to the sync block length are restored, and the coefficients thereafter are replaced with zero data. Further, the interpolation unit 1
In 40, when the header added to the head of the video data is an error, the header (sequence header, GOP
Header, picture header, user data, etc.) are also recovered.

【0040】DCTブロックに跨がって、DCT係数が
DC成分および低域成分から高域成分へと並べられてい
るため、このように、ある箇所以降からDCT係数を無
視しても、マクロブロックを構成するDCTブロックの
それぞれに対して、満遍なくDCならびに低域成分から
のDCT係数を行き渡らせることができる。
Since the DCT coefficients are arranged from the DC component and the low-frequency component to the high-frequency component over the DCT block, even if the DCT coefficients are ignored from a certain position onward, the macro block , DCT coefficients from DC and low-frequency components can be distributed evenly to each of the DCT blocks constituting.

【0041】補間部140の出力がストリームコンバー
タ141に供給される。ストリームコンバータ141で
は、記録側のストリームコンバータ106と逆の処理が
なされる。すなわち、DCTブロックに跨がって周波数
成分毎に並べられていたDCT係数を、DCTブロック
毎に並び替える。これにより、再生信号がMPEG2に
準拠したエレメンタリストリームに変換される。
The output of the interpolation section 140 is supplied to the stream converter 141. In the stream converter 141, the reverse process to that of the stream converter 106 on the recording side is performed. That is, the DCT coefficients arranged for each frequency component across the DCT blocks are rearranged for each DCT block. Thereby, the reproduced signal is converted into an elementary stream conforming to MPEG2.

【0042】また、ストリームコンバータ141の入出
力は、記録側と同様に、マクロブロックの最大長に応じ
て、十分な転送レート(バンド幅)を確保しておく。マ
クロブロック(スライス)の長さを制限しない場合に
は、画素レートの3倍のバンド幅を確保するのが好まし
い。
As for the input / output of the stream converter 141, a sufficient transfer rate (bandwidth) is secured in accordance with the maximum length of the macroblock, as in the recording side. If the length of the macroblock (slice) is not limited, it is preferable to secure a bandwidth three times the pixel rate.

【0043】ストリームコンバータ141の出力がビデ
オデコーダ142に供給される。ビデオデコーダ142
は、エレメンタリストリームを復号し、ビデオデータを
出力する。すなわち、ビデオデコーダ142は、逆量子
化処理と、逆DCT処理とがなされる。復号ビデオデー
タが出力端子143に取り出される。外部とのインター
フェースには、例えばSDIが使用される。また、スト
リームコンバータ141からのエレメンタリストリーム
がSDTI送信部144に供給される。SDTI送信部
144には、経路の図示を省略しているが、システムデ
ータ、再生オーディオデータ、AUXも供給され、SD
TIフォーマットのデータ構造を有するストリームへ変
換される。SDTI送信部144からのストリームが出
力端子145を通じて外部に出力される。
The output of the stream converter 141 is supplied to the video decoder 142. Video decoder 142
Decodes the elementary stream and outputs video data. That is, the video decoder 142 performs an inverse quantization process and an inverse DCT process. The decoded video data is taken out to the output terminal 143. For the interface with the outside, for example, SDI is used. In addition, the elementary stream from the stream converter 141 is supplied to the SDTI transmitting unit 144. Although illustration of the path is omitted, the SDTI transmission unit 144 is also supplied with system data, reproduced audio data, and AUX, and
It is converted into a stream having a data structure of the TI format. The stream from the SDTI transmission unit 144 is output to the outside through the output terminal 145.

【0044】分離部135で分離されたオーディオデー
タがデシャフリング部151に供給される。デシャフリ
ング部151は、記録側のシャフリング部117でなさ
れたシャフリングと逆の処理を行う。デシャフリング部
117の出力が外符号デコーダ152に供給され、外符
号によるエラー訂正がなされる。外符号デコーダ152
からは、エラー訂正されたオーディオデータが出力され
る。訂正できないエラーがあるデータに関しては、エラ
ーフラグがセットされる。
The audio data separated by the separation unit 135 is supplied to the deshuffling unit 151. The deshuffling unit 151 performs a process opposite to the shuffling performed by the shuffling unit 117 on the recording side. The output of the deshuffling unit 117 is supplied to the outer code decoder 152, and error correction by the outer code is performed. Outer code decoder 152
Output the error-corrected audio data. An error flag is set for data having an uncorrectable error.

【0045】外符号デコーダ152の出力がAUX分離
部153に供給され、オーディオAUXが分離される。
分離されたオーディオAUXが出力端子154に取り出
される。また、オーディオデータが補間部155に供給
される。補間部155では、エラーの有るサンプルが補
間される。補間方法としては、時間的に前後の正しいデ
ータの平均値で補間する平均値補間、前の正しいサンプ
ルの値をホールドする前値ホールド等を使用できる。補
間部155の出力が出力部156に供給される。出力部
156は、エラーであり、補間できないオーディオ信号
の出力を禁止するミュート処理、並びにビデオ信号との
時間合わせのための遅延量調整処理がなされる。出力部
156から出力端子157に再生オーディオ信号が取り
出される。
The output of the outer code decoder 152 is supplied to an AUX separation section 153, where the audio AUX is separated.
The separated audio AUX is taken out to the output terminal 154. The audio data is supplied to the interpolation unit 155. The interpolating unit 155 interpolates a sample having an error. As the interpolation method, it is possible to use an average value interpolation for interpolating with the average value of correct data before and after in time, a previous value hold for holding a previous correct sample value, and the like. The output of the interpolation unit 155 is supplied to the output unit 156. The output unit 156 performs a mute process for inhibiting the output of an audio signal that is in error and cannot be interpolated, and performs a delay amount adjustment process for time alignment with a video signal. The reproduced audio signal is extracted from the output unit 156 to the output terminal 157.

【0046】なお、図1および図2では省略されている
が、入力データと同期したタイミング信号を発生するタ
イミング発生部、記録再生装置の全体の動作を制御する
システムコントローラ(マイクロコンピュータ)等が備
えられている。
Although not shown in FIGS. 1 and 2, a timing generator for generating a timing signal synchronized with input data, a system controller (microcomputer) for controlling the overall operation of the recording / reproducing apparatus, and the like are provided. Have been.

【0047】この一実施形態では、磁気テープへの信号
の記録は、回転する回転ヘッド上に設けられた磁気ヘッ
ドにより、斜めのトラックを形成する、ヘリカルスキャ
ン方式によって行われる。磁気ヘッドは、回転ドラム上
の、互いに対向する位置に、それぞれ複数個が設けられ
る。すなわち、磁気テープが回転ヘッドに180°程度
の巻き付け角で以て巻き付けられている場合、回転ヘッ
ドの180°の回転により、同時に複数本のトラックを
形成することができる。また、磁気ヘッドは、互いにア
ジマスの異なる2個で一組とされる。複数個の磁気ヘッ
ドは、隣接するトラックのアジマスが互いに異なるよう
に配置される。
In this embodiment, recording of a signal on a magnetic tape is performed by a helical scan method in which an oblique track is formed by a magnetic head provided on a rotating rotary head. A plurality of magnetic heads are provided on the rotating drum at positions facing each other. That is, when the magnetic tape is wound around the rotary head at a winding angle of about 180 °, a plurality of tracks can be simultaneously formed by rotating the rotary head by 180 °. The magnetic heads are formed as a set of two magnetic heads having different azimuths. The plurality of magnetic heads are arranged such that azimuths of adjacent tracks are different from each other.

【0048】図3は、上述した回転ヘッドにより磁気テ
ープ上に形成されるトラックフォーマットの一例を示
す。これは、1フレーム当たりのビデオおよびオーディ
オデータが8トラックで記録される例である。例えばフ
レーム周波数が29.97Hz、レートが50Mbp
s、有効ライン数が480本で有効水平画素数が720
画素のインターレス信号(480i信号)およびオーデ
ィオ信号が記録される。また、フレーム周波数が25H
z、レートが50Mbps、有効ライン数が576本で
有効水平画素数が720画素のインターレス信号(57
6i信号)およびオーディオ信号も、図3と同一のテー
プフォーマットによって記録できる。
FIG. 3 shows an example of a track format formed on a magnetic tape by the rotary head described above. This is an example in which video and audio data per frame are recorded on eight tracks. For example, the frame frequency is 29.97 Hz, and the rate is 50 Mbp
s, the number of effective lines is 480, and the number of effective horizontal pixels is 720
A pixel interlace signal (480i signal) and an audio signal are recorded. When the frame frequency is 25H
z, the rate is 50 Mbps, the number of effective lines is 576, and the number of effective horizontal pixels is 720.
6i signal) and audio signal can also be recorded in the same tape format as in FIG.

【0049】互いに異なるアジマスの2トラックによっ
て1セグメントが構成される。すなわち、8トラック
は、4セグメントからなる。セグメントを構成する1組
のトラックに対して、アジマスと対応するトラック番号
One segment is composed of two tracks having different azimuths. That is, eight tracks are composed of four segments. Track number corresponding to azimuth for a set of tracks constituting a segment

〔0〕とトラック番号〔1〕が付される。図3に示され
る例では、前半の8トラックと、後半の8トラックとの
間で、トラック番号が入れ替えられると共に、フレーム
毎に互いに異なるトラックシーケンスが付される。これ
により、アジマスが異なる1組の磁気ヘッドのうち一方
が、例えば目詰まりなどにより読み取り不能状態に陥っ
ても、前フレームのデータを利用してエラーの影響を小
とできる。
[0] and a track number [1] are assigned. In the example shown in FIG. 3, track numbers are exchanged between the first eight tracks and the second eight tracks, and different track sequences are assigned to each frame. Thus, even if one of the set of magnetic heads having different azimuths becomes unreadable due to clogging or the like, the influence of an error can be reduced by using the data of the previous frame.

【0050】トラックのそれぞれにおいて、両端側にビ
デオデータが記録されるビデオセクタが配され、ビデオ
セクタに挟まれて、オーディオデータが記録されるオー
ディオセクタが配される。なお、この図3および後述す
る図4は、テープ上のオーディオセクタの配置を示すも
のである。
In each of the tracks, a video sector in which video data is recorded is arranged at both ends, and an audio sector in which audio data is recorded is arranged between the video sectors. 3 and FIG. 4, which will be described later, show the arrangement of audio sectors on the tape.

【0051】図3のトラックフォーマットでは、8チャ
ンネルのオーディオデータを扱うことができるようにさ
れている。A1〜A8は、それぞれオーディオデータの
1〜8chのセクタを示す。オーディオデータは、セグ
メント単位で配列を変えられて記録される。オーディオ
データは、1フィールド期間で発生するオーディオサン
プル(例えばフィールド周波数が29.97Hzで、サン
プリング周波数が48kHzの場合には、800サンプル
または801サンプル)が偶数番目のサンプルと奇数番
目のサンプルとにわけられ、各サンプル群とAUXによ
って積符号の1ECCブロックが構成される。
In the track format shown in FIG. 3, eight channels of audio data can be handled. A1 to A8 indicate sectors of channels 1 to 8 of the audio data, respectively. The audio data is recorded with its arrangement changed in segment units. For audio data, audio samples generated in one field period (for example, when the field frequency is 29.97 Hz and the sampling frequency is 48 kHz, 800 or 801 samples) are divided into even-numbered samples and odd-numbered samples. Each sample group and AUX form one ECC block of a product code.

【0052】図3では、1フィールド分のオーディオデ
ータが4トラックに記録されるので、オーディオデータ
の1チャンネル当たりの2個のECCブロックが4トラ
ックに記録される。2個のECCブロックのデータ(外
符号パリティを含む)が4個のセクタに分割され、図3
に示すように、4トラックに分散されて記録される。2
個のECCブロックに含まれる複数のシンクブロックが
シャフリングされる。例えばA1の参照番号が付された
4セクタによって、チャンネル1の2ECCブロックが
構成される。
In FIG. 3, since one field of audio data is recorded on four tracks, two ECC blocks per channel of audio data are recorded on four tracks. The data (including the outer code parity) of the two ECC blocks is divided into four sectors.
As shown in (1), the data is recorded separately on four tracks. 2
A plurality of sync blocks included in the ECC blocks are shuffled. For example, two ECC blocks of channel 1 are constituted by four sectors to which reference numbers A1 are assigned.

【0053】また、ビデオデータは、この例では、1ト
ラックに対して4ECCブロック分のデータがシャフリ
ング(インターリーブ)され、Upper Sideお
よびLower Sideで各セクタに分割され記録さ
れる。Lower Sideのビデオセクタには、所定
位置にシステム領域が設けられる。
In this example, video data of 4 ECC blocks is shuffled (interleaved) with respect to one track, and is divided into upper sectors and lower sides for each sector and recorded. In the lower sector video sector, a system area is provided at a predetermined position.

【0054】なお、図3において、SAT1(Tr)お
よびSAT2(Tm)は、サーボロック用の信号が記録
されるエリアである。また、各記録エリアの間には、所
定の大きさのギャップ(Vg1,Sg1,Ag,Sg
2,Sg3およびVg2)が設けられる。
In FIG. 3, SAT1 (Tr) and SAT2 (Tm) are areas where servo lock signals are recorded. In addition, a gap of a predetermined size (Vg1, Sg1, Ag, Sg) is provided between the recording areas.
2, Sg3 and Vg2).

【0055】図3は、1フレーム当たりのデータを8ト
ラックで記録する例であるが、記録再生するデータのフ
ォーマットによっては、1フレーム当たりのデータを4
トラック、6トラックなどでの記録することができる。
図4Aは、1フレームが6トラックのフォーマットであ
る。この例では、トラックシーケンスが
FIG. 3 shows an example in which data per frame is recorded on eight tracks. However, depending on the format of data to be recorded and reproduced, data per frame is recorded in four tracks.
Recording can be performed on tracks, six tracks, and the like.
FIG. 4A shows a format in which one frame has six tracks. In this example, the track sequence is

〔0〕のみとさ
れる。
Only [0] is set.

【0056】図4Bに示すように、テープ上に記録され
るデータは、シンクブロックと称される等間隔に区切ら
れた複数のブロックからなる。図4Cは、シンクブロッ
クの構成を概略的に示す。詳細は後述するが、シンクブ
ロックは、同期検出するためのSYNCパターン、シン
クブロックのそれぞれを識別するためのID、後続する
データの内容を示すDID、データパケットおよびエラ
ー訂正用の内符号パリティから構成される。データは、
シンクブロック単位でパケットとして扱われる。すなわ
ち、記録あるいは再生されるデータ単位の最小のものが
1シンクブロックである。シンクブロックが多数並べら
れて(図4B)、例えばビデオセクタが形成される(図
4A)。
As shown in FIG. 4B, the data recorded on the tape is composed of a plurality of equally-spaced blocks called sync blocks. FIG. 4C schematically shows a configuration of the sync block. As will be described later in detail, the sync block is composed of a SYNC pattern for detecting synchronization, an ID for identifying each sync block, a DID indicating the content of subsequent data, a data packet, and an inner code parity for error correction. Is done. Data is,
It is treated as a packet in sync block units. That is, the smallest data unit to be recorded or reproduced is one sync block. A number of sync blocks are arranged (FIG. 4B) to form, for example, a video sector (FIG. 4A).

【0057】図5は、記録/再生の最小単位である、ビ
デオデータのシンクブロックのデータ構成をより具体的
に示す。この一実施形態においては、記録するビデオデ
ータのフォーマットに適応して1シンクブロックに対し
て1個乃至は2個のマクロブロックのデータ(VLCデ
ータ)が格納されると共に、1シンクブロックのサイズ
が扱うビデオ信号のフォーマットに応じて長さが変更さ
れる。図5Aに示されるように、1シンクブロックは、
先頭から、2バイトのSYNCパターン、2バイトのI
D、1バイトのDID、例えば112バイト〜206バ
イトの間で可変に規定されるデータ領域および12バイ
トのパリティ(内符号パリティ)からなる。なお、デー
タ領域は、ペイロードとも称される。
FIG. 5 more specifically shows the data structure of a sync block of video data, which is the minimum unit of recording / reproduction. In this embodiment, one or two macroblocks of data (VLC data) are stored for one sync block according to the format of video data to be recorded, and the size of one sync block is reduced. The length is changed according to the format of the video signal to be handled. As shown in FIG. 5A, one sync block is
From the beginning, a 2-byte SYNC pattern, a 2-byte I
D, a 1-byte DID, for example, a data area variably defined between 112 bytes and 206 bytes, and a 12-byte parity (inner code parity). Note that the data area is also called a payload.

【0058】先頭の2バイトのSYNCパターンは、同
期検出用であり、所定のビットパターンを有する。固有
のパターンに対して一致するSYNCパターンを検出す
ることで、同期検出が行われる。
The first two bytes of the SYNC pattern are for synchronization detection and have a predetermined bit pattern. Synchronization detection is performed by detecting a SYNC pattern that matches the unique pattern.

【0059】図6Aは、ID0およびID1のビットア
サインの一例を示す。IDは、シンクブロックが固有に
持っている重要な情報を持っており、各2バイト(ID
0およびID1)が割り当てられている。ID0は、1
トラック中のシンクブロックのそれぞれを識別するため
の識別情報(SYNC ID)が格納される。SYNC
IDは、例えば各セクタ内のシンクブロックに対して
付された通し番号である。SYNC IDは、8ビット
で表現される。ビデオのシンクブロックとオーディオの
シンクブロックとでそれぞれ別個にSYNC IDが付
される。
FIG. 6A shows an example of the bit assignment of ID0 and ID1. The ID has important information inherent to the sync block, and each ID has 2 bytes (ID
0 and ID1). ID0 is 1
The identification information (SYNC ID) for identifying each of the sync blocks in the track is stored. SYNC
The ID is, for example, a serial number assigned to a sync block in each sector. The SYNC ID is represented by 8 bits. SYNC IDs are separately assigned to video sync blocks and audio sync blocks.

【0060】ID1は、シンクブロックのトラックに関
する情報が格納される。MSB側をビット7、LSB側
をビット0とした場合、このシンクブロックに関して、
ビット7でトラックの上側(Upper)か下側(Lo
wer)かが示され、ビット5〜ビット2で、トラック
のセグメントが示される。また、ビット1は、トラック
のアジマスに対応するトラック番号が示され、ビット0
は、このシンクブロックがビデオデータおよびオーディ
オデータを区別するビットである。
ID1 stores information on the track of the sync block. When the MSB side is bit 7 and the LSB side is bit 0, with respect to this sync block,
Bit 7 indicates whether the track is above (upper) or below (Lo)
wer), and bits 5 to 2 indicate the segment of the track. Bit 1 indicates the track number corresponding to the azimuth of the track.
Are bits for distinguishing video data and audio data by this sync block.

【0061】図6Bは、ビデオの場合のDIDのビット
アサインの一例を示す。DIDは、ペイロードに関する
情報が格納される。上述したID1のビット0の値に基
づき、ビデオおよびオーディオで、DIDの内容が異な
る。ビット7〜ビット4は、未定義(Reserve
d)とされている。ビット3および2は、ペイロードの
モードであり、例えばペイロードのタイプが示される。
ビット3および2は、補助的なものである。ビット1で
ペイロードに1個あるいは2個のマクロブロックが格納
されることが示される。ビット0でペイロードに格納さ
れるビデオデータが外符号パリティであるかどうかが示
される。
FIG. 6B shows an example of bit assignment of DID in the case of video. The DID stores information related to the payload. The content of DID differs between video and audio based on the value of bit 0 of ID1 described above. Bits 7 to 4 are undefined (Reserve
d). Bits 3 and 2 are the mode of the payload, for example, indicating the type of the payload.
Bits 3 and 2 are auxiliary. Bit 1 indicates that one or two macroblocks are stored in the payload. Bit 0 indicates whether the video data stored in the payload is an outer code parity.

【0062】図6Cは、オーディオの場合のDIDのビ
ットアサインの一例を示す。ビット7〜ビット4は、R
eservedとされている。ビット3でペイロードに
格納されているデータがオーディオデータであるか、一
般的なデータであるかどうかが示される。ペイロードに
対して、圧縮符号化されたオーディオデータが格納され
ている場合には、ビット3がデータを示す値とされる。
ビット2〜ビット0は、NTSC方式における、5フィ
ールドシーケンスの情報が格納される。すなわち、NT
SC方式においては、ビデオ信号の1フィールドに対し
てオーディオ信号は、サンプリング周波数が48kHz
の場合、800サンプルおよび801サンプルの何れか
であり、このシーケンスが5フィールド毎に揃う。ビッ
ト2〜ビット0によって、シーケンスの何処に位置する
かが示される。
FIG. 6C shows an example of DID bit assignment in the case of audio. Bits 7-4 are R
Eserved. Bit 3 indicates whether the data stored in the payload is audio data or general data. If compression-encoded audio data is stored in the payload, bit 3 is a value indicating the data.
Bit 2 to bit 0 store information of a 5-field sequence in the NTSC system. That is, NT
In the SC system, the sampling frequency of an audio signal for one field of a video signal is 48 kHz.
Is either 800 samples or 801 samples, and this sequence is aligned every five fields. Bit 2 to bit 0 indicate where in the sequence it is located.

【0063】図5に戻って説明すると、図5B〜図5E
は、上述のペイロードの例を示す。図5Bおよび図5C
は、ペイロードに対して、1および2マクロブロックの
ビデオデータ(不等長データ)が格納される場合の例を
それぞれ示す。図5Bに示される、1マクロブロックが
格納される例では、先頭の3バイトに、そのマクロブロ
ックに対応する不等長データの長さを示すデータ長標識
LTが配される。なお、データ長標識LTには、自分自
身の長さを含んでも良いし、含まなくても良い。また、
図5Cに示される、2マクロブロックが格納される例で
は、先頭に第1のマクロブロックのデータ長標識LTが
配され、続けて第1のマクロブロックが配される。そし
て、第1のマクロブロックに続けて第2のマクロブロッ
クの長さを示すデータ長標識LTが配され、続けて第2
のマクロブロックが配される。データ長標識LTは、デ
パッキングのために必要な情報である。
Referring back to FIG. 5, FIGS. 5B to 5E
Shows an example of the above-mentioned payload. 5B and 5C
Shows an example where video data (unequal length data) of 1 and 2 macroblocks is stored for the payload, respectively. In the example shown in FIG. 5B in which one macroblock is stored, a data length indicator LT indicating the length of unequal length data corresponding to the macroblock is arranged in the first three bytes. The data length indicator LT may or may not include its own length. Also,
In the example shown in FIG. 5C in which two macroblocks are stored, the data length indicator LT of the first macroblock is arranged at the beginning, and the first macroblock is arranged subsequently. Then, the data length indicator LT indicating the length of the second macroblock is arranged following the first macroblock, and
Are arranged. The data length indicator LT is information necessary for depacking.

【0064】図5Dは、ペイロードに対して、ビデオA
UX(補助的)データが格納される場合の例を示す。先
頭のデータ長標識LTには、ビデオAUXデータの長さ
が記される。このデータ長標識LTに続けて、5バイト
のシステム情報、12バイトのPICT情報、および9
2バイトのユーザ情報が格納される。ペイロードの長さ
に対して余った部分は、Reservedとされる。
FIG. 5D shows video A for the payload.
An example in which UX (auxiliary) data is stored will be described. The first data length indicator LT describes the length of the video AUX data. Following this data length indicator LT, 5 bytes of system information, 12 bytes of PICT information, and 9 bytes
Two bytes of user information are stored. The remaining portion of the payload length is reserved.

【0065】図5Eは、ペイロードに対してオーディオ
データが格納される場合の例を示す。オーディオデータ
は、ペイロードの全長にわたって詰め込むことができ
る。オーディオ信号は、圧縮処理などが施されない、例
えばPCM形式で扱われる。これに限らず、所定の方式
で圧縮符号化されたオーディオデータを扱うようにもで
きる。
FIG. 5E shows an example in which audio data is stored in the payload. Audio data can be packed over the entire length of the payload. The audio signal is not subjected to compression processing or the like, and is handled in, for example, a PCM format. The present invention is not limited to this, and audio data compressed and encoded by a predetermined method can be handled.

【0066】この一実施形態においては、各シンクブロ
ックのデータの格納領域であるペイロードの長さは、ビ
デオシンクブロックとオーディオシンクブロックとでそ
れぞれ最適に設定されているため、互いに等しい長さで
はない。また、ビデオデータを記録するシンクブロック
の長さと、オーディオデータを記録するシンクブロック
の長さとを、信号フォーマットに応じてそれぞれ最適な
長さに設定される。これにより、複数の異なる信号フォ
ーマットを統一的に扱うことができる。
In this embodiment, the length of the payload, which is the data storage area of each sync block, is set optimally for the video sync block and the audio sync block, and is not equal to each other. . In addition, the length of a sync block for recording video data and the length of a sync block for recording audio data are set to optimal lengths according to the signal format. Thereby, a plurality of different signal formats can be handled uniformly.

【0067】図7Aは、MPEGエンコーダのDCT回
路から出力されるビデオデータ中のDCT係数の順序を
示す。DCTブロックにおいて左上のDC成分から開始
して、水平ならびに垂直空間周波数が高くなる方向に、
DCT係数がジグザグスキャンで出力される。その結
果、図7Bに一例が示されるように、全部で64個(8
画素×8ライン)のDCT係数が周波数成分順に並べら
れて得られる。
FIG. 7A shows the order of DCT coefficients in video data output from the DCT circuit of the MPEG encoder. Starting from the DC component at the upper left in the DCT block, in the direction where the horizontal and vertical spatial frequencies increase,
DCT coefficients are output by zigzag scan. As a result, as shown in an example in FIG. 7B, a total of 64 (8
DCT coefficients of (pixel × 8 lines) are obtained by being arranged in the order of frequency components.

【0068】このDCT係数がMPEGエンコーダのV
LC部によって可変長符号化される。すなわち、最初の
係数は、DC成分として固定的であり、次の成分(AC
成分)からは、ゼロのランとそれに続くレベルに対応し
てコードが割り当てられる。従って、AC成分の係数デ
ータに対する可変長符号化出力は、周波数成分の低い
(低次の)係数から高い(高次の)係数へと、AC1
AC2 ,AC3 ,・・・と並べられたものである。可変
長符号化されたDCT係数をエレメンタリストリームが
含んでいる。
This DCT coefficient is equal to the V of the MPEG encoder.
Variable length coding is performed by the LC unit. That is, the first coefficient is fixed as a DC component, and the next component (AC
From the component), codes are assigned corresponding to the run of zero and the subsequent level. Therefore, the variable-length coded output for the coefficient data of the AC component is converted from the low (low-order) coefficient of the frequency component to the high (high-order) coefficient of AC 1 ,
AC 2 , AC 3 ,... The elementary stream includes DCT coefficients subjected to variable length coding.

【0069】ストリームコンバータ106では、供給さ
れた信号のDCT係数の並べ替えが行われる。すなわ
ち、それぞれのマクロブロック内で、ジグザグスキャン
によってDCTブロック毎に周波数成分順に並べられた
DCT係数がマクロブロックを構成する各DCTブロッ
クにわたって周波数成分順に並べ替えられる。
The stream converter 106 rearranges the DCT coefficients of the supplied signal. That is, in each macroblock, DCT coefficients arranged in order of frequency components for each DCT block by zigzag scan are rearranged in order of frequency components over each DCT block constituting the macroblock.

【0070】図8は、このストリームコンバータ106
におけるDCT係数の並べ替えを概略的に示す。(4:
2:2)コンポーネント信号の場合に、1マクロブロッ
クは、輝度信号Yによる4個のDCTブロック(Y1
2 ,Y3 およびY4 )と、色度信号Cb,Crのそれ
ぞれによる2個ずつのDCTブロック(Cb1 ,C
2 ,Cr1 およびCr2 )からなる。
FIG. 8 shows this stream converter 106.
2 schematically shows the rearrangement of the DCT coefficients in. (4:
2: 2) In the case of a component signal, one macroblock is composed of four DCT blocks (Y 1 ,
Y 2, and Y 3 and Y 4), chroma signal Cb, DCT blocks (Cb 1 of every two according to each of Cr, C
b 2 , Cr 1 and Cr 2 ).

【0071】上述したように、ビデオエンコーダ102
では、MPEG2の規定に従いジグザグスキャンが行わ
れ、図8Aに示されるように、各DCTブロック毎に、
DCT係数がDC成分および低域成分から高域成分に、
周波数成分の順に並べられる。一つのDCTブロックの
スキャンが終了したら、次のDCTブロックのスキャン
が行われ、同様に、DCT係数が並べられる。
As described above, the video encoder 102
Then, a zigzag scan is performed in accordance with the rules of MPEG2, and as shown in FIG. 8A, for each DCT block,
DCT coefficient is changed from DC component and low frequency component to high frequency component,
The frequency components are arranged in order. When scanning of one DCT block is completed, scanning of the next DCT block is performed, and similarly, DCT coefficients are arranged.

【0072】すなわち、マクロブロック内で、DCTブ
ロックY1 ,Y2 ,Y3 およびY4、DCTブロックC
1 ,Cb2 ,Cr1 およびCr2 のそれぞれについ
て、DCT係数がDC成分および低域成分から高域成分
へと周波数順に並べられる。そして、連続したランとそ
れに続くレベルとからなる組に、〔DC,AC1 ,AC
2 ,AC3 ,・・・〕と、それぞれ符号が割り当てられ
るように、可変長符号化されている。
That is, in the macro block, DCT blocks Y 1 , Y 2 , Y 3 and Y 4 , DCT block C
For each of b 1 , Cb 2 , Cr 1 and Cr 2 , the DCT coefficients are arranged in order of frequency from the DC component and the low-frequency component to the high-frequency component. Then, [DC, AC 1 , AC
2, AC 3, and..], So that codes are assigned, it is variable length coded.

【0073】ストリームコンバータ106では、可変長
符号化され並べられたDCT係数を、一旦可変長符号を
解読して各係数の区切りを検出し、マクロブロックを構
成する各DCTブロックに跨がって周波数成分毎にまと
める。この様子を、図8Bに示す。最初にマクロブロッ
ク内の8個のDCTブロックのDC成分をまとめ、次に
8個のDCTブロックの最も周波数成分が低いAC係数
成分をまとめ、以下、順に同一次数のAC係数をまとめ
るように、8個のDCTブロックに跨がって係数データ
を並び替える。
The stream converter 106 decodes the variable-length coded and arranged DCT coefficients once by decoding the variable-length code to detect a break of each coefficient, and extends the frequency over each DCT block constituting the macro block. Summarize by component. This is shown in FIG. 8B. First, the DC components of the eight DCT blocks in the macroblock are summarized, the AC coefficient components of the eight DCT blocks having the lowest frequency components are summarized, and the AC coefficients of the same order are grouped in order. The coefficient data is rearranged across the DCT blocks.

【0074】並び替えられた係数データは、DC
(Y1 ),DC(Y2 ),DC(Y3 ),DC
(Y4 ),DC(Cb1 ),DC(Cb2 ),DC(C
1 ),DC(Cr2 ),AC1 (Y1 ),AC1 (Y
2 ),AC1 (Y3 ),AC1 (Y4 ),AC1 (Cb
1 ),AC1 (Cb2 ),AC1 (Cr1 ),AC
1 (Cr2 ),・・・である。ここで、DC、AC1
AC2 、・・・は、図7を参照して説明したように、ラ
ンとそれに続くレベルとからなる組に対して割り当てら
れた可変長符号の各符号である。
The rearranged coefficient data is DC
(Y 1 ), DC (Y 2 ), DC (Y 3 ), DC
(Y 4 ), DC (Cb 1 ), DC (Cb 2 ), DC (C
r 1 ), DC (Cr 2 ), AC 1 (Y 1 ), AC 1 (Y
2 ), AC 1 (Y 3 ), AC 1 (Y 4 ), AC 1 (Cb
1 ), AC 1 (Cb 2 ), AC 1 (Cr 1 ), AC
1 (Cr 2 ),. Where DC, AC 1 ,
AC 2 ,... Are, as described with reference to FIG. 7, each of the variable-length codes assigned to the set consisting of the run and the subsequent level.

【0075】ストリームコンバータ106で係数データ
の順序が並べ替えられた変換エレメンタリストリーム
は、パッキングおよびシャフリング部107に供給され
る。マクロブロックのデータの長さは、変換エレメンタ
リストリームと変換前のエレメンタリストリームとで同
一である。また、ビデオエンコーダ102において、ビ
ットレート制御によりGOP(1フレーム)単位に固定
長化されていても、マクロブロック単位では、長さが変
動している。パッキングおよびシャフリング部107で
は、マクロブロックのデータを固定枠に当てはめる。
The converted elementary stream in which the order of the coefficient data is rearranged by the stream converter 106 is supplied to the packing and shuffling unit 107. The data length of the macroblock is the same for the converted elementary stream and the elementary stream before conversion. In the video encoder 102, even if the length is fixed in GOP (one frame) units by bit rate control, the length varies in macroblock units. The packing and shuffling unit 107 applies the data of the macroblock to the fixed frame.

【0076】図9は、パッキングおよびシャフリング部
107でのマクロブロックのパッキング処理を概略的に
示す。マクロブロックは、所定のデータ長を持つ固定枠
に当てはめられ、パッキングされる。このとき用いられ
る固定枠のデータ長を、記録および再生の際のデータの
最小単位であるシンクブロックのデータ長と一致させて
いる。これは、シャフリングおよびエラー訂正符号化の
処理を簡単に行うためである。図9では、簡単のため、
1フレームに8マクロブロックが含まれるものと仮定す
る。
FIG. 9 schematically shows the processing of packing a macroblock in the packing and shuffling section 107. The macro block is applied to a fixed frame having a predetermined data length and is packed. The data length of the fixed frame used at this time matches the data length of the sync block, which is the minimum unit of data during recording and reproduction. This is to simplify the processing of shuffling and error correction coding. In FIG. 9, for simplicity,
Assume that one frame contains eight macroblocks.

【0077】可変長符号化によって、図9Aに一例が示
されるように、8マクロブロックの長さは、互いに異な
る。この例では、固定枠である1シンクブロックのデー
タ領域の長さと比較して、マクロブロック#1のデー
タ,#3のデータおよび#6のデータがそれぞれ長く、
マクロブロック#2のデータ,#5のデータ,#7のデ
ータおよび#8のデータがそれぞれ短い。また、マクロ
ブロック#4のデータは、1シンクブロックと略等しい
長さである。
As shown in an example in FIG. 9A, the lengths of eight macroblocks are different from each other due to the variable length coding. In this example, compared to the length of the data area of one sync block, which is a fixed frame, the data of the macro blocks # 1, # 3 and # 6 are each longer,
The data of the macro blocks # 2, # 5, # 7 and # 8 are short. The data of the macro block # 4 has a length substantially equal to one sync block.

【0078】パッキング処理によって、マクロブロック
が1シンクブロック長の固定長枠に詰め込まれる。過不
足無くデータを詰め込むことができるのは、1フレーム
期間で発生するデータ量が固定量に制御されているから
である。図9Bに一例が示されるように、1シンクブロ
ックと比較して長いマクロブロックは、シンクブロック
長に対応する位置で分割される。分割されたマクロブロ
ックのうち、シンクブロック長からはみ出た部分(オー
バーフロー部分)は、先頭から順に空いている領域に、
すなわち、長さがシンクブロック長に満たないマクロブ
ロックの後ろに、詰め込まれる。
By the packing process, macro blocks are packed into a fixed-length frame having a length of one sync block. Data can be packed without excess or shortage because the amount of data generated in one frame period is controlled to a fixed amount. As shown in an example in FIG. 9B, a macroblock longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, the part (overflow part) that protrudes from the sync block length is placed in an area that is vacant in order from the top,
That is, it is packed after a macroblock whose length is less than the sync block length.

【0079】図9Bの例では、マクロブロック#1の、
シンクブロック長からはみ出た部分が、先ず、マクロブ
ロック#2の後ろに詰め込まれ、そこがシンクブロック
の長さに達すると、マクロブロック#5の後ろに詰め込
まれる。次に、マクロブロック#3の、シンクブロック
長からはみ出た部分がマクロブロック#7の後ろに詰め
込まれる。さらに、マクロブロック#6のシンクブロッ
ク長からはみ出た部分がマクロブロック#7の後ろに詰
め込まれ、さらにはみ出た部分がマクロブロック#8の
後ろに詰め込まれる。こうして、各マクロブロックがシ
ンクブロック長の固定枠に対してパッキングされる。
In the example of FIG. 9B, the macro block # 1
The portion that exceeds the sync block length is first packed after the macro block # 2, and when it reaches the length of the sync block, it is packed after the macro block # 5. Next, the portion of the macro block # 3 that is outside the sync block length is packed behind the macro block # 7. Further, the part of the macro block # 6 that protrudes from the sync block length is packed after the macro block # 7, and the part that protrudes further is packed after the macro block # 8. Thus, each macroblock is packed in a fixed frame of the sync block length.

【0080】各マクロブロックに対応する不等長データ
の長さは、ストリームコンバータ106において予め調
べておくことができる。これにより、このパッキング部
107では、VLCデータをデコードして内容を検査す
ること無く、マクロブロックのデータの最後尾を知るこ
とができる。
The length of the unequal-length data corresponding to each macroblock can be checked in advance by the stream converter 106. As a result, the packing unit 107 can know the end of the data of the macro block without decoding the VLC data and checking the contents.

【0081】図10は、一実施形態で使用されるエラー
訂正符号の一例を示し、図10Aは、ビデオデータに対
するエラー訂正符号の1ECCブロックを示し、図10
Bは、オーディオデータに対するエラー訂正符号の1E
CCブロックを示す。図10Aにおいて、VLCデータ
がパッキングおよびシャフリング部107からのデータ
である。VLCデータの各行に対して、SYNCパター
ン、ID、DIDが付加され、さらに、内符号のパリテ
ィが付加されることによって、1SYNCブロックが形
成される。
FIG. 10 shows an example of an error correction code used in one embodiment. FIG. 10A shows one ECC block of an error correction code for video data.
B is 1E of an error correction code for audio data.
Indicates a CC block. In FIG. 10A, VLC data is data from the packing and shuffling unit 107. A SYNC pattern, ID, and DID are added to each row of the VLC data, and a parity of an inner code is added to form one SYNC block.

【0082】すなわち、VLCデータの配列の垂直方向
に整列する所定数のシンボル(バイト)から10バイト
の外符号のパリティが生成され、その水平方向に整列す
る、ID、DIDおよびVLCデータ(または外符号の
パリティ)の所定数のシンボル(バイト)から内符号の
パリティが生成される。図10Aの例では、10個の外
符号パリティのシンボルと、12個の内符号のパリティ
のシンボルとが付加される。具体的なエラー訂正符号と
しては、リードソロモン符号が使用される。また、図1
0Aにおいて、1SYNCブロック内のVLCデータの
長さが異なるのは、59.94Hz、25Hz、23.97
6Hzのように、ビデオデータのフレーム周波数が異なる
のと対応するためである。
That is, a 10-byte outer code parity is generated from a predetermined number of symbols (bytes) aligned in the vertical direction of the array of VLC data, and the ID, DID, and VLC data (or external data) aligned in the horizontal direction are generated. Parity of the inner code is generated from a predetermined number of symbols (bytes) of the code parity. In the example of FIG. 10A, 10 outer code parity symbols and 12 inner code parity symbols are added. As a specific error correction code, a Reed-Solomon code is used. FIG.
At 0A, the difference between the lengths of VLC data in one SYNC block is 59.94 Hz, 25 Hz, and 23.97.
This is because the frame frequency of video data is different, such as 6 Hz.

【0083】図10Bに示すように、オーディオデータ
に対する積符号もビデオデータに対するものと同様に、
10シンボルの外符号のパリティおよび12シンボルの
内符号のパリティを生成するものである。オーディオデ
ータの場合は、サンプリング周波数が例えば48kHzと
され、1サンプルが24ビットに量子化される。1サン
プルを他のビット数例えば16ビットに変換しても良
い。上述したフレーム周波数の相違に応じて、1SYN
Cブロック内のオーディオデータの量が相違している。
前述したように、1フィールド分のオーディオデータ/
1チャンネルによって2ECCブロックが構成される。
1ECCブロックには、偶数番目および奇数番目の一方
のオーディオサンプルとオーディオAUXとがデータと
して含まれる。
As shown in FIG. 10B, the product code for audio data is the same as that for video data.
The parity of the 10-symbol outer code and the parity of the 12-symbol inner code are generated. In the case of audio data, the sampling frequency is, for example, 48 kHz, and one sample is quantized to 24 bits. One sample may be converted to another number of bits, for example, 16 bits. According to the difference in the frame frequency described above, 1SYN
The amount of audio data in the C block is different.
As described above, one field of audio data /
One channel forms two ECC blocks.
One ECC block includes one of even-numbered and odd-numbered audio samples and audio AUX as data.

【0084】図11は、この発明の一実施形態の記録側
構成のより具体的な構成を示す。図11において、16
4がICに対して外付けのメインメモリ160のインタ
ーフェースである。メインメモリ160は、SDRAM
で構成されている。インターフェース164によって、
内部からのメインメモリ160に対する要求を調停し、
メインメモリ160に対して書込み/読出しの処理を行
う。また、パッキング部107a、ビデオシャフリング
部107b、パッキング部107cによって、パッキン
グおよびシャフリング部107が構成される。
FIG. 11 shows a more specific configuration of the recording side configuration according to an embodiment of the present invention. In FIG. 11, 16
Reference numeral 4 denotes an interface of the main memory 160 external to the IC. The main memory 160 is an SDRAM
It is composed of With the interface 164,
Arbitrates internal requests for main memory 160,
Write / read processing is performed on the main memory 160. The packing and shuffling unit 107 is constituted by the packing unit 107a, the video shuffling unit 107b, and the packing unit 107c.

【0085】図12は、メインメモリ160のアドレス
構成の一例を示す。メインメモリ160は、例えば64
MビットのSDRAMで構成される。メインメモリ16
0は、ビデオ領域250、オーバーフロー領域251お
よびオーディオ領域252を有する。ビデオ領域250
は、4つのバンク(vbank#0、vbank#1、
vbank#2およびvbank#3)からなる。4バ
ンクのそれぞれは、1等長化単位のディジタルビデオ信
号が格納できる。1等長化単位は、発生するデータ量を
略目標値に制御する単位であり、例えばビデオ信号の1
ピクチャ(Iピクチャ)である。図12中の、部分A
は、ビデオ信号の1シンクブロックのデータ部分を示
す。1シンクブロックには、フォーマットによって異な
るバイト数のデータが挿入される(図5A参照)。複数
のフォーマットに対応するために、最大のバイト数以上
であって、処理に都合の良いバイト数例えば256バイ
トが1シンクブロックのデータサイズとされている。
FIG. 12 shows an example of the address configuration of the main memory 160. The main memory 160 is, for example, 64
It is composed of an M-bit SDRAM. Main memory 16
0 has a video area 250, an overflow area 251 and an audio area 252. Video area 250
Are four banks (vbank # 0, vbank # 1,
vbank # 2 and vbank # 3). Each of the four banks can store digital video signals of one equal length unit. One equalization unit is a unit for controlling the amount of generated data to a substantially target value, for example, one unit of a video signal.
This is a picture (I picture). Part A in FIG.
Indicates a data portion of one sync block of the video signal. Data of a different number of bytes is inserted into one sync block depending on the format (see FIG. 5A). In order to support a plurality of formats, the data size of one sync block is equal to or more than the maximum number of bytes and is a number of bytes convenient for processing, for example, 256 bytes.

【0086】ビデオ領域の各バンクは、さらに、パッキ
ング用領域250Aと内符号化エンコーダへの出力用領
域250Bとに分けられる。オーバーフロー領域251
は、上述のビデオ領域に対応して、4つのバンクからな
る。さらに、オーディオデータ処理用の領域252をメ
インメモリ160が有する。
Each bank in the video area is further divided into a packing area 250A and an area 250B for output to the inner encoding encoder. Overflow area 251
Consists of four banks, corresponding to the video area described above. Further, the main memory 160 has an area 252 for audio data processing.

【0087】この一実施形態では、各マクロブロックの
データ長標識LTを参照することによって、パッキング
部107aが固定枠長データと、固定枠を越える部分で
あるオーバーフローデータとをメインメモリ160の別
々の領域に分けて記憶する。固定枠長データは、シンク
ブロックのデータ領域の長さ以下のデータであり、以
下、ブロック長データと称する。ブロック長データを記
憶する領域は、各バンクのパッキング処理用領域250
Aである。ブロック長より短いデータ長の場合には、メ
インメモリ160の対応する領域に空き領域を生じる。
ビデオシャフリング部107bが書込みアドレスを制御
することによってシャフリングを行う。ここで、ビデオ
シャフリング部107bは、ブロック長データのみをシ
ャフリングし、オーバーフロー部分は、シャフリングせ
ずに、オーバーフローデータに割り当てられた領域に書
込まれる。
In this embodiment, by referring to the data length indicator LT of each macroblock, the packing unit 107a separates the fixed frame length data and the overflow data that is beyond the fixed frame into separate data in the main memory 160. The data is divided and stored. The fixed frame length data is data shorter than the length of the data area of the sync block, and is hereinafter referred to as block length data. The area for storing the block length data is the packing processing area 250 of each bank.
A. If the data length is shorter than the block length, an empty area is created in the corresponding area of the main memory 160.
The video shuffling unit 107b performs shuffling by controlling the write address. Here, the video shuffling unit 107b shuffles only the block length data, and the overflow portion is written to the area assigned to the overflow data without shuffling.

【0088】次に、パッキング部107cが外符号エン
コーダ109へのメモリにオーバーフロー部分をパッキ
ングして読み込む処理を行う。すなわち、メインメモリ
160から外符号エンコーダ109に用意されている1
ECCブロック分のメモリに対してブロック長のデータ
を読み込み、若し、ブロック長のデータに空き領域が有
れば、そこにオーバーフロー部分を読み込んでブロック
長にデータが詰まるようにする。そして、1ECCブロ
ック分のデータを読み込むと、読み込み処理を一時中断
し、外符号エンコーダ109によって外符号のパリティ
を生成する。外符号パリティは、外符号エンコーダ10
9のメモリに格納する。外符号エンコーダ109の処理
が1ECCブロック分終了すると、外符号エンコーダ1
09からデータおよび外符号パリティを内符号を行う順
序に並び替えて、メインメモリ160のパッキング処理
用領域250Aと別の出力用領域250Bに書き戻す。
ビデオシャフリング部110は、この外符号の符号化が
終了したデータをメインメモリ160へ書き戻す時のア
ドレスを制御することによって、シンクブロック単位の
シャフリングを行う。
Next, the packing section 107c performs processing of packing and reading the overflow portion into the memory for the outer code encoder 109. That is, 1 is prepared from the main memory 160 to the outer code encoder 109.
The data of the block length is read into the memory of the ECC block, and if there is an empty area in the data of the block length, an overflow portion is read there to block the data to the block length. When the data for one ECC block is read, the reading process is temporarily suspended, and the outer code encoder 109 generates the parity of the outer code. The outer code parity is the outer code encoder 10
9 is stored in the memory. When the processing of the outer code encoder 109 is completed for one ECC block, the outer code encoder 1
From 09, the data and the outer code parity are rearranged in the order of performing the inner code, and are written back to the packing processing area 250A of the main memory 160 and another output area 250B.
The video shuffling unit 110 performs shuffling on a sync block basis by controlling an address at the time of writing back the data on which the encoding of the outer code has been completed to the main memory 160.

【0089】このようにブロック長データとオーバーフ
ローデータとを分けてメインメモリ160の第1の領域
250Aへのデータの書込み(第1のパッキング処
理)、外符号エンコーダ109へのメモリにオーバーフ
ローデータをパッキングして読み込む処理(第2のパッ
キング処理)、外符号パリティの生成、データおよび外
符号パリティをメインメモリ160の第2の領域250
Bに書き戻す処理が1ECCブロック単位でなされる。
外符号エンコーダ109がECCブロックのサイズのメ
モリを備えることによって、メインメモリ160へのア
クセスの頻度を少なくすることができる。
As described above, the block length data and the overflow data are separated and the data is written into the first area 250A of the main memory 160 (first packing process), and the overflow data is packed into the memory of the outer code encoder 109. (The second packing process), the generation of the outer code parity, and the data and the outer code parity in the second area 250 of the main memory 160.
The process of writing back to B is performed in units of one ECC block.
Since the outer code encoder 109 includes the memory having the size of the ECC block, the frequency of access to the main memory 160 can be reduced.

【0090】そして、1ピクチャに含まれる所定数のE
CCブロック(例えば32個のECCブロック)の処理
が終了すると、1ピクチャのパッキング、外符号の符号
化が終了する。そして、インターフェース164を介し
てメインメモリ160の領域250Bから読出したデー
タがID付加部118、内符号エンコーダ119、同期
付加部120で処理され、並列直列変換部124によっ
て、同期付加部120の出力データがビットシリアルデ
ータに変換される。出力されるシリアルデータがパーシ
ャル・レスポンスクラス4のプリコーダ125により処
理される。この出力が必要に応じてディジタル変調さ
れ、記録アンプ121を介して回転ヘッドに供給され
る。
A predetermined number of Es contained in one picture
When the processing of the CC block (for example, 32 ECC blocks) is completed, the packing of one picture and the encoding of the outer code are completed. The data read from the area 250B of the main memory 160 via the interface 164 is processed by the ID addition unit 118, the inner code encoder 119, and the synchronization addition unit 120, and the output data of the synchronization addition unit 120 is output by the parallel / serial conversion unit 124. Is converted to bit serial data. The output serial data is processed by the partial response class 4 precoder 125. This output is digitally modulated as necessary, and supplied to the rotary head via the recording amplifier 121.

【0091】なお、ECCブロック内にヌルシンクと称
する有効なデータが配されないシンクブロックを導入
し、記録ビデオ信号のフォーマットの違いに対してEC
Cブロックの構成の柔軟性を持たせるようにしても良
い。ヌルシンクは、パッキングおよびシャフリングブロ
ック107のパッキング部107aにおいて生成され、
メインメモリ160に書込まれる。従って、ヌルシンク
がデータ記録領域を持つことになるので、これをオーバ
ーフロー部分の記録用シンクとして使用することができ
る。
It is to be noted that a sync block called null sync, in which valid data is not arranged, is introduced into the ECC block, and the ECC block is used to control the difference in the format of the recording video signal.
The flexibility of the configuration of the C block may be provided. The null sink is generated in the packing unit 107a of the packing and shuffling block 107,
Written to main memory 160. Therefore, since the null sync has a data recording area, it can be used as a recording sync for the overflow portion.

【0092】オーディオデータの場合では、1フィール
ドのオーディオデータの偶数番目のサンプルと奇数番目
のサンプルとがそれぞれ別のECCブロックを構成す
る。ECCの外符号の系列は、入力順序のオーディオサ
ンプルで構成されるので、外符号系列のオーディオサン
プルが入力される毎に外符号エンコーダ116が外符号
パリティを生成する。外符号エンコーダ116の出力を
メインメモリ160の領域252に書込む時のアドレス
制御によって、シャフリング部117がシャフリング
(チャンネル単位およびシンクブロック単位)を行う。
In the case of audio data, even-numbered samples and odd-numbered samples of one-field audio data form separate ECC blocks. Since the ECC outer code sequence is composed of audio samples in the input order, the outer code encoder 116 generates an outer code parity each time an outer code sequence audio sample is input. The address control when writing the output of the outer code encoder 116 to the area 252 of the main memory 160 causes the shuffling unit 117 to perform the shuffling (channel unit and sync block unit).

【0093】さらに、126で示すCPUインターフェ
ースが設けられ、システムコントローラとして機能する
外部のCPU127からのデータを受け取り、内部ブロ
ックに対してパラメータの設定が可能とされている。複
数のフォーマットに対応するために、シンクブロック
長、パリティ長を始め多くのパラメータを設定すること
が可能とされている。パラメータの一つとしてのシャフ
リングテーブルデータがビデオ用シャフリングテーブル
(RAM)128vおよびオーディオ用シャフリングテ
ーブル(RAM)128aに格納される。シャフリング
テーブル128vは、ビデオシャフリング部107bお
よび110のシャフリングのためのアドレス変換を行
う。シャフリングテーブル128aは、オーディオシャ
フリング117のためのアドレス変換を行う。
Further, a CPU interface indicated by 126 is provided, receives data from an external CPU 127 functioning as a system controller, and sets parameters for internal blocks. In order to support a plurality of formats, it is possible to set many parameters including a sync block length and a parity length. Shuffling table data as one of the parameters is stored in a video shuffling table (RAM) 128v and an audio shuffling table (RAM) 128a. The shuffling table 128v performs an address conversion for shuffling the video shuffling units 107b and 110. The shuffling table 128a performs an address conversion for the audio shuffling 117.

【0094】上述したように、ストリームコンバータ1
06からは、マクロブロック内の係数データ(可変長符
号)の同じ周波数成分をまとめるように並び替えたビデ
オデータ(ピクチャデータ)が発生する。例えばストリ
ームコンバータ106がSDTI受信部105に対して
リードリクエストを発生することによって、SDTI受
信部105のバッファに蓄えられているストリームを読
み込むようになされる。このリートリクエストをパッキ
ングおよびシャフリング部107が発行しても良い。ス
トリームコンバータ106からは、ピクチャデータ以外
のヘッダ情報等の非画像データも発生する。非画像デー
タは、MPEGシンタックスで規定されたヘッダ(PE
Sヘッダ、シーケンスヘッダ、GOPヘッダ、ピクチャ
ヘッダ)、並びにピクチャヘッダ中のユーザデータとし
て含まれるアンシアリイデータ(Ancillary Data: クロ
ーズドキャプション、テレテキスト、VITC等)であ
る。非画像データは、画像フォーマット、ユーザデータ
の量等によってデータ量が変動する可変長データであ
る。しかも、1フレーム当たりの非画像データの最大長
を見積もることは難しい。また、ビデオエレメンタリス
トリームの場合でも、マクロブロック当たりのデータの
最大長を見積もることが難しい。MPEGシンタックス
では、マクロブロック当たりのデータが原データより多
くなることが許容されている。例えば1フレームの全マ
クロブロックの内で、本来の画像データが少なく、その
多くをユーザデータにすることも可能である。
As described above, the stream converter 1
From 06, video data (picture data) rearranged so that the same frequency components of the coefficient data (variable length code) in the macroblock are collected is generated. For example, when the stream converter 106 issues a read request to the SDTI receiving unit 105, the stream stored in the buffer of the SDTI receiving unit 105 is read. The packing and shuffling unit 107 may issue this REIT request. The stream converter 106 also generates non-image data such as header information other than the picture data. Non-image data has a header (PE
S header, sequence header, GOP header, picture header) and ancillary data (closed caption, teletext, VITC, etc.) included as user data in the picture header. Non-image data is variable-length data whose data amount varies depending on the image format, the amount of user data, and the like. Moreover, it is difficult to estimate the maximum length of non-image data per frame. Even in the case of a video elementary stream, it is difficult to estimate the maximum length of data per macroblock. The MPEG syntax allows data per macroblock to be larger than the original data. For example, the original image data is small in all the macroblocks in one frame, and most of the image data can be used as user data.

【0095】この発明では、非画像データをピクチャデ
ータと同等に扱うので、ストリームコンバータ106か
らパッキングおよびシャフリング部107に対して非画
像データも供給され、ピクチャデータと共にパッキング
される。非画像データに対してては、1マクロブロック
のピクチャデータと同様に、一つの固定枠が割り当てら
れ、その先頭に長さ標識が付加される。従って、1編集
単位例えば1フレーム期間の発生データ量を所定のもの
に制御する場合には、非画像データを含むデータ量が所
定のものに制御され、1フレームの全マクロブロックの
数に1を加えた数の固定枠にピクチャデータおよび非画
像データがパッキングされる。この一実施形態では、1
GOPが1枚のIピクチャで構成され、1スライスが1
マクロブロックで構成され、ピクチャデータがスライス
1から開始するので、以下の説明では、便宜上、非画像
データをスライス0と呼び、ピクチャデータのスライス
を総称してスライスXと呼ぶ。
In the present invention, since non-image data is handled in the same manner as picture data, non-image data is also supplied from the stream converter 106 to the packing and shuffling unit 107, and is packed together with the picture data. One fixed frame is allocated to the non-image data, as in the case of the picture data of one macroblock, and a length indicator is added to the head thereof. Therefore, when the amount of data generated in one editing unit, for example, one frame period is controlled to a predetermined value, the data amount including non-image data is controlled to a predetermined value, and 1 is set to the number of all macroblocks in one frame. Picture data and non-image data are packed in the added number of fixed frames. In this embodiment, 1
A GOP is composed of one I picture, and one slice is one
Since the picture data is composed of macroblocks and picture data starts from slice 1, in the following description, non-image data is referred to as slice 0 for convenience, and slices of picture data are collectively referred to as slice X.

【0096】図13および図14を参照して、ストリー
ムコンバータ106とパッキングおよびシャフリング部
107との間のデータのインターフェースについて説明
する。図13は、スライスXのインターフェースを示
す。図13Aに示すシンクパルスと同期して、図13B
に示すように、スライスXのデータ(バイトシリアル)
が転送される。転送レートは、入力画像データのフォー
マットによって変わるが、例えばMPEGの規定の上限
値である50M bpsである。この転送レートに等しい周
波数のベースバンドクロックが使用される。
Referring to FIGS. 13 and 14, a data interface between stream converter 106 and packing and shuffling unit 107 will be described. FIG. 13 shows the interface of slice X. In synchronization with the sync pulse shown in FIG.
As shown in the figure, the data of slice X (byte serial)
Is transferred. The transfer rate varies depending on the format of the input image data, but is, for example, 50 Mbps, which is the upper limit specified by MPEG. A baseband clock having a frequency equal to this transfer rate is used.

【0097】スライスXの場合、シンクパルスが544
クロックの周期で発生し、544クロック中で最大51
2クロック(512バイト)の期間でデータを転送する
ようになされる。各周期で、1スライスのピクチャデー
タが転送される。上述したように、1マクロブロックで
発生するピクチャデータの最大長は、見積もりが難しい
が、この一実施形態では、一例として、512バイトを
スライスXの1スライスが越えないように、ストリーム
コンバータ106において制限している。また、図13
Cに示すように、ストリームコンバータ106からは、
各周期内で転送されるスライスの長さに一致した期間、
ハイレベルとなるイネーブル信号をデータと同期して発
生する。
In the case of slice X, the sync pulse is 544
Generated at the clock cycle, and a maximum of 51 out of 544 clocks
Data is transferred in a period of two clocks (512 bytes). In each cycle, one slice of picture data is transferred. As described above, it is difficult to estimate the maximum length of picture data generated in one macroblock. In this embodiment, for example, in the stream converter 106, one byte of the slice X does not exceed 512 bytes. Has restricted. FIG.
As shown in C, from the stream converter 106,
A period corresponding to the length of the slice transferred in each cycle,
A high-level enable signal is generated in synchronization with data.

【0098】パッキングおよびシャフリング部107
(パッキング部107a)では、図13Dに示すよう
に、シンクパルスでリセットされてからイネーブル信号
のハイレベルの期間を計測することによって、各周期で
転送されるスライスのデータ長を検出することができ
る。イネーブル信号を送る代わりに、パッキングおよび
シャフリング部107において受け取ったデータをカウ
ントする方法もあるが、予めストリームコンバータ10
6がストリームを知っているので、再度、パッキングお
よびシャフリング部107において解析する必要がない
ことので、イネーブル信号を送るようにしている。
Packing and shuffling unit 107
The (packing unit 107a) can detect the data length of the slice transferred in each cycle by measuring the high-level period of the enable signal after being reset by the sync pulse as shown in FIG. 13D. . Instead of sending an enable signal, the packing and shuffling unit 107 may count the data received.
Since the stream 6 knows the stream, it is not necessary to analyze the stream again in the packing and shuffling unit 107, so that an enable signal is sent.

【0099】図14は、スライス0をストリームコンバ
ータ106からパッキングおよびシャフリング部107
へ転送するインターフェースを説明するものである。ス
ライス0は、図14Bに示すように、上述したスライス
Xと同様に、544クロックの中の最大512クロック
の区間を使用して転送される。但し、図14Aに示すよ
うに、スライス0の転送が終了するまでシンクパルスが
発生せず、それによってスライス0が1スライスである
ことが指示される。図14Cに示すように、各周期の中
で、データの期間に対応してハイレベルとなるイネーブ
ル信号も転送される。パッキングおよびシャフリング部
107(パッキング部107a)では、図14Dに示す
ように、シンクパルスでリセットされてからイネーブル
信号のハイレベルの期間を計測することによって、スラ
イス0のデータ長を検出することができる。
FIG. 14 shows that the slice 0 is transferred from the stream converter 106 to the packing and shuffling unit 107.
This is an explanation of the interface for transferring data to. As shown in FIG. 14B, the slice 0 is transferred using a section of a maximum of 512 clocks out of the 544 clocks, similarly to the slice X described above. However, as shown in FIG. 14A, no sync pulse is generated until the transfer of slice 0 is completed, thereby indicating that slice 0 is one slice. As shown in FIG. 14C, in each cycle, an enable signal that goes high in accordance with the data period is also transferred. As shown in FIG. 14D, the packing and shuffling unit 107 (packing unit 107a) can detect the data length of slice 0 by measuring the period of the high level of the enable signal after being reset by the sync pulse. it can.

【0100】なお、スライスXは、図13Eに示すよう
に、固定の3バイトのスタートコード(000001)
H(Hは16進を意味する)の後に、スライススタート
コード(01)H〜(AF)Hが続くように規定されて
いる。一方、スライス0の場合には、図14Eに示すよ
うに、固定の3バイトのスタートコードの後に、sequen
ce header code(B3)Hが続く。従って、スライス0
とスライスXとを識別するために、スライス0の場合に
は、スタートコードを(000000)Hに変更する。
他の方法として、スタートコードを共に(00000
1)Hとして、その後が(B3)Hかどうかを調べて、
スライス0とスライスXとを識別するようにしても良
い。
The slice X has a fixed 3-byte start code (000001) as shown in FIG. 13E.
H (H means hexadecimal) is followed by slice start codes (01) H to (AF) H. On the other hand, in the case of slice 0, as shown in FIG. 14E, after a fixed 3-byte start code,
ce header code (B3) H follows. Therefore, slice 0
In the case of slice 0, the start code is changed to (000000) H in order to identify slice X and slice X.
Alternatively, the start code can be set to (00000
1) As H, then check whether (B3) H or not,
Slice 0 and slice X may be identified.

【0101】上述したインターフェースは、要約する
と、スライスXのシンクパルスの間隔が544クロック
の固定とし、有効データの区間をイネーブル信号で示
し、その最大長を512クロックとし、シンクパルスの
間隔内でイネーブル信号の立ち上がりおよび立ち下がり
がそれぞれ1回とされる。スライス0については、1シ
ンク間隔内で、イネーブル信号の立ち上がりおよび立ち
下がりが複数回あることがある。さらに、図13Bおよ
び図14Bにおいて斜線で示すように、スライス0およ
びスライスXの何れの場合でも、シンクパルスの間隔よ
り有効データの区間が短いので、データが転送されない
期間が生じる。このデータを転送できない期間をスライ
ス0およびスライスXの両者に関して設けることによっ
て、瞬間的に必要となるメインメモリ160の転送レー
トを下げることができ、消費電力の削減や内部メモリを
なくすことが可能となる。
In summary, in the above-described interface, the interval of the sync pulse of slice X is fixed at 544 clocks, the valid data section is indicated by an enable signal, the maximum length is 512 clocks, and the enable is enabled within the interval of the sync pulse. The signal rises and falls once each. For slice 0, the rise and fall of the enable signal may occur a plurality of times within one sync interval. Further, as indicated by hatching in FIGS. 13B and 14B, in any of the slices 0 and X, the period of valid data is shorter than the interval of the sync pulse, so that a period in which data is not transferred occurs. By providing a period during which this data cannot be transferred for both slice 0 and slice X, the transfer rate of main memory 160, which is required instantaneously, can be reduced, and power consumption can be reduced and internal memory can be eliminated. Become.

【0102】シンクパルスは、ストリームコンバータ1
06がビデオエレメンタリストリームから以下のような
順序で生成する。
The sync pulse is supplied to the stream converter 1
06 are generated from the video elementary stream in the following order.

【0103】if(PES header があれば) PES headerの最初の00の1クロック前 Else if(Sequence header があれば) Sequence headerの最初の00の1クロック前 Else if(GOP headerがあれば) GOP header の最初の00の1クロック前 Else Picture header の最初の00の1クロック前 にシンクパルスをhighとする。その後は、slice header
(MB data) までlow のままとする。従って、user data
のstart code等にはシンクパルスを付けない。
If (if there is a PES header) one clock before the first 00 of the PES header Else if (if there is a Sequence header) one clock before the first 00 of the Sequence header Else if (if there is a GOP header) GOP One clock before the first 00 of the header The sync pulse is set high one clock before the first 00 of the Else Picture header. After that, slice header
Leave low until (MB data). Therefore, user data
No sync pulse is added to the start code or the like.

【0104】さらに、上述したように、データを転送す
るインターフェースについて図15を参照してより詳細
に説明する。図15Aがシンクパルスを示し、図15B
がストリームコンバータ106からのビデオエレメンタ
リストリームを示す。図15Bの例では、シンクパルス
の間隔(544クロック)を4個使用してスライス0の
データを間欠的に転送し、その後、スライス1から順に
転送している。
Further, as described above, the interface for transferring data will be described in more detail with reference to FIG. FIG. 15A shows a sync pulse, and FIG.
Indicates a video elementary stream from the stream converter 106. In the example of FIG. 15B, the data of slice 0 is intermittently transferred using four sync pulse intervals (544 clocks), and thereafter, the data is sequentially transferred from slice 1.

【0105】スライス0がシーケンスヘッダが始まる場
合では、スライス0のデータの内容は、例えば図15C
に示すものである。スライス0は、第1のデータ部分、
第2のデータ部分、第3のデータ部分からなる。第1の
データ部分は、sequence header() 、sequence extensi
on()およびextension and user data(0)からなる。第2
のデータ部分は、group of pictures header()およびex
tension and user data(1)からなる。第3のデータ部分
は、picture header()、picture coding extension()お
よびextension and user data(2)からなる。この一実施
形態では、ピクチャ毎にsequence header() 、group of
pictures header()、picture header()を必ずスライス
0として付けるようにしている。さらに、スライスX
(スライス1、スライス2、・・・)には、それぞれsl
ice() の後にmacroblock()が続くデータである。extens
ion and user data() には、ビデオインデックス(垂直
ブランキング期間内の特定のライン中に挿入されるコー
ド化された情報)、ビデオアンシラリイデータ,クロー
ズドキャプション、テレテキスト、VITC(垂直ブラ
ンキング期間内に記録されるタイムコード)、LTC
(テープ長手方向に記録されるタイムコード)などのデ
ータが収められる。
When the sequence header of slice 0 starts, the content of the data of slice 0 is, for example, as shown in FIG.
It is shown in FIG. Slice 0 is the first data portion,
It consists of a second data part and a third data part. The first data part is sequence header (), sequence extensi
It consists of on () and extension and user data (0). Second
Data part of group of pictures header () and ex
Consists of tension and user data (1). The third data part consists of picture header (), picture coding extension (), and extension and user data (2). In this embodiment, sequence header (), group of
Pictures header () and picture header () are always attached as slice 0. Furthermore, slice X
(Slice 1, slice 2, ...)
This is the data that macro () follows ice (). extens
ion and user data () include video index (coded information inserted in a specific line in the vertical blanking period), video ancillary data, closed caption, teletext, and VITC (vertical blanking period). Time code recorded in a), LTC
(Time code recorded in the longitudinal direction of the tape).

【0106】各データの内容および多重化方法は、MP
EGシンタックス(ISO/IEC 13818-2) において規定され
ている。その一部について説明すると、図16がスター
トコード値の規定を示す。スタートコードは、ビデオエ
レメンタリストリーム中で特異なビットパターンを有す
る。各スタートコードは、2バイトの所定のビット列(0
000 0000 0000 0000) の後にスタートコード値が続くも
のである。例えばslice start codeが(01〜AF)と
規定され、sequence header codeが(B3)と規定され
ている。
The contents of each data and the multiplexing method are described in MP.
It is specified in EG syntax (ISO / IEC 13818-2). FIG. 16 shows the definition of the start code value. The start code has a unique bit pattern in the video elementary stream. Each start code has a 2-bit predetermined bit string (0
000 0000 0000 0000) followed by a start code value. For example, the slice start code is defined as (01 to AF), and the sequence header code is defined as (B3).

【0107】また、図17は、MPEGシンタックス
(ビデオシーケンス)を示すものである。図17中で現
れ、上述したようなデータ、すなわち、sequence heade
r() 、sequence extension()、extension and user dat
a() 、group of pictures header()、picture heade
r()、picture coding extension()がスライス0(非画
像データ)として扱われる。
FIG. 17 shows the MPEG syntax (video sequence). The data shown in FIG. 17 and described above, ie, the sequence heade
r (), sequence extension (), extension and user dat
a (), group of pictures header (), picture heade
r () and picture coding extension () are treated as slice 0 (non-image data).

【0108】図18は、Sequence header の内容を示す
ものである。例えばhorizontal size value (12ビッ
ト)が画像の横の画素数を表し、bit rate valueがビッ
トレートを表す。図19は、Group of pictures header
の内容を表す。例えばtime code がシーケンスの先頭か
らの時間を示し、closed gopは、GOP内の画像が他の
GOPから独立して再生可能なことを示す。図20は、
Picture headerの内容を示す。例えばpicture coding t
ype がピクチャタイプを示し、full pel forward vecto
r が動きベクトルの精度が整数画素か半画素単位かを示
す。
FIG. 18 shows the contents of the Sequence header. For example, the horizontal size value (12 bits) indicates the number of horizontal pixels of the image, and the bit rate value indicates the bit rate. FIG. 19 shows the Group of pictures header
Represents the contents of For example, time code indicates the time from the beginning of the sequence, and closed gop indicates that the images in the GOP can be reproduced independently of other GOPs. FIG.
Shows the contents of Picture header. For example, picture coding t
ype indicates picture type, full pel forward vecto
r indicates whether the accuracy of the motion vector is an integer pixel or a half pixel unit.

【0109】上述した一実施形態では、インターフェー
スのデータ幅を8ビットとして説明したが、他のビット
幅でも良い。また、シンクパルスのデータに対する位置
や、極性も一実施形態のものに限定されない。さらに、
この発明は、MPEG2のみならず、MPEG1のスト
リームに対しても適用可能なことは勿論であるが、MP
EG以外でも、ヘッダ部分がストリーム内に存在するよ
うなビデオストリームに対しても適用できる。さらに、
スライスの長さ情報を算出する方法は、一実施形態の方
法に限定されない。よりさらに、シンクパルスは、スト
リームコンバータが生成するのに限らず、パッキングお
よびシャフリング部がストリームを解析することによっ
て生成することも可能である。
In the above-described embodiment, the data width of the interface is 8 bits. However, another bit width may be used. Further, the position and the polarity of the sync pulse data are not limited to those of the embodiment. further,
The present invention can be applied not only to the MPEG2 stream but also to the MPEG1 stream.
In addition to the EG, the present invention can be applied to a video stream in which a header portion exists in the stream. further,
The method for calculating the slice length information is not limited to the method of one embodiment. Still further, the sync pulse is not limited to being generated by the stream converter, but can be generated by analyzing the stream by the packing and shuffling unit.

【0110】なお、この発明は、磁気テープ以外の光テ
ープ、光ディスク(光磁気ディスク、相変化型ディス
ク)等の記録媒体を使用する場合、データを伝送路を介
して伝送する場合に対しても適用することができる。
The present invention is applicable to a case where a recording medium such as an optical tape other than a magnetic tape, an optical disk (a magneto-optical disk, a phase-change disk) or the like is used, and a case where data is transmitted via a transmission line. Can be applied.

【0111】[0111]

【発明の効果】この発明では、ヘッダ等の非画像データ
であっても、可変長画像データと同等に扱うのて、非画
像データのデータ量が画像フォーマットによって変動し
ても、処理を複雑とすることなく、共通のハードウエア
によって処理することができる。また、テープ等の記録
媒体上に非画像データ専用の記録領域を設ける必要がな
いので、記録媒体上の無駄な領域が発生せず、記録媒体
の容量を有効に利用できる。さらに、非画像データと画
像データとの所定期間(例えば1フレーム)の合計デー
タ量を一定以下に制御することによって、非画像データ
のユーザデータとして種々のデータが将来盛り込まれ、
データ量が多くなっても容易に対応でき、拡張性に優れ
ている。
According to the present invention, even non-image data such as a header is handled in the same manner as variable-length image data, so that even if the data amount of the non-image data varies depending on the image format, processing becomes complicated. Without the need to use common hardware. Further, since there is no need to provide a recording area dedicated to non-image data on a recording medium such as a tape, there is no useless area on the recording medium, and the capacity of the recording medium can be effectively used. Further, by controlling the total data amount of the non-image data and the image data in a predetermined period (for example, one frame) to be equal to or less than a certain value, various data will be included in the future as user data of the non-image data,
It can easily cope with a large amount of data and has excellent scalability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の記録側の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a configuration on a recording side according to an embodiment of the present invention.

【図2】この発明の一実施形態の再生側の構成を示すブ
ロック図である。
FIG. 2 is a block diagram showing a configuration of a reproducing side according to an embodiment of the present invention.

【図3】トラックフォーマットの一例を示す略線図であ
る。
FIG. 3 is a schematic diagram illustrating an example of a track format.

【図4】トラックフォーマットの他の例を示す略線図で
ある。
FIG. 4 is a schematic diagram illustrating another example of a track format.

【図5】シンクブロックの構成の複数の例を示す略線図
である。
FIG. 5 is a schematic diagram illustrating a plurality of examples of a configuration of a sync block.

【図6】シンクブロックに付加されるIDおよびDID
の内容を示す略線図である。
FIG. 6 shows an ID and a DID added to a sync block.
FIG.

【図7】ビデオエンコーダの出力の方法と可変長符号化
を説明するための略線図である。
FIG. 7 is a schematic diagram for explaining an output method of a video encoder and variable-length encoding.

【図8】ビデオエンコーダの出力の順序の並び替えを説
明するための略線図である。
FIG. 8 is a schematic diagram for explaining rearrangement of an output order of a video encoder.

【図9】順序の並び替えられたデータをシンクブロック
にパッキングする処理を説明するための略線図である。
FIG. 9 is a schematic diagram for explaining a process of packing data rearranged in order into a sync block.

【図10】ビデオデータおよびオーディオデータに対す
るエラー訂正符号を説明するための略線図である。
FIG. 10 is a schematic diagram for explaining an error correction code for video data and audio data.

【図11】記録信号処理部のより具体的なブロック図で
ある。
FIG. 11 is a more specific block diagram of a recording signal processing unit.

【図12】使用するメモリのメモリ空間を示す略線図で
ある。
FIG. 12 is a schematic diagram illustrating a memory space of a memory to be used.

【図13】画像データの転送方法を説明するためのタイ
ミングチャートである。
FIG. 13 is a timing chart for explaining a method of transferring image data.

【図14】非画像データの転送方法を説明するためのタ
イミングチャートである。
FIG. 14 is a timing chart for explaining a method of transferring non-image data.

【図15】ビデオストリームの転送方法を説明するため
のタイミングチャートである。
FIG. 15 is a timing chart for explaining a video stream transfer method.

【図16】MPEGシンタックスのスタートコード値の
規定を示す略線図である。
FIG. 16 is a schematic diagram illustrating the definition of a start code value of MPEG syntax.

【図17】MPEGシンタックスを説明するための略線
図である。
FIG. 17 is a schematic diagram illustrating MPEG syntax.

【図18】MPEGシンタックスを説明するための略線
図である。
FIG. 18 is a schematic diagram illustrating MPEG syntax.

【図19】MPEGシンタックスを説明するための略線
図である。
FIG. 19 is a schematic diagram illustrating MPEG syntax.

【図20】MPEGシンタックスを説明するための略線
図である。
FIG. 20 is a schematic diagram illustrating MPEG syntax.

【符号の説明】[Explanation of symbols]

106・・・ストリームコンバータ、107・・・パッ
キングおよびシャフリング部、109、116・・・外
符号エンコーダ、110、117・・・シャフリング
部、118・・・ID付加部、120・・・同期付加
部、160・・・メインメモリ
106: stream converter, 107: packing and shuffling unit, 109, 116: outer code encoder, 110, 117: shuffling unit, 118: ID adding unit, 120: synchronization Additional unit, 160: main memory

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C053 FA20 FA21 GA11 GB15 GB22 GB26 GB30 GB38 JA01 LA01 5C059 MA00 MA23 ME01 PP04 RB02 RB19 RC02 RF04 RF21 SS11 SS30 TA73 TC18 TD11 UA02 UA05  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C053 FA20 FA21 GA11 GB15 GB22 GB26 GB30 GB38 JA01 LA01 5C059 MA00 MA23 ME01 PP04 RB02 RB19 RC02 RF04 RF21 SS11 SS30 TA73 TC18 TD11 UA02 UA05

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 複数の所定範囲の画像領域にそれぞれ対
応して発生した複数の可変長の画像データと、上記画像
データに関連する非画像データとからなるデータが入力
され、上記画像データおよび上記非画像データを複数の
固定枠に配置し、固定枠からはみ出すオーバーフローデ
ータを他の固定枠に生じた空き領域に詰め込むことを特
徴とする画像データ処理装置。
1. A method comprising the steps of: inputting data including a plurality of variable-length image data generated respectively corresponding to a plurality of predetermined ranges of image areas and non-image data related to the image data; An image data processing apparatus, wherein non-image data is arranged in a plurality of fixed frames, and overflow data that overflows the fixed frame is packed into a free area generated in another fixed frame.
【請求項2】 画像データを記録媒体に記録する記録装
置において、 複数の所定範囲の画像領域にそれぞれ対応して発生した
複数の可変長の画像データと、上記画像データに関連す
る非画像データとからなるデータが入力され、上記画像
データおよび上記非画像データを複数の固定枠に配置
し、固定枠からはみ出すオーバーフローデータを他の固
定枠に生じた空き領域に詰め込むパッキング部と、 上記パッキング部の出力に対してエラー訂正符号化の処
理と、上記固定枠に詰め込まれたデータ毎に同期信号を
付加する処理を行う処理部と、 上記処理部の出力を記録媒体に記録する記録手段とから
なることを特徴とする画像データ記録装置。
2. A recording apparatus for recording image data on a recording medium, comprising: a plurality of variable-length image data generated respectively corresponding to a plurality of predetermined image areas; and non-image data related to the image data. A packing unit for inputting the data consisting of: A processing unit that performs error correction encoding processing on the output, and adds a synchronization signal to each of the data packed in the fixed frame; and a recording unit that records the output of the processing unit on a recording medium. An image data recording device, characterized in that:
【請求項3】 請求項1または2において、 上記画像データおよび上記非画像データのそれぞれの長
さを示すデータ長標識を上記固定枠に対してそれぞれ挿
入することを特徴とする装置。
3. The apparatus according to claim 1, wherein a data length indicator indicating a length of each of the image data and the non-image data is inserted into the fixed frame.
【請求項4】 請求項1または2において、 上記画像データが1画面を分割した2次元領域毎に発生
し、1画面で発生する上記画像データおよび上記非画像
データの合計のデータ量が略目標値とされ、上記画像デ
ータを1画面の上記2次元領域の個数の整数倍の個数の
上記固定枠にパッキングし、上記非画像データを一つの
上記固定枠にパッキングすることを特徴とする装置。
4. The image data according to claim 1, wherein the image data is generated for each two-dimensional area obtained by dividing one screen, and a total data amount of the image data and the non-image data generated in one screen is substantially equal to a target. An apparatus for packing the image data into a fixed number of fixed frames whose number is an integral multiple of the number of the two-dimensional areas on one screen, and packing the non-image data into one fixed frame.
【請求項5】 請求項1または2において、 上記画像データが圧縮符号化により発生した符号化デー
タを可変長符号化することによって生成されたものであ
ることを特徴とする装置。
5. The apparatus according to claim 1, wherein the image data is generated by performing variable length encoding on encoded data generated by compression encoding.
【請求項6】 請求項5において、 上記圧縮符号化がDCTと可変長符号化とを組み合わせ
たものであることを特徴とする装置。
6. The apparatus according to claim 5, wherein the compression coding is a combination of DCT and variable length coding.
【請求項7】 請求項1または2において、 上記非画像データは、上記画像データの復元に必要な情
報を含むことを特徴とする装置。
7. The apparatus according to claim 1, wherein the non-image data includes information necessary for restoring the image data.
【請求項8】 請求項1または2において、 上記非画像データは、ユーザデータを含むことを特徴と
する装置。
8. The apparatus according to claim 1, wherein the non-image data includes user data.
【請求項9】 複数の所定範囲の画像領域にそれぞれ対
応して発生した複数の可変長の画像データと、上記画像
データに関連する非画像データとからなるデータが入力
されるステップと、 上記画像データおよび上記非画像データを複数の固定枠
に配置し、固定枠からはみ出すオーバーフローデータを
他の固定枠に生じた空き領域に詰め込むステップとから
なることを特徴とする画像データ処理方法。
9. A step of inputting data including a plurality of variable-length image data generated corresponding to a plurality of predetermined ranges of image areas and non-image data related to the image data, respectively. Arranging the data and the non-image data in a plurality of fixed frames, and packing overflow data that protrudes from the fixed frames into an empty area generated in another fixed frame.
JP31759598A 1998-11-09 1998-11-09 Image data processor its method and image data recorder Pending JP2000152174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31759598A JP2000152174A (en) 1998-11-09 1998-11-09 Image data processor its method and image data recorder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31759598A JP2000152174A (en) 1998-11-09 1998-11-09 Image data processor its method and image data recorder

Publications (1)

Publication Number Publication Date
JP2000152174A true JP2000152174A (en) 2000-05-30

Family

ID=18089980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31759598A Pending JP2000152174A (en) 1998-11-09 1998-11-09 Image data processor its method and image data recorder

Country Status (1)

Country Link
JP (1) JP2000152174A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539550A (en) * 2013-10-25 2016-12-15 メディアテック インコーポレイテッド Method and apparatus for controlling transmission of compressed pictures according to transmission synchronization events

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539550A (en) * 2013-10-25 2016-12-15 メディアテック インコーポレイテッド Method and apparatus for controlling transmission of compressed pictures according to transmission synchronization events
US10038904B2 (en) 2013-10-25 2018-07-31 Mediatek Inc. Method and apparatus for controlling transmission of compressed picture according to transmission synchronization events

Similar Documents

Publication Publication Date Title
KR100654072B1 (en) Data recording apparatus, data recording method, data recording and reproducing apparatus, data recording and reproducing method, data reproducing apparatus, data reproducing method, data record medium, digital data reproducing apparatus, digital data reproducing method, synchronization detecting apparatus, and synchronization detecting method
JP4010066B2 (en) Image data recording apparatus and recording method, and image data recording / reproducing apparatus and recording / reproducing method
KR100668993B1 (en) Signal processing apparatus and method, recording apparatus, playback apparatus, recording and playback apparatus, and stream processing apparatus and method
CA2287740C (en) Data processing apparatus and data recording apparatus
KR100796885B1 (en) Signal processor
WO2001058171A1 (en) Recording device and method, and reproducing device and method
KR100739262B1 (en) Recording apparatus and method, and reproducing apparatus and method
US6807366B1 (en) Data recording apparatus, data recording/reproducing apparatus, data recording method, and data recording/reproducing method
JP3775265B2 (en) Signal processing apparatus and method, recording / reproducing apparatus and method, and reproducing apparatus and method
JP2002142192A (en) Apparatus and method for signal processing and for recording
KR100681992B1 (en) Recording apparatus and method
JP3978903B2 (en) Data recording apparatus, data recording method, data processing apparatus, and data processing method
JP2000152174A (en) Image data processor its method and image data recorder
JP2000149455A (en) Data recorder and recording method, data recording and reproducing device and recording and reproducing method, and data recording medium
JP2000132914A (en) Data processor and data recorder
JP4038949B2 (en) Playback apparatus and method
JP2001155437A (en) Device and method for recording
JP2001169243A (en) Recorder and recording method, and reproducing device and reproducing method
JP4432284B2 (en) Recording apparatus and method
JP2000315386A (en) Addressing method of memory and data processor
JP2000312341A (en) Data transmitter, method therefor, recorder and recording and reproducing device
JP2002171524A (en) Data processor and method
JP2001218162A (en) Recording device and method
JP2000149441A (en) Data processing device, data processing method, and data reproducing device
JP2000149426A (en) Memory accessing device and method therefor, and data processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071218