JP2002502159A - Method and apparatus for encoding and decoding high performance television signals - Google Patents

Method and apparatus for encoding and decoding high performance television signals

Info

Publication number
JP2002502159A
JP2002502159A JP2000529078A JP2000529078A JP2002502159A JP 2002502159 A JP2002502159 A JP 2002502159A JP 2000529078 A JP2000529078 A JP 2000529078A JP 2000529078 A JP2000529078 A JP 2000529078A JP 2002502159 A JP2002502159 A JP 2002502159A
Authority
JP
Japan
Prior art keywords
signal sequence
video
region
image
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000529078A
Other languages
Japanese (ja)
Inventor
フー・イェンド
Original Assignee
ティアナン・コミュニケーションズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ティアナン・コミュニケーションズ・インコーポレーテッド filed Critical ティアナン・コミュニケーションズ・インコーポレーテッド
Publication of JP2002502159A publication Critical patent/JP2002502159A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【課題】標準MPEG−2圧縮エンジンを使用して、高性能なテレビジョン信号を符号化および復号化し、このような圧縮エンジンの効率を維持する。 【解決手段】 アーキテクチャは並列処理を備え、オーバーラップ構成した標準MPEG−2圧縮エンジンを用いて、圧縮性能を低下させないようにしている。ビデオエンコーダは複数領域プロセッサを備えて、ビデオ画像の連続入力を符号化する。各ビデオ画像は、オーバーラップ部分を持つ領域に分割され、各プロセッサにより連続画像の中の現在のビデオ画像の特定の領域を符号化する。領域プロセッサの各々は、ローカルメモリ内に、連続画像中の先行するビデオ画像を基にした参照フレームを格納し、符号化処理の動き補償に用いる。複数のローカルメモリに接続された参照フレームプロセッサは、隣接ローカルメモリに格納された参照フレームからの情報を用いて各参照フレームを更新する。符号化されたビデオ画像は、マクロブロックを構成し、各領域プロセッサは、オーバーラップ部分に相当する符号化されたビデオ画像からの特定マクロブロックを除去する手段を備え、他の領域プロセッサのビデオ画像と先の符号化したビデオ画像を連結して出力ビデオ信号を生成する。 (57) Abstract: Encode and decode high performance television signals using a standard MPEG-2 compression engine and maintain the efficiency of such compression engines. SOLUTION: The architecture has parallel processing and uses a standard MPEG-2 compression engine configured in an overlapping manner so as not to degrade the compression performance. The video encoder includes a multi-region processor for encoding a continuous input of video images. Each video image is divided into regions having overlapping portions, and each processor encodes a particular region of the current video image in the sequence. Each of the area processors stores, in a local memory, a reference frame based on a preceding video image in a continuous image, and uses the reference frame for motion compensation in the encoding process. A reference frame processor connected to the plurality of local memories updates each reference frame using information from the reference frame stored in the adjacent local memory. The coded video images constitute macroblocks, and each region processor comprises means for removing specific macroblocks from the coded video image corresponding to the overlap, and the video images of the other region processors And the above encoded video image are concatenated to generate an output video signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の背景】BACKGROUND OF THE INVENTION

FCC(Federal Communications Commission:連邦通信委員会)は、地上放 送に使用するATSCデジタルテレビジョン(Advanced Television Systems Co
mmittee Digital Television)標準の主要エレメントを採用した。ATSCデジ
タルテレビジョン(DTV)標準はモデルシステムの5つの主要コンポーネント
に対応しており、ユーザーにマルチメディア情報を配信する。ITU−R(Inte
rnational Telecommunications Union, Radio Communication Sector)のタスク
グループ11/3により定められたこのようなモデルシステムのブロック線図は
図1に示されており、ビデオ、オーディオ、トランスポート、無線周波/伝送お
よび受信器コンポーネントを含む。ビデオサブシステム100は、ISO/IEC IS 1
3818-2 International Standard(1994)のMoving Picture Experts Group, MPEG-
2 Videoに定められたMPEG-2標準に準拠して、処理前ビデオをデータ要素信号列 に圧縮する。オーディオサブシステム102は、処理前ビデオをITUの中のAu
dio Specialist Groupにより定められたDAC−3(Digital Audio Compressio
n 3)標準に準拠してデジタルオーディオのデータ要素信号列に圧縮する。
The FCC (Federal Communications Commission) has been using ATSC digital television (Advanced Television Systems Co.) for terrestrial broadcasting.
mmittee Digital Television) Standard main elements were adopted. The ATSC digital television (DTV) standard supports five major components of the model system and delivers multimedia information to users. ITU-R (Inte
A block diagram of such a model system, as defined by task group 11/3 of the National Telecommunications Union, Radio Communication Sector) is shown in FIG. 1 and includes video, audio, transport, radio frequency / transmission and receiver. Including components. The video subsystem 100 complies with ISO / IEC IS 1
3818-2 International Standard (1994) Moving Picture Experts Group, MPEG-
2 Compresses the unprocessed video into a data element signal sequence according to the MPEG-2 standard specified in Video. The audio subsystem 102 converts the unprocessed video to the Au in the ITU.
DAC-3 (Digital Audio Compressio) specified by dio Specialist Group
n 3) Compress to digital audio data element signal sequence according to the standard.

【0002】 サービスマルチプレックスおよびトランスポートコンポーネント104は、ビ
デオデータ要素信号列、オーディオデータ要素信号列、補助およびコントロール
データの要素信号列を、ISO/IEC IS 13818-2 International Standard(1994), M
PEG-2 Systemに定められたトランスポートストリームシンタックスを用いて単一
のビット信号列に多重化する。無線周波/伝送コンポーネント106は、チャネ
ルコーダおよびモジュレータを含む。チャネルコーダは追加の情報をトランスポ
ート信号列に供給することにより、受信器108が部分的に破損したビット
修復することを可能にする。モジュレータは、残留側波帯伝送を用いてデジタル
データを無線周波数信号に符号化する。
The service multiplex and transport component 104 converts a video data element signal sequence, an audio data element signal sequence, an auxiliary and control data element signal sequence into an ISO / IEC IS 13818-2 International Standard (1994), M
It is multiplexed into a single bit signal sequence using the transport stream syntax specified in the PEG-2 System. Radio frequency / transmission component 106 includes a channel coder and modulator. The channel coder provides additional information to the transport signal sequence to enable the receiver 108 to repair a partially corrupted bit sequence . The modulator encodes the digital data into a radio frequency signal using vestigial sideband transmission.

【0003】 MPEG−2標準は、5つの圧縮法を利用して高い圧縮比を実現する。こらら
は、離散コサイン変換(DCT)、差分符号化、量子化、エントロピー符号化お
よび動き補償の5つである。
[0003] The MPEG-2 standard utilizes five compression methods to achieve high compression ratios. These are the discrete cosine transform (DCT), differential coding, quantization, entropy coding, and motion compensation.

【0004】 DCTを8×8ピクセルのブロックに適用して、空間周波数を表す64の係数
を作り出す。ピクセルの少ないブロックに対しては、高周波係数の値は小さく、
ゼロにセットすることもできる。
[0004] The DCT is applied to an 8x8 pixel block to create 64 coefficients that represent spatial frequency. For blocks with fewer pixels, the value of the high frequency coefficient is smaller,
Can also be set to zero.

【0005】 ビデオフレームは、他のフレームからの情報に依存しないイントラフレーム(
Iフレーム)に符号化されて現在のフレームを復元し、また他のフレームからの
情報に依存するインターフレームであるPおよびBに符号化されて現在のフレー
ムを復元する。Pフレームは先行するPまたはIフレームに依存し、一方Bフレ
ームは先行するIまたはP、および後続するIまたはPに依存して、現在のフレ
ームを復元する。これらの先行するまたは後続するIおよびPフレームは参照フ
レームと呼ばれる。PおよびBフレームは、現在のフレームと隣接フレームとの
間の差だけを含む。低速運動ビデオシーケンスに対しては、PおよびBフレーム
の情報内容はきわめて少ない。
[0005] A video frame is an intra-frame (independent of information from other frames).
(I frame) to restore the current frame, and P and B, which are interframes that depend on information from other frames, to restore the current frame. The P frame depends on the preceding P or I frame, while the B frame relies on the preceding I or P and the subsequent I or P to restore the current frame. These preceding or succeeding I and P frames are called reference frames. P and B frames include only the difference between the current frame and adjacent frames. For slow motion video sequences, the information content of the P and B frames is very small.

【0006】 MPEG−2圧縮アルゴリズムは隣接フレーム間の動き予測を実行し、フレー
ム間の予測能力を向上させる。圧縮アルゴリズムは、マクロブロックとして知ら
れている4つのブロックすべてに対し、現在のマクロブロックの動きの距離と方
向を提供する動きベクトルを検索する。
[0006] The MPEG-2 compression algorithm performs motion prediction between adjacent frames and improves the prediction capability between frames. The compression algorithm searches all four blocks, known as macroblocks, for a motion vector that provides the distance and direction of motion for the current macroblock.

【0007】 各ブロックのDCT(離散コサイン変換)係数は、人間の目の応答に一致する
量子化マトリックスを基本にして重み付けされ量子化される。その結果を動きベ
クトルと組み合わせ、その後可変長符号化を使用して符号化し、伝送のための信
号列を生成する。
[0007] The DCT (discrete cosine transform) coefficients of each block are weighted and quantized based on a quantization matrix that matches the response of the human eye. The result is combined with the motion vector and then encoded using variable length coding to generate a signal sequence for transmission.

【0008】 MPEG−2標準に規定されたビデオ圧縮を実行するのに必要な計算量は非常
に多い。生放送などのリアルタイム圧縮が必要とされる用途では、ビデオ圧縮を
実現する方法は難しくなる。MPEG−2圧縮を実行する方法には、スライス−
ベースとマクロブロック−ベースの2つが知られている。図2に示したスライス
−ベース法では、ビデオフレーム120は、いくつかの隣接する領域120Aに
分割される。各領域は、異なるプロセッサ(P1、P2、P3、P4、P5)に
割り当てられ処理される。専用のセントラルプロセッサ122は、総合的な圧縮
動作を管理する。図3に示されるマクロブロック−ベース法では、各マクロブロ
ック124は完全に処理され、出力バッファ126に引き渡され、その後に次の
マクロブロックを処理する。
[0008] The amount of computation required to perform the video compression specified in the MPEG-2 standard is very large. In applications that require real-time compression, such as live broadcasting, it is difficult to achieve video compression. The method of performing MPEG-2 compression includes slice-
Base and macroblock-base are known. In the slice-based method shown in FIG. 2, the video frame 120 is divided into several adjacent regions 120A. Each area is assigned to a different processor (P1, P2, P3, P4, P5) and processed. A dedicated central processor 122 manages the overall compression operation. In the macroblock-based approach shown in FIG. 3, each macroblock 124 is completely processed and passed to an output buffer 126 before processing the next macroblock.

【0009】 MPEG−2標準は、レベルと呼ばれるパラメータ値(たとえば画像サイズ、
ビットレート)に関するプロファイルおよび制約条件の組み合わせとして知られ
るアルゴリズムツールを規定している。上記の公知のMPEG−2圧縮エンジン
は、NTSCおよびPALのような従来の放送テレビジョン信号に対する標準の
主レベル部分において主プロファイルを満足するように設計されている。主レベ
ルは、毎秒30フレームで720ピクセル×480アクテイブラインに定められ
ている。これに対し、DTV信号は、毎秒30フレームで1970ピクセル×1
080アクティブラインに定められている。これは、MPEG−2高レベルとし
て知られている。高レベルにおいて主プロファイルと定められているDTV信号
に必要な計算量は、主レベルにおいて主プロファイルと定められている現行の標
準テレビジョン信号に必要とされるものの約6倍に相当する。
The MPEG-2 standard defines parameter values called levels (eg, image size,
It defines an algorithm tool known as a combination of profiles and constraints on bit rate. The above known MPEG-2 compression engines are designed to satisfy the main profile in the standard main-level part for conventional broadcast television signals such as NTSC and PAL. The main level is defined as 720 pixels × 480 active lines at 30 frames per second. On the other hand, the DTV signal is composed of 1970 pixels × 1 at 30 frames per second.
080 active line. This is known as MPEG-2 High Level. The amount of computation required for a DTV signal defined as a main profile at a high level is about six times that required for a current standard television signal defined as a main profile at a main level.

【0010】[0010]

【発明の要約】SUMMARY OF THE INVENTION

既存のMPEG−2圧縮エンジンの利点を生かして高解像度ビデオ信号を符号
化し、一方でこのような圧縮エンジンの圧縮効率を維持することが望ましい。
It is desirable to encode high resolution video signals while taking advantage of existing MPEG-2 compression engines, while maintaining the compression efficiency of such compression engines.

【0011】 本発明の方法と装置は、主レベルモードにおいて主プロファイルで作動する標
準MPEG−2圧縮エンジンを用いて、高レベルにおけるMPEG−2主プロフ
ァイルに適合するDTV信号のような高解像度ビデオ信号に対して必要となる計
算量を処理できるアーキテクチァを提供する。本発明は、圧縮性能を犠牲にしな
いオーバーラップ構成として、このような標準MPEG−2圧縮エンジンを使用
する並列処理を提供する。
[0011] The method and apparatus of the present invention uses a standard MPEG-2 compression engine that operates with a main profile in a main level mode, and uses a standard MPEG-2 compression engine to operate at high levels, such as a DTV signal that conforms to the MPEG-2 main profile. Provide an architecture that can handle the required amount of computation. The present invention provides parallel processing using such a standard MPEG-2 compression engine as an overlapping configuration without sacrificing compression performance.

【0012】 したがって本発明のビデオエンコーダは、ビデオ画像の入力信号列を符号化す
る複数の領域プロセッサを含んでいる。各ビデオ画像は、オーバーラップ部分を
持つ領域に分割され、しかも各プロセッサは、主レベルにおけるMPEG−2主
プロファイルのような動き補償を含む符号化処理に従って信号列中の現在のビデ
オ画像の特定の領域を符号化する。領域プロセッサの各々は、信号列中の先行す
るビデオ画像に基づいてローカルメモリに参照フレームを格納して、符号化処理
の動き補償に使用する。複数のローカルメモリに接続された参照フレームプロセ
ッサは、隣接ローカルメモリに格納されている参照フレームからの情報により各
参照フレームを更新する。符号化された画像はマクロブロックから構成されてお
り、各領域プロセッサは、オーバーラップ部分に対応する符号化されたビデオ画
像から特定のマクロブロックを削除する手段を有し、その結果得られた符号化さ
れたビデオ画像を他の領域プロセッサのビデオ画像と連結することにより出力ビ
デオ信号列を生成する。
Accordingly, the video encoder of the present invention includes a plurality of domain processors for encoding an input signal sequence of a video image. Each video image is divided into regions with overlapping portions, and each processor determines a specific one of the current video image in the signal stream according to an encoding process that includes motion compensation such as an MPEG-2 main profile at the main level. Encode the region. Each of the area processors stores a reference frame in a local memory based on a preceding video image in the signal sequence and uses the reference frame for motion compensation in the encoding process. A reference frame processor connected to the plurality of local memories updates each reference frame with information from the reference frame stored in an adjacent local memory. The encoded image is composed of macroblocks, and each region processor has means for removing specific macroblocks from the encoded video image corresponding to the overlap, and the resulting code An output video signal sequence is generated by concatenating the segmented video image with a video image of another area processor.

【0013】 1つの実施形態においては、各領域プロセッサはビデオ画像の各々から特定の
画像領域を選択する画像選択ユニットを含む。圧縮エンジンは選択した画像領域
を圧縮して、マクロブロックの圧縮した領域の信号列を生成する。マクロブロッ
ク除去装置は、オーバーラップ部分に対応する圧縮した画像領域の信号列から特
定のマクロブロックを削除する。信号列連結ユニットは、圧縮した画像領域の信
号列を各領域のプロセッサからの信号列に連結して、出力ビデオの信号列を生成
する。
In one embodiment, each region processor includes an image selection unit that selects a particular image region from each of the video images. The compression engine compresses the selected image area to generate a signal sequence of the compressed area of the macroblock. The macroblock removing device removes a specific macroblock from a signal sequence in a compressed image area corresponding to an overlapped portion. The signal sequence concatenation unit concatenates the signal sequence of the compressed image region with the signal sequence from the processor in each region to generate a signal sequence of an output video.

【0014】 好ましい実施形態は複数の領域プロセッサを備えてオーバーラップ領域を処理
するが、本発明は各領域を順次処理する単一プロセッサ実施形態を包含する。
Although the preferred embodiment has multiple region processors to handle overlapping regions, the present invention encompasses a single processor embodiment that processes each region sequentially.

【0015】 本発明の別の構成によれば、ビデオデコーダは、デマルチプレクサ、複数の領
域デコーダ、参照フレームメモリおよびマルチプレクサを含む。デマルチプレク
サは、圧縮したビデオ画像信号列を複数の領域信号列に多重分離する。各ビデオ
画像は、連続する領域に分割され、その各々の領域の信号列は特定の領域に関係
付けされる。領域デコーダはそれぞれ、主レベルにおいてMPEG−2主プロフ
ァイルなどの動き補償を備える復号化処理に従って特定の領域の信号列を復号す
る。参照フレームメモリは、各領域デコーダに関連付けされた参照フレームを格
納する。領域デコーダは隣接領域の参照フレームを取り込み、動き補償処理に使
用する。マルチプレクサは、復号した領域の信号列を復号した出力の信号列に多
重化する。
According to another configuration of the present invention, a video decoder includes a demultiplexer, a plurality of area decoders, a reference frame memory, and a multiplexer. The demultiplexer demultiplexes the compressed video image signal sequence into a plurality of region signal sequences. Each video image is divided into contiguous regions, and the signal sequence in each region is associated with a particular region. Each of the area decoders decodes a signal sequence of a specific area according to a decoding process including motion compensation such as an MPEG-2 main profile at a main level. The reference frame memory stores a reference frame associated with each area decoder. The area decoder takes in the reference frame of the adjacent area and uses it for the motion compensation processing. The multiplexer multiplexes the signal sequence of the decoded area into the decoded output signal sequence.

【0016】 本発明の上記目的および他の目的、構成および利点は、添付図面に示す以下の
本発明の好ましい実施形態のさらに詳細な説明で明らかになるであろう。図面に
おいては同一参照符号は異なる図面でも同一部品を示す。
The above and other objects, configurations and advantages of the present invention will become apparent from the following more detailed description of the preferred embodiments of the present invention shown in the accompanying drawings. In the drawings, the same reference numerals indicate the same parts in different drawings.

【0017】 [発明の詳細な説明] 本発明は、主プロファイル(mp/ml)圧縮エンジンにおける既知のMPE
G−2主プロファイルの利点を持つ並列処理構成を採用して、高性能圧縮エンジ
ンを提供し、高いレベルにおけるMPEG−2主プロファイルに適合しているD
TV信号のような高解像度テレビジョン信号を符号化する。図4に、並列構成し
てMPEG−2圧縮エンジンを使用する第1方法を示す。この構成は、合計で9
つのMPEG−2mp/ml圧縮エンジンで構成しており、ATSCDTVビデ
オ画像(1920ピクセル×1080ライン)を包含する隣接領域を処理する。
各MPEG−2mp/mlエンジンは、NTSCビデオ画線(720ピクセル×
480ライン)に等しい領域144を処理することができる。図4に示すように
エンジン3、6、7、8および9は、NTSC画像よりも小さい領域を符号化す
る。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a known MPE in a main profile (mp / ml) compression engine.
Adopting a parallel processing configuration with the advantages of the G-2 main profile, providing a high performance compression engine and conforming to the MPEG-2 main profile at a higher level
Encode a high resolution television signal such as a TV signal. FIG. 4 illustrates a first method of using the MPEG-2 compression engine in a parallel configuration. This configuration has a total of 9
It consists of two MPEG-2 mp / ml compression engines and processes adjacent areas containing ATSC DTV video images (1920 pixels x 1080 lines).
Each MPEG-2 mp / ml engine uses NTSC video streaks (720 pixels x
480 lines). As shown in FIG. 4, engines 3, 6, 7, 8 and 9 encode regions smaller than NTSC images.

【0018】 この第1方法により提供される圧縮は最適値よりも小さい。各エンジン内で実
行される動き補償は、当然そのNTSC画像フォーマット境界を越えては探索し
ないように制約される。この結果、割り当てられたエンジン領域間の境界に沿っ
たマクロブロックは、動き補償の効果を必ずしも受けられない。
The compression provided by this first method is less than optimal. The motion compensation performed within each engine is naturally constrained to not search beyond its NTSC image format boundaries. As a result, macroblocks along the boundaries between assigned engine regions do not always receive the effect of motion compensation.

【0019】 図5に示した本発明の好ましい方法は、MPEG−2圧縮エンジンの並列構成
を備えており、これらのエンジンはATSC DTVビデオ画像142のオーバ
ーラップ領域146、148、150、152を処理するように配置されている
。好ましい方法においては、その特定領域に対する特定エンジンにより実行され
る動き補償は、隣接領域に拡張される。発明の背景に説明したように、動き補償
は参照画像(IまたはPフレーム)を使用して、フレーム符号化処理における現
在のフレームを予測する。好ましい方法では、動き補償を隣接領域に拡張して、
フレーム符号化処理の最後に、隣接エンジンの参照フレームからの情報で参照画
像を更新する。
The preferred method of the present invention shown in FIG. 5 comprises a parallel arrangement of MPEG-2 compression engines, which process the overlapping areas 146, 148, 150, 152 of the ATSC DTV video image 142. It is arranged to be. In the preferred method, the motion compensation performed by the particular engine for that particular region is extended to adjacent regions. As described in the Background of the Invention, motion compensation uses a reference image (I or P frame) to predict the current frame in the frame encoding process. In a preferred method, the motion compensation is extended to adjacent regions,
At the end of the frame encoding process, the reference image is updated with information from the reference frame of the adjacent engine.

【0020】 さらに詳しく説明すると、各エンジンはメモリに最大2つの参照フレームを格
納する。フレーム符号化処理プロセスの最後で、2つの参照フレームのどちらか
が更新された場合には、その参照フレームはさらに更新されて隣接エンジンから
のフレーム符号化結果を反映する。
More specifically, each engine stores up to two reference frames in memory. At the end of the frame encoding process, if either of the two reference frames is updated, the reference frame will be further updated to reflect the frame encoding results from the adjacent engine.

【0021】 図6に、本発明のビデオエンコーダ100Aの好ましい実施形態を示す。ビデ
オエンコーダ100Aは、デジタルビデオレシーバ160および圧縮エンジンサ
ブシステム162を含む。デジタルビデオレシーバ160は、非圧縮のビデオを
外部供給源から、次の2つ異なるデジタル入力フォーマットのどちらかで受入れ
る。Panasonic720P(順次走査)並列フォーマットおよび1080
直列フォーマットのどちらかである。1080I直列フォーマットは、SMPT
E292M標準に従う1.484Gbpsの速度で非圧縮の1080ラインの飛
び越し走査(1080I)ビデオを備えている。デジタルレシーバ160は入力
信号をTCI422−40フォーマットと呼ばれる共通の内部フォーマットに変
換するが、このフォーマット中では20ビットが10ビットの解像度を持つ2つ
のYコンポーネントを、また20ビットが10ビットの解像度を持つ色コンポー
ネントを持つ。
FIG. 6 shows a preferred embodiment of the video encoder 100 A of the present invention. Video encoder 100A includes digital video receiver 160 and compression engine subsystem 162. Digital video receiver 160 accepts uncompressed video from an external source in one of two different digital input formats: Panasonic 720P (sequential scanning) parallel format and 1080
One of the serial formats. The 1080I serial format is SMPT
It has uncompressed 1080 line interlaced (1080I) video at 1.484 Gbps speed according to the E292M standard. Digital receiver 160 converts the input signal to a common internal format called the TCI422-40 format, in which 20 bits translate two Y-components with a 10-bit resolution and 20 bits translate a 10-bit resolution. It has a color component.

【0022】 図7A〜7Cを含む図7に示すビデオ圧縮エンジンサブシステム162の好ま
しい実施形態では、ビデオ入力コネクタ200、システムマネージャ202、ビ
ット割り当てプロセッサ204、いくつかの領域プロセッサ206およびPES
ヘッダジェネレータ208を含む。図7の構成の中には、9つの領域プロセッサ
206が示されているが、他の構成も可能であり、たとえば12の領域構成を実
行してより大きい動き補償の範囲を提供することも可能である。各領域プロセッ
サ206は、局所画像選択ユニット210、MPEG−2圧縮ユニット212、
マクロブロック除去装置および信号列の連結ユニット214/216、並びにロ
ーカルメモリ218を含む。圧縮サブシステム162も、1つまたはそれ以上の 参照画像マネージャ(RIM)220を含む。図7の構成においては、4つのR
IM220がある。RIM220をさらに詳しく説明する。
In the preferred embodiment of the video compression engine subsystem 162 shown in FIG. 7, including FIGS. 7A-7C, a video input connector 200, a system manager 202, a bit allocation processor 204, some domain processors 206 and a PES
A header generator 208 is included. Although nine domain processors 206 are shown in the configuration of FIG. 7, other configurations are possible, for example, a twelve domain configuration could be implemented to provide a greater range of motion compensation. It is. Each region processor 206 includes a local image selection unit 210, an MPEG-2 compression unit 212,
It includes a macroblock eliminator and a concatenation unit 214/216 for signal sequences and a local memory 218. Compression subsystem 162 also includes one or more reference image managers (RIMs) 220. In the configuration of FIG.
There is an IM220. The RIM 220 will be described in more detail.

【0023】 MPEG−2圧縮ユニット212は、好ましくはIBMモデルMM30シング
ルパッケージ、3チップユニットであるが、主レベル動作において主プロファイ
ルの可能な任意の標準MPEG−2圧縮エンジンを使用することもできる。
The MPEG-2 compression unit 212 is preferably an IBM Model MM30 single package, three-chip unit, but any standard MPEG-2 compression engine capable of main profile at main level operation may be used.

【0024】 ビデオ入力コネクタ200は、システムコントロールバス222およびTCI
422−40バスと呼ばれるビデオデータバス224を終端する。コントロール
バス222は、システムコントロールプロセッサ(図示されず)からのコントロ
ールデータをシステムマネージャ202に伝送する。TCI422−40バス2
24は、デジタルレシーバ160からのビデオデータを伝送する(図6)。
The video input connector 200 is connected to the system control bus 222 and the TCI
A video data bus 224 called a 422-40 bus is terminated. The control bus 222 transmits control data from a system control processor (not shown) to the system manager 202. TCI422-40 bus 2
24 transmits video data from the digital receiver 160 (FIG. 6).

【0025】 システムマネージャ202は、領域プロセッサ206を初期化し、外部装置と
相互交信し、ビデオ処理状態を監視し、プロセッサの同期を取り、フレームPT
Sを更新する。Advanced Micro Devices社のAM29Kチップを使用して、この
機能を実行する。
The system manager 202 initializes the area processor 206, interacts with external devices, monitors the video processing status, synchronizes the processors, and
Update S. This function is performed using an Advanced Micro Devices AM29K chip.

【0026】 システムマネージャ202は、すべての実行FPGAファイルを内部FLAS
Hメモリに保持する。スタートアップ後システムマネージャは、FLASHメモ
リからの前もって割当てたファイルを持つすべてのプロセッサとFPGAを初期
化する。システムマネージャ202は、MPEG−2圧縮ユニット212に対し
下記のパラメータを設定する。 ・GOP構造 ・フレームシート ・720Pビデオに対する順次符号化、1080Iビデオに対する飛び越し走 査符号化 ・符号化するフレームサイズ 下記の表1は、1080I符号化のための各MPEG−2圧縮ユニット212
のフレームサイズを示す。
The system manager 202 stores all executable FPGA files in the internal FLAS
H memory. After startup, the system manager initializes all processors and FPGAs with pre-allocated files from FLASH memory. The system manager 202 sets the following parameters for the MPEG-2 compression unit 212. GOP structure Frame sheet Sequential encoding for 720P video Interlaced encoding for 1080I video Frame size to encode Table 1 below shows each MPEG-2 compression unit 212 for 1080I encoding
Indicates the frame size.

【0027】[0027]

【表1】 [Table 1]

【0028】 下記の表2は、720P符号化のための各MPEG−2圧縮ユニットのフレー
ムサイズを示す。
Table 2 below shows the frame size of each MPEG-2 compression unit for 720P encoding.

【0029】[0029]

【表2】 [Table 2]

【0030】 システムマネージャは、ビデオ圧縮処理を監視する。マネージャは、毎秒1回
の割合で、各領域プロセッサ206の局所画像選択ユニット、MPEG−2ユニ
ット、マクロブロック除去ユニットおよび信号列の連結ユニットにおける正常状
態レジスタをポーリングする。
The system manager monitors the video compression process. The manager polls the normal status registers in the local image selection unit, the MPEG-2 unit, the macroblock removal unit and the signal string concatenation unit of each area processor 206 at a rate of once per second.

【0031】 システムマネージャ202は、9つの領域プロセッサ206全体のフレーム符
号化処理の同期を取る。下記は、同期化の必要性の背後に在る動機となる因子を
示す。次に、並列プロセッサの同期を取るためにシステムマネージャから要求さ
れるタスクについて説明する。
The system manager 202 synchronizes the frame coding processing of the entire nine area processors 206. The following shows the motivating factors behind the need for synchronization. Next, a task requested by the system manager to synchronize the parallel processors will be described.

【0032】 スケーラブルなMPEG−2アーキテクチャは、次のフレームのスタートの前
に、各領域プロセッサ206が現在のフレーム符号化処理を終了すること要求す
る。この要求は、隣接の並列プロセッサにまたがる参照画像を更新する必要性か
ら生まれる。各MPEG−2エンジンは内部の参照画像を使用して、現在の画像
を圧縮する。内部参照画像は、先行するフレームに対する圧縮処理の結果から導
き出される。本発明のスケーラブルなMPEG−2アーキテクチャにおいては、
参照画像の部分は隣接プロセッサからの参照画像を使用して更新される。
The scalable MPEG-2 architecture requires that each region processor 206 finish the current frame encoding process before the start of the next frame. This requirement arises from the need to update reference images across adjacent parallel processors. Each MPEG-2 engine uses the internal reference image to compress the current image. The internal reference image is derived from the result of the compression processing on the preceding frame. In the scalable MPEG-2 architecture of the present invention,
The portion of the reference image is updated using a reference image from an adjacent processor.

【0033】 下記の項目が、同期化の必要を生じさせる。 1.参照画像は、各符号化処理後に更新される。 2.各MPEG−2圧縮ユニットは、隣接プロセッサの中の参照画像の情報を
用いて内部参照画像を更新し、その後に次の画像を正しく符号化する必要がある
The following items give rise to the need for synchronization. 1. The reference image is updated after each encoding process. 2. Each MPEG-2 compression unit needs to update the internal reference image using the information of the reference image in the adjacent processor, and then correctly encode the next image.

【0034】 図8によれば各MPEG−2圧縮ユニットは、各符号化処理後に、現在の画像
圧縮完了(CICC)信号250を発生する。すべてのCICC信号を検出する
と、システムマネージャ202は参照画像マネージャ220にトリガーし、共通
の参照画像更新(RIU)信号252を用いて各MPEG−2圧縮ユニットの内
部参照画像を更新する。すべてのCICC信号がアクティブのときは、システム
マネージャは即座に応答する必要がある。何故ならば遅延すればMPEG−2エ
ンジン符号化時間に影響を及ぼすからである。
According to FIG. 8, each MPEG-2 compression unit generates a current image compression completion (CICC) signal 250 after each encoding process. Upon detecting all CICC signals, the system manager 202 triggers the reference image manager 220 to update the internal reference image of each MPEG-2 compression unit using a common reference image update (RIU) signal 252. When all CICC signals are active, the system manager needs to respond immediately. This is because the delay affects the MPEG-2 engine encoding time.

【0035】 更新を完了すると、各参照画像マネージャは、参照画像更新完了(RIUC)
信号254をアクティブにする。すべてのRIUC信号を検出すると、システム
マネージャは、すべてのローカル画像選択ユニット210をトリガーし、共通ス
タート画像ローディング(SIL)信号256を介して、次のフレームを圧縮ユ
ニット212にローディングするのを開始する。RIUがアクティブになる時間
と、またRIUCがアクティブになる時間の間の遅れは、1サイクル程度の長さ
であればよい。すべてのRIUC信号がアクティブになる時に、システムマネー
ジャが即座に応答する必要である。
When the update is completed, each reference image manager updates the reference image (RIUC)
The signal 254 is activated. Upon detecting all RIUC signals, the system manager triggers all local image selection units 210 and begins loading the next frame into the compression unit 212 via a common start image loading (SIL) signal 256. . The delay between the time when the RIU becomes active and the time when the RIUC becomes active may be as long as one cycle. When all RIUC signals become active, the system manager needs to respond immediately.

【0036】 システムマネージャは、PESヘッダジェネレータ内のPTSを更新する。シ
ステムマネージャは、領域プロセッサ♯1が新しい画面ヘッダを受け取る度に割
り込みを受ける。システムマネージャは、次にプロセッサ♯1'のビデオ入力ポ ートでラッチされたSTC値からの新しいPTS値、およびプロセッサ♯1'の 圧縮された出力ポートからのフレームタイプを計算する。
[0036] The system manager updates the PTS in the PES header generator. The system manager is interrupted each time the region processor # 1 receives a new screen header. The system manager then calculates the new PTS value from the STC value latched at the video input port of processor # 1 ', and the frame type from the compressed output port of processor # 1'.

【0037】 ビット割り当てプロセッサ204は、すべての領域プロセッサからの累積的な
圧縮ビットレートが、外部で定義された目標圧縮ビデオビットレートに確実に一
致するように動作する。ビット割り当てプロセッサは、各MPEG−2エンジン
の圧縮品質設定を動的に変化させて、最適のビデオ品質を維持する。
The bit allocation processor 204 operates to ensure that the cumulative compression bit rate from all domain processors matches the externally defined target compressed video bit rate. The bit allocation processor dynamically changes the compression quality setting of each MPEG-2 engine to maintain optimal video quality.

【0038】 局所画像選択ユニット(LISU)210は、TCI422−40データバス
224上の非圧縮入力データから局所画像を抽出する。またユニットは、MPE
G−2ユニット212により規定された入力フォーマットに一致するフォーマッ
トで局所画像を出力する。LISUは、下記のプログラミング可能なレジスタを
サポートする。 1.入力ビデオフォーマットレジスタ:このレジスタはTCI422−40バ スのデータが表すビデオフォーマットを定義する。0=1080I、1− 720P 2.局所画像位置レジスタ:これらのレジスタは、全体フィールド画像300 の中の局所フィールド画像の位置を指定する(図9)。
The local image selection unit (LISU) 210 extracts a local image from uncompressed input data on the TCI 422-40 data bus 224. The unit is MPE
The local image is output in a format that matches the input format defined by the G-2 unit 212. The LISU supports the following programmable registers. 1. Input Video Format Register: This register defines the video format represented by the data on the TCI422-40 bus. 0 = 1080I, 1-720P Local image position registers: These registers specify the position of the local field image in the entire field image 300 (FIG. 9).

【0039】 レジスタは、フィールド画像内のポイントを指定するが、再構成された順次画
像を指定するものではない。720Pビデオは、フレーム当り一つだけのフィー
ルド画像を持つのに対し、1080Iは、フレーム当たり2つのフィールド画像
を持つことに注意すべきである。
The register specifies a point in the field image, but does not specify a reconstructed sequential image. Note that the 720I video has only one field image per frame, while the 1080I has two field images per frame.

【0040】 4つのレジスタは、図9に示したように全体画像300中の局所画像302の
コーナー位置を指定する。4つのレジスタは下記を指定する。 Hstartレジスタ:局所画像302の第1アクティブピクセルのピクセル インデックス。全体画像300内の第1ピクセルは1 のインデックス値を持つ。 Hstopレジスタ:局所画像後の第1ノン−アクテイブ・ピクセルのピクセ ルインデックス。 Vstartレジスタ:局所画像内の第1アクティブラインのラインインデッ クス。全体画像の第1ラインは1のインデックス値を 持つ。 Vstopレジスタ:局所画像の後の第1ノン−アクテイブ・ラインのライン
インデックス
The four registers specify the corner positions of the local image 302 in the whole image 300 as shown in FIG. The four registers specify: Hstart register: Pixel index of the first active pixel of local image 302. The first pixel in the whole image 300 has an index value of 1. Hstop register: Pixel index of the first non-active pixel after the local image. Vstart register: Line index of the first active line in the local image. The first line of the whole image has an index value of one. Vstop register: line index of the first non-active line after the local image

【0041】 下記の表3は、各MPEG−2ユニット212でサポートされる各種のフォー
マットに対するレジスタの値を示す。
Table 3 below shows the register values for the various formats supported by each MPEG-2 unit 212.

【0042】[0042]

【表3】 [Table 3]

【0043】 マクロブロック除去およびビット連結(MRBC)ユニット214/216は
、MPEG−2ユニット212から受け取った主レベルビット信号列におけるM
PEG−2主プロファイルを、ATSC適合ビット信号列に変換する役割を持つ
。各MRBCユニットは、MPEG−2ユニット212からのビット信号列を走
査し編集し、さらに他のMRBCユニットと交信することによって、マクロブロ
ック除去およびビット連結の2つの役割を果たす。
The macroblock removal and bit concatenation (MRBC) unit 214/216 is used to transmit M bits in the main level bit signal sequence received from the MPEG-2 unit 212.
It has a role of converting the PEG-2 main profile into an ATSC compatible bit signal sequence. Each MRBC unit performs two functions of macroblock removal and bit concatenation by scanning and editing the bit signal sequence from the MPEG-2 unit 212 and communicating with other MRBC units.

【0044】 スケーラブルなMPEG−2アーキテクチャ(図7)は、1080Iビデオフォ
ーマット符号化用には9つのMPEG−2圧縮ユニット212を、また720P
ビデオフォーマット符号化用には8つのMPEG−2圧縮ユニットを使用する。
The scalable MPEG-2 architecture (FIG. 7) provides nine MPEG-2 compression units 212 for 1080I video format encoding and 720P
Eight MPEG-2 compression units are used for video format encoding.

【0045】 各MPEG−2圧縮ユニットは、アクティブ領域310と呼ばれる目標画像3
00の特定の領域を圧縮する役割を果たす。目標画像300は、オーバーラップ
のないアクティブ領域310によりカバーされている。図10は、1080Iに
対する処理前領域310Bおよびアクティブ領域310を示す。
Each MPEG-2 compression unit has a target image 3 called an active area 310.
It serves to compress a specific area of 00. The target image 300 is covered by an active area 310 without overlap. FIG. 10 shows the pre-processing area 310B and the active area 310 for 1080I.

【0046】 各MPEG−2圧縮ユニットは、目標画像300のアクティブ領域よりも大き
い領域(処理前領域)を圧縮する。アクティブ領域310は、対応する処理前領
域310Bの副領域である。したがって目標画像は、また処理前領域でカバーさ
れるが、隣接処理前領域の間にオーバーラップを持つ。すべての処理前領域31
0B、アクティブ領域310またはオーバーラップ領域310Aは、必ず16(
または32)の倍数のサイズになるため、アクティブ領域は処理前領域からいく
らかのマクロブロックを除去することにより得ることができる。
Each MPEG-2 compression unit compresses an area (pre-processing area) larger than the active area of the target image 300. The active area 310 is a sub-area of the corresponding pre-processing area 310B. Thus, the target image is also covered by the pre-processing area, but has overlap between adjacent pre-processing areas. All pre-processing areas 31
0B, the active area 310 or the overlap area 310A is always 16 (
Or 32), the active area can be obtained by removing some macroblocks from the pre-processing area.

【0047】 マクロブロック除去ユニット214は、オーバーラップ領域310Aにあるが
、機能的領域310にはないマクロブロックを削除する。
The macroblock removal unit 214 removes macroblocks that are in the overlap area 310 A but not in the functional area 310.

【0048】 機能的領域のサイズは下記から求められる。 Hact1=592 Vact1=Vact3=352 Hact2=480 Vact2=128 Hact3=608 Vol=128 Hol12=128 Hol23=112The size of the functional area is determined from the following. Hact1 = 592 Vact1 = Vact3 = 352 Hact2 = 480 Vact2 = 128 Hact3 = 608 Vol = 128 Hol12 = 128 Hol23 = 112

【0049】 次に図11によれば、各MPEG−2圧縮ユニット212に対して下記の整数
パラメータがマクロブロックの位置に関して定義される。 raw height:処理前領域310Bの高さ。 raw width:処理前領域310Bの幅。 left alignment:アクティブ領域310マクロブロック320
が水平方向にスタートする位置のマーク、したがって処理前領域内のこのマーク
の左のマクロブロックは除去される必要がある。 right alignment:アクティブマクロブロックが水平方向に終
了するマーク、したがって処理前領域内のこのマークの右のマクロブロックは除
去される必要がある。 top alignment:アクティブ領域マクロブロックが垂直方向にス
タートするマーク、したがッて処理前領域のこのマークの上のマクロブロックは
除去される必要がある。 bottom alignment:アクティブ領域マクロブロックが垂直方
向に終了するマーク、したがって処理前領域のこのマークの下のマクロブロック
は除去される必要がある。
Referring now to FIG. 11, the following integer parameters are defined for each MPEG-2 compression unit 212 with respect to macroblock position. raw height: height of the pre-processing area 310B. raw width: width of the pre-processing area 310B. left alignment: active area 310 macroblock 320
The mark at which starts horizontally, and therefore the macroblock to the left of this mark in the pre-processing area, needs to be removed. right alignment: The mark at which the active macroblock ends horizontally, and therefore the macroblock to the right of this mark in the pre-processing area, needs to be removed. top alignment: The mark at which the active area macroblock starts in the vertical direction, so that the macroblock above this mark in the pre-processing area needs to be removed. bottom alignment: The mark at which the active area macroblock ends vertically, and therefore the macroblock under this mark in the pre-processing area, needs to be removed.

【0050】 他の2つのパラメータの下記の定義は1080Iに対して指定される。 head mb skip:left alignmentからスキップした
マクロブロックおよびアクティブ領域内でスキップしないマクロブロックの数。 tail mb skip:アクティブ領域内の最後のスキップしないマクロ
ブロックからright alignmentにスキップしたマクロブロックの
数。
The following definitions of the other two parameters are specified for 1080I. head mb skip: left Number of macroblocks skipped from the alignment and not skipped in the active area. tail mb skip: right from the last non-skippable macroblock in the active area Number of macroblocks skipped to alignment.

【0051】 表現の便宜上下記のパラメータ:((raw width、raw heig ht)、(left alignment、right alignment)、(
top alignment、bottom alignment))を表すの に下記の取り決めが用いられ、MRBCユニットに対するコンフィグレーション
ベクトルと呼ばれる。このコンフィグレーションベクトルは、現在のMPEG−
2圧縮ユニットの処理前領域310Bおよびアクティブ領域310の境界を定義
し、したがってどのマクロブロックを削除すべきか、またどのマクロブロックを
保存すべきかを定義することに注意が必要である。
For convenience of expression, the following parameters: ((raw width, raw heigh ht), (left alignment, right alignment), (
top alignment, bottom The following convention is used to represent the alignment)) and is called the configuration vector for the MRBC unit. This configuration vector corresponds to the current MPEG-
Care must be taken to define the boundaries of the pre-processing area 310B and the active area 310 of the two-compression unit, and thus define which macroblocks should be deleted and which macroblocks should be preserved.

【0052】 1080Iに対する各MRBCユニットのコンフィグレーションベクトルの値
は下記の通りである。 ♯1:((45、30))、(0、41)、(0、26)) ♯2:((45、30))、(4、41)、(0、26)) ♯3:((45、30))、(3、45)、(0、26)) ♯4:((45、24))、(0、41)、(4、20)) ♯5:((45、24))、(4、41)、(4、20)) ♯6:((45、24))、(3、45)、(4、20)) ♯7:((45、30))、(0、41)、(4、30)) ♯8:((45、30))、(4、41)、(4、30)) ♯9:((45、30))、(3、45)、(4、40))
The value of the configuration vector of each MRBC unit for 1080I is as follows. ♯1: ((45, 30)), (0, 41), (0, 26)) ♯2: ((45, 30)), (4, 41), (0, 26)) ♯3: ( (45, 30)), (3, 45), (0, 26)) ♯4: ((45, 24)), (0, 41), (4, 20)) ♯5: ((45, 24) )), (4, 41), (4, 20)) ♯6: ((45, 24)), (3, 45), (4, 20)) ♯7: ((45, 30)), ( 0, 41), (4, 30)) ♯8: ((45, 30)), (4, 41), (4, 30)) ♯9: ((45, 30)), (3, 45) , (4, 40))

【0053】 MRBCユニット214/216は、処理前ベースのスライスに対する符号化
ビット信号列を走査し編集する。水平方向には、raw regionの上端と
top alignmentとの間、bottom alignmentと処理
前領域の下端との間の領域のマクロブロックは削除する必要がある。raw
egionの各列に対してraw regionの左端スタートとleft
lignmentとの間、right alignmentとraw regi
onの右端との間の領域内のマクロブロックは、削除する必要がある。結果とし
て得られたビット信号列はmr−processed rowと呼ばれる。各M
PEG−2ユニットは、各列に対して単一スライスを使用するため、mr−pr
ocessed rowは、またこの意味ではmr−processed sl
iceとも呼ばれる。
The MRBC unit 214/216 scans and edits the coded bit signal sequence for the unprocessed base slice. In the horizontal direction, raw top and top of region Bottom between alignment It is necessary to delete the macroblock in the region between the alignment and the lower end of the pre-processing region. raw r
raw for each column of the egion left end start and left of region a
between light and right alignment and raw regi
Macroblocks in the area between the right end of on and need to be deleted. The resulting bit signal sequence is called mr-processed row. Each M
The PEG-2 unit uses a single slice for each column, so mr-pr
The processed row is also mr-processed sl in this sense.
Also called ice.

【0054】 1081Iに対しては、mr−processed rowを形成する外にマ
クロブロック除去ユニットのいくつかはhead mb skipおよび/また
はtail mb skipに対する値を形成する必要がある。さらに最初は、
ローカル可変quant traceを使用してquantiser scal
codeを記録する。このquantiser scale codeは最
初はスライスヘッダ内のquantiser scale codeに設定され
、left alignmentまでにquantiser scale co
deが次のマクロブロック内に発生する度に更新される。
For 1081I, some of the macroblock removal units besides forming the mr-processed row, mb skip and / or tail mb It is necessary to form a value for skip. In the beginning,
Local variable quant quantizer using trace scal
e Record the code. This quantiser scale code is initially the quantifier in the slice header scale code and left Quantizer by alignment scale co
Updated each time de occurs in the next macroblock.

【0055】 特定のスライスから始まり、マクロブロック除去ユニットは符号化ビット信号
列を走査し、下記の手順を実施する。 −必要に応じてhead mb skipを計算する(1081Iに特有)。 −Left alignmentまでquant traceを更新する。m acroblock quantフラグがアクティブ領域内の最初のスキッ プしないマクロブロックに設定されていることをチェックする。設定が行わ れていなければmacroblock quantフラグが設定され、qu antiser scale codeの値がquant traceの値 に設定され、マクロブロックヘッダは、これに応じて再度形成される(10 81I符号化のための第2欄および第3欄のMRBCユニットに特有)。 ―走査の処理においてアクティブ領域内に保持するマクロブロックによってだ けmr−processedスライスを形成する。 ―必要に応じてtail mb skipの値を計算する(1081Iに特有 )。
Starting from a particular slice, the macroblock removal unit scans the coded bit signal sequence and performs the following procedure. -Head as required mb Calculate the skip (specific to 1081I). -Update quant trace until Left alignment. m acroblock Check that the quant flag is set for the first non-skipping macroblock in the active area. Macroblock if not configured The quant flag is set and the quantifier scale code value is quant The value of trace is set and the macroblock header is re-formed accordingly (specific to MRBC units in columns 2 and 3 for 1081I encoding). -Only the macroblocks held in the active area in the scanning process form mr-processed slices. -Tail as needed mb Calculate the value of skip (specific for 1081I).

【0056】 各ローカルMPEG−2圧縮ユニット212からのビット信号列を連結し、均
一なATSC適合DTVビット信号列を生成する必要がある。各MRBCユニッ
トは、そのローカルmr−processed スライスを、正しい時点に出力
バッファ208に置く必要がある(図7)。言い換えればMRBCユニット21
4/216の動作を同期化する必要がある。この様にMRBCユニットを同期化
するにはトークンメカニズムが用いられる。
The bit stream from each local MPEG-2 compression unit 212 needs to be concatenated to generate a uniform ATSC compliant DTV bit stream. Each MRBC unit needs to place its local mr-processed slice in the output buffer 208 at the correct time (FIG. 7). In other words, the MRBC unit 21
The operation of 4/216 needs to be synchronized. Thus, a token mechanism is used to synchronize the MRBC units.

【0057】 1080Iビデオフォーマット符号化について、図12にコミュニケーション
モデルを示す。720pビデオフォーマット符号化に対しては、プロセッサ♯2
、♯5、♯8は図13に示されたように除外される。追加の列は下端に加えられ
る。
FIG. 12 shows a communication model for 1080I video format encoding. For 720p video format encoding, processor # 2
, $ 5, $ 8 are excluded as shown in FIG. Additional rows are added at the bottom.

【0058】 トークンは、トークンを持つMRBCユニットがそのビットの信号列を出力バ
ス228を経由して出力バッファに送れることを表わしている。MRBCユニッ
トが別のMRBCユニットからの完成信号を受け取るときは、その信号はトーク
ンを持つ。MRBCユニット♯1は、新しいトークンを開始する役割を持つ。M
RBCユニット♯1は、タイムアウト変数を持つ。タイムアウトが生じるとエラ
ーが生じ、システムマネージャがリセットされる。トークンは、MRBCユニッ
トの間の指定されたライン270を通して送られる。1回には1つだけの有効な トークンしか認められない。
The token indicates that the MRBC unit having the token can send the signal sequence of the bit to the output buffer via the output bus 228. When an MRBC unit receives a completion signal from another MRBC unit, that signal has a token. MRBC unit # 1 is responsible for starting a new token. M
RBC unit # 1 has a timeout variable. If a timeout occurs, an error occurs and the system manager is reset. The token is sent over a designated line 270 between the MRBC units. Only one valid token is allowed at a time.

【0059】 1080Iビデオフォーマット符号化については、各DTVスライスは、同じ
列の3つのMRBCユニット内の3つのローカルスライスを連結することにより
得られる。各マクロブロックヘッダは、先行する非スキップマクロブロックと現
在のマクロブロックとの間のスキップしたマクロブロックの数に関する情報を含
み、この情報はローカルmr−processedスライスがDTVスライスに
組み込まれる時には更新される必要がある。さらに、第2および第3ローカル処
理されたスライス内の第1非スキップマクロブロックは、そのヘッダを更新され
る必要がある。
For 1080I video format encoding, each DTV slice is obtained by concatenating three local slices in three MRBC units in the same column. Each macroblock header contains information about the number of skipped macroblocks between the preceding non-skipped macroblock and the current macroblock, and this information is updated when a local mr-processed slice is incorporated into a DTV slice. There is a need. Further, the first non-skipped macroblock in the second and third locally processed slices needs to have its header updated.

【0060】 正しいヘッダ情報は、MRBCユニットによりDTVビット信号列に挿入され
る。ヘッダ情報は、ローカルMPEG−2ユニット212の出力バッファからの
ビット信号列を走査することにより得られる。1081Iビデオフォーマット符
号化に対して、MRBCユニット♯4および♯7は、スライスヘッダ情報を挿入
する役割を持つに過ぎない。
The correct header information is inserted into the DTV bit signal sequence by the MRBC unit. The header information is obtained by scanning a bit signal sequence from the output buffer of the local MPEG-2 unit 212. For 1081I video format encoding, MRBC units # 4 and # 7 only have the role of inserting slice header information.

【0061】 最後のMRBCユニットからのマクロブロックスキップ情報、tail mb
skipは受入れられ、ローカルhead mb skipと組み合わされる
。全マクロブロックスキップ情報は、次にmr−processedスライス内
の第1非スキップマクロブロックのマクロブロックヘッダに挿入され、スライス
ビット信号列は、次にDTV出力バッファに置かれる。次にローカルtail mb skipが次のMRBCユニットに、専用8−ピンデータバス228を介
して送られる。第1行のみのMRBCユニット(♯1、♯4、♯7)がtail mb skip情報を送り出し、第2行のMRBCユニット(♯2、♯5、♯
8)は、tail mb skip情報を受取りおよび送り出しの両方を行う、
第3行のMRBCユニット(♯3、♯6、♯9)は、tail mb skip
情報のみを受取る。
The macroblock skip information from the last MRBC unit, tail mb
 The skip is accepted and the local head mb combined with skip
. All macroblock skip information is next in the mr-processed slice.
Is inserted into the macroblock header of the first non-skipped macroblock of
The bit signal sequence is then placed in a DTV output buffer. Next, local tail  mb The skip connects to the next MRBC unit via a dedicated 8-pin data bus 228.
Sent. The MRBC unit of the first row only (# 1, $ 4, $ 7) is tail  mb The skip information is sent out, and the MRBC unit (# 2, # 5, #) in the second row is sent.
8) tail mb both receiving and sending skip information,
The MRBC units in the third row ($ 3, $ 6, $ 9) are tail mb skip
Receive information only.

【0062】 トークン信号を受取ると、MRBCユニットは、mr−processedス
ライスを更新し、これをDTV出力バッファに出力し、次にトークンをトークン
ラインをアクティブにして、次のMRBCユニットにトークンを引き渡す。
Upon receiving the token signal, the MRBC unit updates the mr-processed slice, outputs this to the DTV output buffer, then activates the token line, and passes the token to the next MRBC unit.

【0063】 1081Iビデオフォーマット符号化のためトークンを送る次のステップは、
下記の規則により従う。 ―同じ列に次のMRBCユニットが存在する場合には、トークンを次のMRB Cユニットに送る。 ―現在のMRBCユニットがMRBCユニットの列の末端にある場合は、出力 バッファに送られるスライスがアクティブ領域内の最後のスライスでなけれ ばトークンは同じ列の最初のMRBCユニットに送られる。送られるスライ スがアクティブ領域内の最後のスライスであるときには、トークンは次の列 の最初のMRBCに送られる。MRBCユニット♯9は、最終のmr−pr ocessedスライスの後にトークンをMRBCユニット♯1に送ること が唯一の例外である。
The next step of sending the token for 1081I video format encoding is:
Follow the rules below. -If the next MRBC unit exists in the same column, send the token to the next MRBC unit. -If the current MRBC unit is at the end of a row of MRBC units, the token is sent to the first MRBC unit in the same row unless the slice sent to the output buffer is the last slice in the active area. When the slice sent is the last slice in the active area, the token is sent to the first MRBC in the next column. The only exception is that MRBC unit # 9 sends a token to MRBC unit # 1 after the last mr-processed slice.

【0064】 上述のように参照画像マネージャ(RIM)220(図7)は、MPEG−2
圧縮ユニット212の各々により用いられる参照画像の更新を管理する。各RI
M220は、一つの領域プロセッサ206内のローカルメモリ218からの情報
を隣接プロセッサのローカルメモリに伝送する。各MPEG−2ユニット内の参
照画像は、フレーム符号化処理中に圧縮エンジンにより更新される。参照フレー
ムは、IまたはPフレームを符号化する時にのみ更新される。下記の例は、2つ
の参照フレームが図14に示されたように更新される際の順序を示す。
As described above, the reference image manager (RIM) 220 (FIG. 7)
Manage the updating of the reference image used by each of the compression units 212. Each RI
The M220 transmits information from the local memory 218 in one area processor 206 to the local memory of the adjacent processor. The reference image in each MPEG-2 unit is updated by the compression engine during the frame encoding process. The reference frame is updated only when encoding an I or P frame. The following example shows the order in which two reference frames are updated as shown in FIG.

【0065】 ローカルメモリ218の参照バッファAと参照バッファBに格納された2つの
参照画像および圧縮された出力シーケンスIBPPBBPBBIBBを考えるこ
ととする。第1のIフレームに対する圧縮処理で参照画像を形成する。この画像
は、参照バッファAに格納される。次の2つのBフレームに対する圧縮処理は、
参照画像を形成しない。次のPフレームに対する圧縮処理は参照画像を形成する
。次のPフレームまでは、新しい参照画像は形成されない。このPフレームの参
照画像は参照バッファAに格納される。Iフレームを圧縮する時に生じた先行す
る参照画像は次に消去される。
Consider two reference images stored in reference buffer A and reference buffer B of local memory 218 and a compressed output sequence IBPPBBPBBBIBB. A reference image is formed by a compression process on the first I frame. This image is stored in the reference buffer A. The compression process for the next two B frames is
No reference image is formed. The compression process for the next P frame forms a reference image. No new reference image is formed until the next P frame. The reference image of the P frame is stored in the reference buffer A. The preceding reference image generated when compressing the I-frame is then erased.

【0066】 参照バッファは、それがフレーム圧縮処理により変更される場合に限り、RI
M220により更新される必要がある。参照画像400Aは、隣接プロセッサか
らの参照画像400Aの情報を使用してRIM220により更新される、図15
では、センタプロセッサ内の参照画像400Aの領域400Cを更新する、RI
Mで使用される隣接プロセッサの参照画像内の領域400B示す。これらの面お
よびすべての面に隣接プロセッサ持たないコーナープロセッサに対しては、参照
画像中の空の隣接体に境界を接する領域は更新を必要としない。
The reference buffer only has RI reference if it is modified by the frame compression process.
It needs to be updated by M220. The reference image 400A is updated by the RIM 220 using the information of the reference image 400A from the adjacent processor, FIG.
Then, the area 400C of the reference image 400A in the center processor is updated.
The area 400B in the reference image of the adjacent processor used in M is shown. For corner processors that do not have adjacent processors on these planes and on all planes, the regions bordering the empty neighbors in the reference image need not be updated.

【0067】 RIM220は、上記のガイドラインに基づくフレームタイプと参照画像更新
との間の関係を維持する。RIMは、2つの参照バッファAおよびB(もしあれ
ば)のどちらが各フレーム符号化処理の最後にMPEG−2ユニットにより更新
されたかを識別する。
The RIM 220 maintains a relationship between frame types and reference image updates based on the above guidelines. The RIM identifies which of the two reference buffers A and B (if any) were updated by the MPEG-2 unit at the end of each frame encoding process.

【0068】 RIM220は、IBMエンコーダからのHenc inc信号、画面情報ブ
ロックの出力時点およびビデオ入力ポートの垂直同期信号を監視することにより
、MPEG−2ユニットが現在のフレームの符号化を完了した時点を求める。
The RIM 220 is a Henc from the IBM encoder By monitoring the inc signal, the output time of the screen information block, and the vertical synchronization signal of the video input port, the time when the MPEG-2 unit has completed encoding the current frame is determined.

【0069】 RIMは、MPEG−2圧縮ユニット、Henc inc信号および参照バッ
ファAおよびBの更新状態から抽出された画面情報ブロックからの情報を用いて
、色および輝度参照画像に対するローカルメモリ内での開始アドレスを計算する
。輝度および色参照開始アドレスは、各フレーム符号化処理の間には変化しない
と仮定できる。開始アドレスは、圧縮コンフィグレーションにより定義される。
RIM is an MPEG-2 compression unit, Henc The start address in the local memory for the color and luminance reference image is calculated using the inc signal and the information from the screen information block extracted from the update state of the reference buffers A and B. It can be assumed that the luminance and color reference start addresses do not change during each frame encoding process. The start address is defined by the compression configuration.

【0070】 RIM220は、各符号化処理の最後においてすべての変更された参照画像を
更新する。RIMは下記のテーブルに基づき、図16にも示されているように各
参照画像を更新する:
The RIM 220 updates all changed reference images at the end of each encoding process. The RIM updates each reference image based on the following table, as also shown in FIG.

【0071】[0071]

【表4】 [Table 4]

【0072】 ―BR1は領域RtlnおよびRblnの直後の第1ピクセルを指定する。 ―AR1は領域AtlnおよびAbnの直後の第1ピクセルを指定する。 ―BRCは領域Rtnの直後のラインを指定する。 ―ARtは領域Atnの直後のラインを指定する。 ―ARbは領域AlnおよびArnの直後のラインを指定する。 ―BRbは領域RlnおよびRrnの直後のラインを指定する。 ―BRrは領域RbnおよびRtnの直後の第1ピクセルを指定する。 ―ARrは領域AbnおよびAtnの直後の第1ピクセルを指定する。-BR1 specifies the first pixel immediately after the regions Rtln and Rbln. -AR1 specifies the first pixel immediately after the regions Atln and Abn. -BRC specifies the line immediately after the region Rtn. -ARt specifies the line immediately after the area Atn. -ARb designates the line immediately after the regions Aln and Arn. -BRb specifies the line immediately after the regions Rln and Rrn. -BRr specifies the first pixel immediately after regions Rbn and Rtn. -ARr specifies the first pixel immediately after the regions Abn and Atn.

【0073】 4つのRIMプロセッサ220は、図7の好ましい実施形態に必要な機能を実
行する。各RIMプロセッサ内のコンポーネントは、図17のブロック線図に示
されている。単一のRIMプロセッサ220が、ここでPtl、Ptr、Pbo
およびPbrと表した4つのビデオプロセッサのローカルメモリを管理する。R
IMは、64ビットデータ、9ビットアドレスおよび関連のDPRAMコントロ
ール信号に対するアクセスを持つ。RIM内で、12のローカルマネージャ22
0Aは、各参照画像400の周りの別の画像領域400B(図15)を管理する
The four RIM processors 220 perform the functions necessary for the preferred embodiment of FIG. The components within each RIM processor are shown in the block diagram of FIG. A single RIM processor 220 now has Ptl, Ptr, Pbo
And the local memory of the four video processors, denoted as Pbr. R
The IM has access to 64-bit data, 9-bit addresses and associated DPRAM control signals. Within the RIM, 12 local managers 22
OA manages another image area 400B (FIG. 15) around each reference image 400.

【0074】 図18は、各ローカルマネージャ220A内のコンポーネントを示す。ローカ
ルマネージャは、4つのバッファ220B、220Cを保持し、その内の2つは
参照画像Aに対する境界画像を保持し、他の2つは参照画像Bに対する境界画像
を保持する。各フレーム符号化処理中、AR領域内でデータを操作するときは、
MPEG−2ユニットがローカルメモリ218(図7)に読み込みおよび書き込
みを行う。同時にローカルマネージャは、AR/BRバッファ220B、220
Cの一つを更新する。この例として、バッファAはMPEG−2ユニットのロー
カルメモリ内のAR領域をミラーリングするデータを保持する。フレーム符号化
処理の最後においてローカルマネージャ内のコントローラ232は、AR/BR
バッファAを隣接MPEG−2ユニットのBR領域に再マッピングする。隣接M
PEG−2ユニットのBR領域としてマッピングされたバッファBは、センター
プロセッサのAR領域に再マッピングされる。参照画像がフレーム符号化処理を
通して更新される度にバッファを再マッピングするのはコントローラの役割であ
る。
FIG. 18 shows components within each local manager 220A. The local manager holds four buffers 220B, 220C, two of which hold the border image for reference image A and the other two hold the border image for reference image B. To operate data in the AR area during each frame encoding process,
The MPEG-2 unit reads and writes to local memory 218 (FIG. 7). At the same time, the local manager sends the AR / BR buffers 220B, 220
Update one of C. In this example, the buffer A holds data for mirroring the AR area in the local memory of the MPEG-2 unit. At the end of the frame encoding process, the controller 232 in the local manager
Buffer A is remapped to the BR area of the adjacent MPEG-2 unit. Neighbor M
The buffer B mapped as the BR area of the PEG-2 unit is remapped to the AR area of the center processor. It is the responsibility of the controller to remap the buffer each time the reference image is updated through the frame encoding process.

【0075】 PESヘッダジェネレータ208は、PESヘッダジェネレータをビデオ要素
信号列(単に信号列)中に挿入する。PESヘッダジェネレータは、この情報を
圧縮された信号列から直接抽出する。画面タイプ情報に対しては、ジェネレータ
はこの情報を圧縮されたビット信号列内の画面ヘッダから抽出する。PTS値に
対しては、PESジェネレータはPTS値を、画面タイプpt、gop構造go
psおよび入力ビデオSTCタイムスタンプのSTCViの情報から算出する。
PESヘッダジェネレータは、領域プロセッサ♯1のMPEG−2ユニットに入
る垂直同期信号を用いてSTCVi値をラッチする。
The PES header generator 208 inserts the PES header generator into a video element signal sequence (simply a signal sequence). The PES header generator extracts this information directly from the compressed signal sequence. For screen type information, the generator extracts this information from the screen header in the compressed bit signal sequence. For PTS values, the PES generator converts the PTS value to screen type pt, gop structure go
It is calculated from ps and STCVi information of the input video STC time stamp.
The PES header generator latches the STCVi value using the vertical synchronization signal entering the MPEG-2 unit of the area processor # 1.

【0076】 ATSC適合ビデオの信号列を復号するのに必要な計算量も非常に多い。この
ように、mpにおける標準MPEG−2mlの復号化に用いられる共通の順次復
号化アーキテクチャは、要求に適合しない。本発明のスケーラブルなアーキテク
チャは、既存のMPEG2復号エンジンを用いてATSC DTVビデオ信号列
を復号する。
The amount of calculation required to decode a signal sequence of an ATSC compliant video is very large. Thus, the common sequential decoding architecture used for decoding standard MPEG-2 ml in mp does not meet the requirements. The scalable architecture of the present invention decodes an ATSC DTV video signal sequence using an existing MPEG2 decoding engine.

【0077】 デコーダシステムの実施形態は4つの並列領域デコーダを備えている。システ
ムは、各デコーダがNTSCフォーマットの2.5倍のビデオフレームサイズを
復号できることを要求する。この要求は不合理ではない、なぜならば公知の復号
アルゴリズムにも厳しい要求ではないからである。図19に示すように、各デコ
ーダは、1920ピクセル×1080ラインであるATSCフレーム500内の
1920ピクセル×270ラインの局所領域500A、500B、500C、5
00Dを復号する。
[0077] Embodiments of the decoder system include four parallel region decoders. The system requires that each decoder be able to decode 2.5 times the video frame size of the NTSC format. This requirement is not unreasonable because it is not a severe requirement for known decoding algorithms. As shown in FIG. 19, each of the decoders has a local area 500A, 500B, 500C, 5C of 1920 pixels × 270 lines in an ATSC frame 500 that is 1920 pixels × 1080 lines.
00D is decoded.

【0078】 図20のブロック線図は圧縮された信号列のデマルチプレクサ522、4つの
並列領域デコーダ524A、524B、524C、524D、参照フレームスト
ア526A、526B、526Cおよびマルチプレクサ528を含むデコーダシ
ステム520のコンポーネントを示す。
FIG. 20 is a block diagram of a decoder system 520 including a demultiplexer 522 for compressed signal streams, four parallel domain decoders 524 A, 524 B, 524 C, 524 D, reference frame stores 526 A, 526 B, 526 C and a multiplexer 528. Indicates a component.

【0079】 圧縮された信号列のデマルチプレクサ522は、スライスヘッダ情報に基づい
て圧縮されたビデオ信号列521を多重分離して、領域信号列523A、523
B、523C、523Dを提供する。領域デコーダ524A、524B、524
C、524Dは、下記の2つの例外を除きMPEG−2に全面的に適合する圧縮
されたビット信号列523A、523B、523C、523Dを復号する。例外
とは、信号列がフレームを1920ピクセル×270ラインに限定し、動作ベク
トルが最大270ラインまで垂直寸法を越えて延びていることである。好ましい
実施形態においては、既存のMPEG−2デコーダを変更して、領域デコーダ5
24A、524B、524C、524Dに対して明記された例外を満足するよう
にする。
The demultiplexer 522 of the compressed signal sequence demultiplexes the compressed video signal sequence 521 based on the slice header information to form the region signal sequences 523A and 523.
B, 523C and 523D. Area decoders 524A, 524B, 524
C and 524D decode the compressed bit signal sequences 523A, 523B, 523C and 523D that are fully compatible with MPEG-2 with the following two exceptions. The exception is that the signal train limits the frame to 1920 pixels x 270 lines and the motion vector extends beyond the vertical dimension up to a maximum of 270 lines. In a preferred embodiment, the existing MPEG-2 decoder is modified to
Satisfy the exceptions specified for 24A, 524B, 524C, 524D.

【0080】 領域デコーダは、隣接の領域間の復号依存性にも対処する必要がある。復号処
理に対して重要な一つの依存性、つまり動きベクトル補償が存在する。動きベク
トル補償は、参照画像からのピクセル情報を利用することにより現在のマクロブ
ロック内にピクセルを作り出す。参照画像は、先行するIまたははPフレームか
ら作られた画像である。図21に示すように、動き補償を通して、手順は局所領
域を越えた領域に到達し、現在のブロック内にピクセルを作り出す。手順が到達
する最大の深さは、動きベクトルにより定義される最大長さによって決定される
The region decoder also needs to deal with decoding dependencies between adjacent regions. There is one important dependency on the decoding process: motion vector compensation. Motion vector compensation creates pixels in the current macroblock by utilizing pixel information from a reference image. The reference image is an image made from the preceding I or P frame. As shown in FIG. 21, through motion compensation, the procedure reaches a region beyond the local region and creates a pixel in the current block. The maximum depth reached by the procedure is determined by the maximum length defined by the motion vector.

【0081】 各領域デコーダは参照画像を他のデコーダで利用できるようにして、他のデ
コーダが動きベクトル補償手順を正しく実行するようにする。参照画像は、隣接
領域により共有される。前提条件は、最大動作ベクトルが270ラインである各
領域の幅を超えないことである。この前提条件は正当である、なぜならば実際の
圧縮されたビデオシーケンスは、270ラインよりも大きい動作ベクトルを形成
しないからである。
Each region decoder makes the reference image available to other decoders so that the other decoders correctly execute the motion vector compensation procedure. The reference image is shared by the adjacent areas. The precondition is that the maximum motion vector does not exceed the width of each region of 270 lines. This precondition is justified because the actual compressed video sequence does not form a motion vector larger than 270 lines.

【0082】 参照画像は、図22に示したような参照画像記憶を通して共有される。領域デ
コーダは、同時に2つのメモリ位置530、532、534、536に書き込む
。一つ(530、536)は現在のデコーダによる将来のアクセス用であり、他
の一つ(532、534)は隣接デコーダによる将来のアクセス用である。実施
形態は、動きベクトル補償ルーチンを実行する時に、2つのデコーダによる同時
読み込み実行している。
The reference image is shared through reference image storage as shown in FIG. The region decoder writes to two memory locations 530, 532, 534, 536 simultaneously. One (530, 536) is for future access by the current decoder, and the other (532, 534) is for future access by adjacent decoders. In the embodiment, when the motion vector compensation routine is executed, simultaneous reading is executed by two decoders.

【0083】 マルチプレクサ528は、非圧縮フレーム領域を多重化して全フレームに戻
す。マルチプレクサは、SMPTE274M標準に従って8ビットデジタルデー
タ信号列を構成する。
The multiplexer 528 multiplexes the uncompressed frame area and returns to the entire frame. The multiplexer forms an 8-bit digital data signal sequence according to the SMPTE 274M standard.

【0084】[0084]

【均等物】[Equivalent]

本発明を、好ましい実施形態について詳細に図示し説明してきたが、当業者に
は請求の範囲に限定した発明の精神と範囲から逸脱することなく形態と細部に各
種の改変を実施可能であることは理解できるところである。当業者には、日常的
な実験以上のものを用いることなく、本明細書に特に説明した発明の特定の実施
形態に対する多くの均等物を認識し、確認することができる。このような均等物
も、請求の範囲の中に包含するものとする。
While the invention has been illustrated and described in detail with reference to preferred embodiments, workers skilled in the art will recognize that various modifications can be made in form and detail without departing from the spirit and scope of the invention as defined by the appended claims. Is understandable. Those skilled in the art will recognize, and be able to ascertain using no more than routine experimentation, many equivalents to the specific embodiments of the invention specifically described herein. Such equivalents are intended to be included within the scope of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 最新のテレビジョンシステムの1つのモデルのブロック線図である。FIG. 1 is a block diagram of one model of a modern television system.

【図2】 主レベルでのMPEG−2主プロファイルに対するスライス−ベースの圧縮方
法を示すブロック線図である。
FIG. 2 is a block diagram illustrating a slice-based compression method for an MPEG-2 main profile at the main level.

【図3】 主レベルでのMPEG−2主プロファイルに対するマクロブロック−ベースの
圧縮方法を示すブロック線図である。
FIG. 3 is a block diagram illustrating a macroblock-based compression method for an MPEG-2 main profile at the main level.

【図4】 本発明による第1プロセッサ構成を示す図である。FIG. 4 is a diagram showing a first processor configuration according to the present invention.

【図5】 本発明による好ましいプロセッサ構成を示す図である。FIG. 5 illustrates a preferred processor configuration according to the present invention.

【図6】 本発明のビデオ符号化サブシステムのブロック線図である。FIG. 6 is a block diagram of the video encoding subsystem of the present invention.

【図7】 図6のビデオサブシステムのビデオ圧縮エンジンの概略ブロック線図である。FIG. 7 is a schematic block diagram of a video compression engine of the video subsystem of FIG. 6;

【図7A】 図7の一部のビデオ圧縮エンジンを示す概略ブロック線図である。FIG. 7A is a schematic block diagram illustrating a portion of the video compression engine of FIG. 7;

【図7B】 図7の一部のビデオ圧縮エンジンを示す概略ブロック線図である。FIG. 7B is a schematic block diagram illustrating a portion of the video compression engine of FIG. 7;

【図7C】 図7の一部のビデオ圧縮エンジン示す概略ブロック線図である。FIG. 7C is a schematic block diagram illustrating a portion of the video compression engine of FIG. 7;

【図8】 図7の圧縮エンジンに対する同期化構成を示すブロック線図である。FIG. 8 is a block diagram showing a synchronization configuration for the compression engine of FIG. 7;

【図9】 図7A〜7Cのエンジンに対する全体画像からの一部分の画像選択を示す図で ある。FIG. 9 is a diagram illustrating image selection of a part from the whole image for the engine of FIGS. 7A to 7C.

【図10】 図9の全体画像の処理前および実行領域を示す図である。FIG. 10 is a diagram showing a pre-processing and execution region of the entire image of FIG. 9;

【図11】 図10の画像の処理前領域内の実行領域を示す図である。11 is a diagram showing an execution area in a pre-processing area of the image of FIG. 10;

【図12】 1080Iビデオ処理構成に対するトークンパッシング方式のブロック線図で
ある。
FIG. 12 is a block diagram of a token passing scheme for a 1080I video processing configuration.

【図13】 720pビデオ処理構成に対するトークンパッシング方式のブロック線図であ
る。
FIG. 13 is a block diagram of a token passing scheme for a 720p video processing configuration.

【図14】 図7のシステムのローカルメモリの参照バッファ内の参照画像の割り当てを示
すブロック線図である。
FIG. 14 is a block diagram showing allocation of reference images in a reference buffer of a local memory of the system of FIG. 7;

【図15】 本発明の参照画像更新構成を示す図である。FIG. 15 is a diagram showing a reference image updating configuration according to the present invention.

【図16】 本発明による参照画像の領域を示す図である。FIG. 16 is a diagram showing an area of a reference image according to the present invention.

【図17】 図7のシステムの参照画像マネージャのブロック線図である。FIG. 17 is a block diagram of a reference image manager of the system of FIG. 7;

【図18】 図17の参照画像マネージャのローカルマネージャのブロック線図である。18 is a block diagram of a local manager of the reference image manager of FIG.

【図19】 本発明の復号化構成を示す図である。FIG. 19 is a diagram showing a decoding configuration of the present invention.

【図20】 本発明のデコーダシステムのブロック線図である。FIG. 20 is a block diagram of the decoder system of the present invention.

【図21】 図20のデコーダシステムにおける動き補償を示す図である。21 is a diagram illustrating motion compensation in the decoder system of FIG.

【図22】 図20のデコーダシステムの参照フレームストアのブロック線図である。FIG. 22 is a block diagram of a reference frame store of the decoder system of FIG. 20;

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GD,GE,GH,GM ,HR,HU,ID,IL,IN,IS,JP,KE, KG,KP,KR,KZ,LC,LK,LR,LS,L T,LU,LV,MD,MG,MK,MN,MW,MX ,NO,NZ,PL,PT,RO,RU,SD,SE, SG,SI,SK,SL,TJ,TM,TR,TT,U A,UG,UZ,VN,YU,ZW Fターム(参考) 5C059 KK13 LC09 MA00 MA05 MA23 MC11 ME01 NN11 PP05 PP06 PP07 SS02 SS05 TA13 TA30 TB06 TC25 TC32 TC36 TC42 TC44 UA02 UA05 UA33 UA37 【要約の続き】 他の領域プロセッサのビデオ画像と先の符号化したビデ オ画像を連結して出力ビデオ信号を生成する。──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, KE , KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, UZ, VN, YU, ZWF term (reference) 5C059 KK13 LC09 MA00 MA05 MA23 MC11 ME01 NN11 PP05 PP06 PP07 SS02 SS05 TA13 TA30 TB06 TC25 TC32 TC36 TC42 TC44 UA02 UA05 UA33 UA37 [Continued from the abstract] The output video signal is generated by concatenating the video image of another area processor and the previously encoded video image.

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 ビデオ画像の入力の信号列を符号化するためのプロセッサで
あって、各ビデオ画像はオーバーラップする部分を有する領域に分割され、前記
プロセッサが動き補償を含む現在のビデオ画像の各領域を符号化し、かつそれに
先行するビデオ画像信号列に基づきメモリ内に参照フレームを格納して、符号化
処理の動き補償に使用するプロッセッサと、 前記メモリに接続され、隣接の領域の参照フレームからの情報を用いて各参照
フレームを更新する参照フレームプロセッサと、 を備えているビデオエンコーダ。
1. A processor for encoding a signal sequence at an input of a video image, wherein each video image is divided into regions having overlapping portions, the processor comprising: A processor that encodes each region and stores a reference frame in a memory based on a video image signal sequence preceding the region and uses the reference frame for motion compensation of an encoding process; and a reference frame connected to the memory and adjacent to the memory. A reference frame processor for updating each reference frame with information from the video encoder.
【請求項2】 請求項1において、前記プロセッサが複数の領域プロセッサ
を備え、その各プロセッサが特定の領域を符号化するように割り当てられ、さら
に、前記メモリが各領域プロセッサのローカルメモリを備えているビデオエンコ
ーダ。
2. The method of claim 1, wherein the processor comprises a plurality of region processors, each of which is assigned to encode a particular region, and wherein the memory comprises a local memory of each region processor. Video encoder.
【請求項3】 請求項2において、前記符号化されたビデオ画像はマクロブ
ロックを備え、さらに各領域プロセッサはオーバーラップ部分に対応する符号化
されたビデオ画像から特定のマクロブロックを削除する手段と、得られた符号化
されたビデオ画像を他の領域プロセッサの符号化されたビデオ画像と連結するこ
とにより出力ビデオ信号列を生成する手段と、を備えているビデオエンコーダ。
3. The encoded video image of claim 2, wherein the encoded video image comprises macroblocks, and each of the region processors removes a specific macroblock from the encoded video image corresponding to the overlapped portion. Means for generating an output video signal sequence by concatenating the obtained encoded video image with the encoded video image of another area processor.
【請求項4】 請求項1において、前記符号化されたビデオ画像がマクロブ
ロックを備え、さらに前記プロセッサは、前記オーバーラップ部分に対応する前
記符号化されたビデオ画像から特定のマクロブロックを削除して出力ビデオ信号
列を生成するビデオエンコーダ。
4. The encoded video image of claim 1, wherein the encoded video image comprises macroblocks, and wherein the processor removes specific macroblocks from the encoded video image corresponding to the overlapped portion. A video encoder for generating an output video signal sequence.
【請求項5】 請求項1において、各領域に対する前記符号化処理が主レベ
ルにおいて主プロファイルを持つMPEG−2符号化を備えている、ビデオエン
コーダ。
5. The video encoder according to claim 1, wherein said encoding process for each region comprises MPEG-2 encoding having a main profile at a main level.
【請求項6】 請求項1において、前記入力信号列がATSC適合デジタル
ビデオ信号列であるビデオエンコーダ。
6. The video encoder according to claim 1, wherein the input signal sequence is an ATSC-compliant digital video signal sequence.
【請求項7】 請求項1において、入力信号列が高いレベルのMPEG−2
主プロファイルに適合するデジタルビデオ信号列であるビデオエンコーダ。
7. The method according to claim 1, wherein the input signal sequence has a high level of MPEG-2.
A video encoder that is a digital video signal sequence that conforms to the main profile.
【請求項8】 ビデオ画像の入力信号列を符号化するための複数の領域プロ
セッサであって、各ビデオ画像はオーバーラップする部分を有する領域に分割さ
れ、各プロセッサが動き補償を含む現在のビデオ画像の特定領域を符号化し、か
つそれに先行するビデオ画像信号列に基づきメモリ内に参照フレームを格納して
符号化処理の動き補償に使用する複数の領域プロッセッサと、 前記複数のローカルメモリに接続され、隣接領域の参照フレームからの情報を
用いて各参照フレームを更新する参照フレームプロセッサと、 を備えているビデオエンコーダ。
8. A plurality of regional processors for encoding an input signal sequence of a video image, wherein each video image is divided into regions having overlapping portions, each processor including a current video including motion compensation. A plurality of area processors that encode a specific area of an image and store a reference frame in a memory based on a video image signal sequence preceding the same and use it for motion compensation of an encoding process; and connected to the plurality of local memories. And a reference frame processor that updates each reference frame using information from a reference frame in an adjacent area.
【請求項9】 請求項8において、 前記符号化されたビデオ画像はマクロブロックを備え、 各領域プロセッサはさらに、オーバーラップ部分に対応する符号化されたビデ
オ画像から特定のマクロブロックを削除する手段と、得られた符号化されたビデ
オ画像を他の領域プロセッサの符号化されたビデオ画像と連結することにより出
力ビデオ信号列を生成する手段とを備えている ビデオエンコーダ。
9. The encoded video image of claim 8, wherein the encoded video image comprises macroblocks, and each of the region processors further removes a particular macroblock from the encoded video image corresponding to the overlap. And a means for generating an output video signal sequence by concatenating the obtained encoded video image with the encoded video image of another area processor.
【請求項10】 請求項8において、各領域に対する前記符号化処理が主レ
ベルにおいて主プロファイルを持つMPEG−2符号化を備えているビデオエン
コーダ。
10. The video encoder according to claim 8, wherein said encoding process for each region comprises MPEG-2 encoding having a main profile at a main level.
【請求項11】 請求項8において、前記入力信号列がATSC適合デジタ
ルビデオ信号列であるビデオエンコーダ。
11. The video encoder according to claim 8, wherein the input signal sequence is an ATSC-compliant digital video signal sequence.
【請求項12】 請求項8において、前記入力信号列が、高いレベルにおい
てMPEG−2主プロファイルに適合するデジタルビデオ信号列であるビデオエ
ンコーダ。
12. The video encoder according to claim 8, wherein the input signal sequence is a digital video signal sequence conforming to an MPEG-2 main profile at a high level.
【請求項13】 各ビデオ画像がオーバーラップ部分を持つ領域に分割され
たビデオ画像群の入力信号列を生成し、 各領域に対しては、 動き補償を含む符号化処理に従い前記信号列中の現在のビデオ画像の特定の領
域を符号化し、 前記信号列の中の先行するビデオ画像に基づき、参照フレームをローカルメモ
リに格納して前記符号化処理の動き補償に使用し、さらに 各参照フレームを隣接領域の参照フレームからの情報により更新する、 ステップを有するビデオ符号化の方法。
13. An input signal sequence of a video image group in which each video image is divided into regions having an overlap portion is generated, and for each region, the input signal sequence in the signal sequence is subjected to an encoding process including motion compensation. Encode a specific region of the current video image, store a reference frame in a local memory based on the previous video image in the signal sequence and use it for motion compensation in the encoding process, Updating with information from a reference frame in a neighboring region.
【請求項14】 請求項13において、前記符号化された画像がマクロブロ
ックを含んでおり、さらにオーバーラップ部分に対応する符号化されたビデオ画
像から特定マクロブロックを削除して出力ビデオ信号列を生成するステップを有
している、ビデオ符号化の方法。
14. The output video signal sequence according to claim 13, wherein the encoded image includes a macroblock, and further, a specific macroblock is deleted from the encoded video image corresponding to the overlap portion. A method of video encoding, comprising the step of generating.
【請求項15】 請求項13において、さらに、複数の領域プロセッサを設
け、各プロセッサに特定の領域を割り当てて、前記符号化と格納のステップを実
行するビデオ符号化の方法。
15. The video coding method according to claim 13, further comprising providing a plurality of area processors, allocating a specific area to each processor, and performing the coding and storing steps.
【請求項16】 ビデオ画像の入力信号列を符号化する複数の領域プロセッ
サであって、各ビデオ画像はオーバーラップ部分を持つ領域に分割されており、
さらに各領域プロセッサが、 ビデオ画像の各々から特定の画像領域を選択する画像選択ユニットと、 前記選択した画像領域を圧縮して、動き補償を含む符号化処理に従ってマクロ
ブロックを有する圧縮された画像領域信号列を生成する圧縮エンジンと、 符号化処理の動き補償に用いるために、先行する圧縮された画像領域に基づき
参照フレームを格納するローカルメモリと、 オーバーラップ部分に対応する圧縮された画像領域から特定のマクロブロック
を削除するマクロブロック除去装置と、 前記圧縮された画像領域の信号列を各領域プロセッサからの信号列と連結して
、出力ビデオ信号列を生成する信号列連結ユニットと、 隣接領域の参照フレームからの情報により各参照フレームを更新する参照フ
レームプロセッサと、 を備えているビデオエンコーダ。
16. A plurality of region processors for encoding an input signal sequence of a video image, wherein each video image is divided into regions having overlapping portions.
An image selection unit for each region processor to select a specific image region from each of the video images; and a compressed image region having macroblocks according to an encoding process including motion compensation by compressing the selected image region. A compression engine that generates a signal sequence; a local memory that stores a reference frame based on a preceding compressed image region for use in motion compensation of an encoding process; and a compressed image region corresponding to an overlap portion. A macroblock removing device for removing a specific macroblock; a signal sequence linking unit for linking the compressed image sequence signal sequence with a signal sequence from each region processor to generate an output video signal sequence; A reference frame processor that updates each reference frame with information from the reference frame of Video encoder.
【請求項17】 請求項16において、前記符号化処理が、主レベルにおい
て主プロファイルを持つMPEG−2符号化を備えているビデオエンコーダ。
17. The video encoder according to claim 16, wherein the encoding process comprises MPEG-2 encoding having a main profile at a main level.
【請求項18】 請求項16において、前記圧縮エンジンが主レベルエンジ
ンにおいてMPEG−2主プロファイルであるビデオエンコーダ。
18. The video encoder of claim 16, wherein said compression engine is an MPEG-2 main profile at a main level engine.
【請求項19】 各ビデオ画像がオーバーラップ部分を持つ領域に分割され
たビデオ画像群の入力信号列を生成し、 さらに各領域に対して、 ビデオ画像の各々から特定の画像領域を選択し、 前記選択した画像領域を圧縮して、動き補償を含む符号化処理に従ってマクロ
ブロックを有する圧縮された画像領域信号列を生成し、 符号化処理の動き補償に用いるために先行する圧縮された画像領域に基づく参
照フレームを格納し、 オーバーラップ部分に対応する圧縮された画像領域から特定のマクロブロック
を削除し、 前記圧縮された画像領域の信号列を各領域プロセッサからの信号列と連結して
、出力ビデオ信号列を生成し、 隣接領域の参照フレームからの情報により各参照フレームを更新する、 ステップを有するビデオ符号化の方法。
19. An input signal sequence of a group of video images in which each video image is divided into regions having overlapping portions, and further, for each region, selecting a specific image region from each of the video images; Compressing the selected image region to generate a compressed image region signal sequence having macroblocks according to an encoding process including motion compensation, and a preceding compressed image region to be used for motion compensation in the encoding process. Storing a reference frame based on, removing a specific macroblock from the compressed image region corresponding to the overlap portion, concatenating the signal sequence of the compressed image region with the signal sequence from each region processor, Generating an output video signal sequence and updating each reference frame with information from a reference frame in an adjacent region.
【請求項20】 請求項19において、さらに複数の領域プロセッサを設け
、その各々が選択、圧縮、格納、削除および連結のステップを実行するための特
定領域に割り当てられている、ビデオ符号化の方法。
20. The method of video coding according to claim 19, further comprising a plurality of region processors, each of which is assigned to a specific region for performing the steps of selecting, compressing, storing, deleting and concatenating. .
【請求項21】 圧縮されたビデオ画像群の信号列を複数領域の信号列に多
重分離し、その際、各ビデオ画像を隣接する領域に分割し、さらに各領域の信号
列を特定の領域に関連付けるデマルチプレクサと、 複数の領域デコーダであって、その各々が動き補償を含む復号化処理に従って
特定領域の信号列を復号化された領域の信号列に復号するものである複数の領域
デコーダと、 各領域デコーダに関連する参照フレームを格納する参照フレームメモリであっ
て、各領域デコーダが隣接領域の参照フレームを取出して復号化処理の動き補償
に使用するように設定された参照フレームメモリと、 復号された領域の信号列を復号された出力の信号列に多重化するマルチプレク
サと、 を備えているビデオデコーダ。
21. A signal sequence of a group of compressed video images is demultiplexed into a signal sequence of a plurality of regions. At this time, each video image is divided into adjacent regions, and the signal sequence of each region is further divided into a specific region. An associating demultiplexer; and a plurality of area decoders, each of which decodes a signal stream of a specific area into a signal stream of a decoded area according to a decoding process including motion compensation. A reference frame memory for storing reference frames associated with each area decoder, wherein each area decoder takes out a reference frame of an adjacent area and is set to be used for motion compensation in a decoding process; And a multiplexer for multiplexing the signal sequence in the decoded area into a decoded output signal sequence.
【請求項22】 請求項21において、各領域デコーダに対する前記復号処
理が主レベルにおいて主プロファイルを持つMPEG−2復号を備えているデコ
ーダ。
22. The decoder according to claim 21, wherein said decoding process for each area decoder comprises MPEG-2 decoding having a main profile at a main level.
【請求項23】 請求項21において、前記圧縮された信号列がATSC適
合デジタルビデオ信号列であるデコーダ。
23. The decoder according to claim 21, wherein the compressed signal sequence is an ATSC-compliant digital video signal sequence.
【請求項24】 請求項21において、前記圧縮された流れが高いレベルに
おいてMPEG−2主プロファイルに適合するデジタルビデオ信号列であるデコ
ーダ。
24. The decoder according to claim 21, wherein said compressed stream is a digital video signal sequence conforming to an MPEG-2 main profile at a high level.
【請求項25】 各ビデオ画像が連続領域に分割された圧縮ビデオ画像群の
入力信号列を生成し、 前記圧縮された信号列を複数の領域の信号列に多重分離し、各領域の信号列を
特定の領域に関連付け、 動き補償を含む復号化処理に従い各領域の信号列を復号し、 復号処理の動き補償に使用するために、各領域に関連する参照フレームを格納
して隣接領域の参照フレームを再現し、さらに、 前記復号された領域の信号列を復号された出力信号列に多重化する、 ステップを有するビデオ復号化の方法。
25. An input signal sequence of a group of compressed video images in which each video image is divided into continuous regions, the compressed signal sequence is demultiplexed into signal sequences of a plurality of regions, and a signal sequence of each region is generated. Is associated with a specific area, the signal sequence of each area is decoded according to the decoding processing including motion compensation, and the reference frame related to each area is stored and referred to the adjacent area to use for the motion compensation of the decoding processing. Regenerating a frame, and further multiplexing the signal sequence of the decoded region into a decoded output signal sequence.
【請求項26】 請求項25において、各領域の信号列を復号する前記ステ
ップが主レベルにおいて主プロファイルを持つMPEG−2復号化を有するビデ
オ復号化の方法。
26. The method of video decoding according to claim 25, wherein the step of decoding the signal sequence of each region comprises MPEG-2 decoding having a main profile at a main level.
【請求項27】請求項25において、前記入力信号列が高いレベルにおいて
MPEG−2主プロファイルに適合するデジタルビデオ信号列を有するビデオ復
号化の方法。
27. The method of video decoding according to claim 25, wherein said input signal sequence has a digital video signal sequence conforming to the MPEG-2 main profile at a high level.
JP2000529078A 1998-01-26 1999-01-21 Method and apparatus for encoding and decoding high performance television signals Pending JP2002502159A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US7243698P 1998-01-26 1998-01-26
US60/072,436 1998-01-26
US5442798A 1998-04-03 1998-04-03
US09/054,427 1998-04-03
PCT/US1999/001410 WO1999038316A2 (en) 1998-01-26 1999-01-21 Method and apparatus for advanced television signal encoding and decoding

Publications (1)

Publication Number Publication Date
JP2002502159A true JP2002502159A (en) 2002-01-22

Family

ID=26733026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000529078A Pending JP2002502159A (en) 1998-01-26 1999-01-21 Method and apparatus for encoding and decoding high performance television signals

Country Status (5)

Country Link
EP (1) EP1051839A2 (en)
JP (1) JP2002502159A (en)
AU (1) AU2337099A (en)
CA (1) CA2318272A1 (en)
WO (1) WO1999038316A2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3393595B2 (en) * 1998-09-25 2003-04-07 日本電信電話株式会社 Moving picture coding apparatus and moving picture coding method
JP2001285876A (en) * 2000-03-30 2001-10-12 Sony Corp Image encoding device, its method, video camera, image recording device and image transmitting device
JP2004519043A (en) * 2001-02-09 2004-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ A software system that deploys image processing functions on a programmable platform in a distributed processor environment
KR100605746B1 (en) 2003-06-16 2006-07-31 삼성전자주식회사 Motion compensation apparatus based on block, and method of the same
ES2345818T3 (en) 2003-08-01 2010-10-04 Llaza, S.A. ARTICULATED ARM FOR FOLDING.
US7881546B2 (en) 2004-09-08 2011-02-01 Inlet Technologies, Inc. Slab-based processing engine for motion video
JP2010183305A (en) 2009-02-05 2010-08-19 Sony Corp System and method for signal processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5212742A (en) * 1991-05-24 1993-05-18 Apple Computer, Inc. Method and apparatus for encoding/decoding image data
DE69331174T2 (en) * 1992-06-29 2002-06-06 Canon Kk Image processing device
JPH0837662A (en) * 1994-07-22 1996-02-06 Hitachi Ltd Picture encoding/decoding device

Also Published As

Publication number Publication date
EP1051839A2 (en) 2000-11-15
WO1999038316A3 (en) 2000-01-20
AU2337099A (en) 1999-08-09
CA2318272A1 (en) 1999-07-29
WO1999038316A2 (en) 1999-07-29

Similar Documents

Publication Publication Date Title
US11582459B2 (en) Method and system for picture segmentation using columns
US8817885B2 (en) Method and apparatus for skipping pictures
US20190058865A1 (en) System and method for encoding 3d stereoscopic digital video
US9338453B2 (en) Method and device for encoding/decoding video signals using base layer
KR100341055B1 (en) Syntax Analyzer for Video Compression Processor
CN1121673A (en) Method and apparatus for efficient addressing of dram in a video decompression processor
KR19980042224A (en) MPEG decoder system and method with integrated memory for transport, decryption, system controller functions
JP2001169292A (en) Device and method for processing information, and storage medium
JPH08505512A (en) Channel Buffer Management in Video Decoder
US20010026587A1 (en) Image encoding apparatus and method of same, video camera, image recording apparatus, and image transmission apparatus
US6961377B2 (en) Transcoder system for compressed digital video bitstreams
JPH10234043A (en) Dynamic image encoder and decoder
CN1197378C (en) Progressive scanning sequence for transmitting movable image expert group and other data format
JP3852366B2 (en) Encoding apparatus and method, decoding apparatus and method, and program
JP2002502159A (en) Method and apparatus for encoding and decoding high performance television signals
JP2001169278A (en) Device and method for generating stream, device and method for transmitting stream, device and method for coding and recording medium
JP4906197B2 (en) Decoding device and method, and recording medium
JP3112532B2 (en) Variable length code recording / reproducing apparatus and its recording / reproducing method
JPH11136686A (en) Decoded image conversion circuit and decoded image converter
JPH11239347A (en) Image data coder and image data coding method
JPH09247667A (en) Dynamic image coder and dynamic image decoder
JP5228077B2 (en) System and method for stereoscopic 3D video image digital decoding
JPH07107464A (en) Picture encoding device and decoding device
KR100210124B1 (en) Data deformatting circuit of picture encoder
JPH07274180A (en) Methods for encoding and decoding video signal and device for encoding and decoding video signal