JPH11252549A - Image coding/decoding device - Google Patents

Image coding/decoding device

Info

Publication number
JPH11252549A
JPH11252549A JP4837798A JP4837798A JPH11252549A JP H11252549 A JPH11252549 A JP H11252549A JP 4837798 A JP4837798 A JP 4837798A JP 4837798 A JP4837798 A JP 4837798A JP H11252549 A JPH11252549 A JP H11252549A
Authority
JP
Japan
Prior art keywords
processing
encoding
decoding
image
block data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4837798A
Other languages
Japanese (ja)
Inventor
Hirokazu Kawakatsu
裕和 川勝
Atsushi Asano
篤 浅野
Masakazu Suzuki
正和 鈴木
Michiyo Morimoto
美智代 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4837798A priority Critical patent/JPH11252549A/en
Publication of JPH11252549A publication Critical patent/JPH11252549A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an image coding/decoding device best suited for mounting on a portable information terminal where miniaturization and low power consumption are required. SOLUTION: A motion compensation section (MC-ADD/SUB) 37, a discrete cosine transform section(DCT) 34, a quantization/inverse quantization processing section(Q/IQ) 313 and an inverse discrete cosine transform section(IDCT) 35 are operated as a pipeline, in which 6 blocks consisting of luminance blocks (y0-y3) and color blocks (Cb, Cr) configuring one macro block are sequentially subject to motion compensation pixel subtraction (MC-SUB), discrete cosine transform(DCT), quantization/inverse quantization(Q/IQ), inverse discrete cosine transform(IDCT) and motion compensation pixel sum processing (MC-ADD). The image is coded efficiently even at a low operating frequency by applying parallel processing to plurality of different blocks from each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像符号化/復号化
装置に関し、特に携帯情報端末などで使用される画像符
号化/復号化装置に関する。
The present invention relates to an image encoding / decoding device, and more particularly to an image encoding / decoding device used in a portable information terminal or the like.

【0002】[0002]

【従来の技術】一般に、画像符号化のアルゴリズムは多
数の処理を順に用いる手法がとられる。たとえばISO
/IECの画像符号化の標準であるMPEGでは離散コ
サイン変換、量子化、動き補償フレーム予測と、可変長
符号化によるエントロピー符号化とを用いる事で高能率
の符号化を実現している。他の画像符号化処理において
も同様のアルゴリズムの組み合わせによって実現されて
いる。
2. Description of the Related Art Generally, an image coding algorithm employs a method of sequentially using a large number of processes. For example, ISO
MPEG, which is a standard for image coding of / IEC, realizes highly efficient coding by using discrete cosine transform, quantization, motion compensation frame prediction, and entropy coding by variable length coding. Other image coding processes are also realized by a combination of similar algorithms.

【0003】これらの画像符号化処理において、入力画
像は固定サイズの領域に分割され各データを順に上記符
号化処理プロセスにかける事になる。例としてISO/
IEC MPEGで用いられている手法を図15に示
す。入力画像は図17に示すように輝度画素が16×1
6画素に、色差画素がそれぞれ8×8画素に分割されて
1つのデータ群を構成し(マクロブロックと呼ばれ
る)、さらに輝度画素を4つの8×8ブロックに分ける
事で1マクロブロックを6つの8×8画素ブロックで構
成し、このマクロブロック単位で画面左上から右下へと
順に取り込みながら各8×8画素ブロック単位で符号化
の各処理を順次行ってゆく。
In these image encoding processes, an input image is divided into regions of a fixed size, and each data is sequentially subjected to the above-mentioned encoding process. For example, ISO /
FIG. 15 shows a method used in IEC MPEG. The input image has 16 × 1 luminance pixels as shown in FIG.
Each of the chrominance pixels is divided into 8 × 8 pixels to form one data group (referred to as a macroblock), and one macroblock is divided into four 8 × 8 blocks to divide one macroblock into six pixels. Each block is composed of 8 × 8 pixel blocks, and each process of encoding is sequentially performed in units of 8 × 8 pixel blocks while taking in the macro block in order from the upper left to the lower right.

【0004】MPEGでは、図15に示されるとおり、
まずブロック分割部11で入力動画像が多数の8×8画
素のブロックに分割され、1ブロック単位で切り出され
ながらその符号化処理がシリアルに進められていく。ま
ず、最初のブロックの入力動画像は、減算器12により
動き補償差分処理(MC−SUB)がなされ、予測によ
って得られた予測画像信号との差分が予測残差信号とし
て求められる。このように予測残差信号を求める動き補
償差分処理は動き補償(MC;MotionCompe
nsation)の一部であり、動き補償画素差分処理
(MC−SUB)と呼ばれている。次に予測算差信号は
離散コサイン変換部(DCT)13により離散コサイン
変換(DCT;Discrete Cosine Tr
ansform)されて、DCT係数データが得られ
る。このDCT係数データは、量子化部(Q)14によ
り量子化(Q;Quontizer)処理された後、可
変長符号化部(VLC)15に送られて、動きベクトル
情報などと共に可変長符号化(VLC;Variavl
e Length Coding)され、そして所定フ
ォーマットの符号化ビットストリームに組み立てられて
伝送路に送られる。
In MPEG, as shown in FIG.
First, the input moving image is divided into a large number of 8 × 8 pixel blocks by the block dividing unit 11, and the encoding process is performed serially while being cut out in units of one block. First, the input video image of the first block is subjected to motion compensation difference processing (MC-SUB) by the subtractor 12, and a difference from a prediction image signal obtained by prediction is obtained as a prediction residual signal. As described above, the motion compensation difference processing for obtaining the prediction residual signal is performed by motion compensation (MC; MotionCompe).
nsation), and is called motion compensation pixel difference processing (MC-SUB). Next, a discrete cosine transform (DCT; Discrete Cosine Tr) is applied to the prediction difference signal by a discrete cosine transform unit (DCT) 13.
DCT coefficient data is obtained. The DCT coefficient data is quantized (Q; Quantized) by a quantization unit (Q) 14, and then sent to a variable-length coding unit (VLC) 15 to perform variable-length coding (VLC) together with motion vector information. VLC; Variavl
e Length Coding), assembled into an encoded bit stream of a predetermined format, and sent to a transmission path.

【0005】また、量子化されたDCT係数データは、
逆量子化部(IQ)16、逆離散コサイン変換部(ID
CT)17にも送られて、量子化部(Q)14および離
散コサイン変換部(DCT)13の処理と逆の処理であ
る逆量子化(IQ;Inverse Quontize
r)および逆離散コサイン変換(IDCT;Inver
se Discrete Cosine Transf
orm)を順次受けた後、加算器18による動き補償加
算処理(MC−ADD)によって予測画像信号と加算さ
れて元のブロックの画像信号に復元される。復元された
画像信号は、局部復号信号としてフレームメモリ19に
蓄積される。このように予測画像信号との加算によって
残差信号を元の画像信号に復元する処理は、動き補償
(MC;Motion Compensation)の
中の動き補償画素加算処理(MC−ADD)と称されて
いる。
The quantized DCT coefficient data is
Inverse quantization unit (IQ) 16, inverse discrete cosine transform unit (ID
CT) 17 and inverse quantization (IQ; Inverse Quantize), which is a process opposite to the process of the quantization unit (Q) 14 and the discrete cosine transform unit (DCT) 13.
r) and the inverse discrete cosine transform (IDCT; Invert)
se Discrete Cosine Transf
orm) is sequentially received, and is added to the predicted image signal by a motion compensation addition process (MC-ADD) by the adder 18 to restore the image signal of the original block. The restored image signal is stored in the frame memory 19 as a locally decoded signal. The process of restoring the residual signal to the original image signal by adding to the predicted image signal in this manner is called a motion compensation pixel addition process (MC-ADD) in motion compensation (MC). .

【0006】また、フレームメモリ19に蓄積されてい
る画面と時間的に異なる画面のマクロブロックデータが
入力された時点で、動き検出部(ME)20では動き検
出(ME;Motion Estimation)処理
が行われ、入力マクロブロックと蓄積された参照画面と
を比較をする事により動きベクトルの探索などが行わ
れ、これにより符号化モードの選択や予測画信号の作成
が行われる。
When macroblock data of a screen temporally different from the screen stored in the frame memory 19 is input, the motion detection unit (ME) 20 performs motion estimation (ME). By comparing the input macroblock with the stored reference screen, a search for a motion vector or the like is performed, thereby selecting an encoding mode and creating a predicted image signal.

【0007】以上の処理は8x8画素の1ブロック単位
でシリアルに繰り返し実行され、1つのマクロブロック
に含まれる6ブロックの処理が全て終了すると次のマク
ロブロックデータを取り込みまた同じ処理を繰り返すこ
とになる。なお、スイッチS1,S2は符号化モードの
切替のために用いられるものであり、前述のように予測
画像と入力画像との残差信号を符号化するというフレー
ム間予測符号化を行うINTERモードではスイッチS
1はオフ、スイッチS2はオンされ、またフレーム内符
号化を行うINTRAモードでは、スイッチS1はオ
ン、スイッチS2はオフされる。
The above processing is repeatedly executed serially in units of 8 × 8 pixels, and when the processing of all six blocks included in one macroblock is completed, the next macroblock data is fetched and the same processing is repeated. . The switches S1 and S2 are used for switching the encoding mode, and in the INTER mode for performing the inter-frame prediction encoding of encoding the residual signal between the prediction image and the input image as described above. Switch S
1 is off, the switch S2 is on, and in the INTRA mode for performing intra-frame encoding, the switch S1 is on and the switch S2 is off.

【0008】復号化装置側では、図16に示すように、
伝送路から受け取った符号化ビットストリームは可変長
復号化部(VLD)21によって可変長復号化(VL
D;Variavle Length Decodin
g)された後、各マクロブロック内の複数ブロック各々
を逆量子化部(IQ)22、逆離散コサイン変換部(I
DCT)23、動き補償加算処理部(MC−ADD)2
4にシリアルに通すことで、逆量子化処理(IQ)、逆
離散コサイン変換処理(IDCT)、動き補償加算処理
(MC−ADD)が行われて、復号画像が得られる。こ
の復号画像はビデオ出力インターフェイス26を介して
モニタに送られると共に、フレームメモリ26に蓄積さ
れる。
On the decoding device side, as shown in FIG.
The coded bit stream received from the transmission path is subjected to variable length decoding (VL) by a variable length decoding unit (VLD) 21.
D; Variable Length Decodin
g), each of the plurality of blocks in each macroblock is subjected to an inverse quantization unit (IQ) 22 and an inverse discrete cosine transform unit (I
DCT) 23, motion compensation addition processing section (MC-ADD) 2
4, the inverse quantization process (IQ), the inverse discrete cosine transform process (IDCT), and the motion compensation addition process (MC-ADD) are performed to obtain a decoded image. The decoded image is sent to the monitor via the video output interface 26 and is stored in the frame memory 26.

【0009】ところで、カメラから撮影した映像を符号
化して復号化装置に伝送するような場合には符号化のリ
アルタイム性が必要とされる。例えば入力画面サイズが
横176画素×縦144画素の場合にはマクロブロック
数は合計99個になり、ブロック数は594個になる。
この画像の符号化を秒当たり10フレームでリアルタイ
ムに行うためには、1マクロブロックの符号化を行うた
めにかける事ができる時間は1.01m秒となる。
By the way, in the case of encoding a video taken by a camera and transmitting the encoded video to a decoding device, real-time encoding is required. For example, when the input screen size is 176 horizontal pixels × 144 vertical pixels, the total number of macro blocks is 99, and the number of blocks is 594.
In order to encode this image in real time at 10 frames per second, the time that can be spent for encoding one macroblock is 1.01 ms.

【0010】上記処理を例えばディジタルシグナルプロ
セッサ(DSP)のみで行う場合には、上記符号化処理
をリアルタイムで処理するために演算速度の向上を図る
ことが必要となる。演算速度の向上は、マルチDSP構
成の採用等によって実現できる。しかし、小型、低消費
電力が要求される携帯情報端末などに搭載することを考
えると、このように演算部を冗長化する構成は、装置サ
イズの増大、コストアップ、また何よりも消費電力の増
大を招くという点で、不向きである。
When the above processing is performed only by, for example, a digital signal processor (DSP), it is necessary to improve the operation speed in order to perform the above encoding processing in real time. The improvement of the calculation speed can be realized by adopting a multi-DSP configuration or the like. However, considering that it is mounted on a portable information terminal or the like that requires a small size and low power consumption, such a configuration in which the arithmetic unit is made redundant increases the size of the device, increases the cost, and above all, increases the power consumption. It is not suitable for inviting.

【0011】すなわち、携帯情報端末などの小型機器で
は低消費電力が最大要求項目であり、動作周波数を小さ
くおさえた画像符号化処理装置の実現が必要となる。
[0011] That is, low power consumption is the most required item in a small device such as a portable information terminal, and it is necessary to realize an image coding processing device with a low operating frequency.

【0012】[0012]

【発明が解決しようとする課題】上記理由より小型端末
上での画像符号化装置の実現手法としては符号化の各処
理の一部を専用回路で構成し、他の処理と共に専用回路
のコントロールをソフトウェアで行う為のCPUと組み
合わせて小型LSIを構成することが好ましい。この場
合、その小型LSIの動作周波数は比較的低い値に抑え
ることが必要となる。動作周波数を上げると、消費電力
がその分増大するからである。
For the above reasons, as a method of realizing an image coding apparatus on a small terminal, a part of each processing of coding is constituted by a dedicated circuit, and control of the dedicated circuit is performed together with other processing. It is preferable to configure a small LSI in combination with a CPU for performing software. In this case, it is necessary to keep the operating frequency of the small LSI at a relatively low value. This is because, when the operating frequency is increased, the power consumption is increased accordingly.

【0013】前述のように横176画素×縦144画素
の画面サイズを有する画像の符号化を秒当たり10フレ
ームでリアルタイムに行うためには、1マクロブロック
の符号化を行うためにかける事ができる時間は1.01
m秒であるので、例えば33MHzの処理速度でこれを
実現しようとした場合には、1マクロブロックにかける
事のできるサイクル数は、最大でも33333サイクル
しかない。この値は、1マクロブロックの処理に要する
通常の演算量を考慮すると、十分ではない。
As described above, in order to encode an image having a screen size of 176 pixels horizontally by 144 pixels vertically in 10 frames per second in real time, it can be used to encode one macroblock. Time is 1.01
Since this is m seconds, for example, if this is to be realized at a processing speed of 33 MHz, the maximum number of cycles that can be applied to one macroblock is only 33333 cycles. This value is not sufficient in consideration of a normal operation amount required for processing one macroblock.

【0014】従って、従来では、低消費電力の小型LS
Iで符号化装置を構成しようとすると、画面サイズを小
さくしたり、フレームレートを下げたりする事により全
体の処理量を少なくすることが必要となり、画質の低下
が引き起こされるという問題があった。
Therefore, conventionally, a small LS with low power consumption is used.
If an encoding device is to be configured using I, it is necessary to reduce the overall processing amount by reducing the screen size or reducing the frame rate, which causes a problem that image quality is reduced.

【0015】本発明はこのような実情に鑑みてなされた
ものであり、低い動作周波数でも効率よく画像の符号化
/復号化処理を行えるようにし、十分な画質と低消費電
力との両立が可能な画像符号化/復号化装置を提供する
ことを目的とする。
[0015] The present invention has been made in view of such circumstances, and enables efficient encoding / decoding of an image even at a low operating frequency, thereby achieving both a sufficient image quality and low power consumption. It is an object of the present invention to provide a simple image encoding / decoding device.

【0016】[0016]

【課題を解決するための手段】上述の課題を解決するた
めに、本発明の画像符号化装置は、縦横各々複数画素か
ら構成される複数の画像ブロックデータからなる入力デ
ータに対して符号化処理を行う第1から第nの符号化処
理手段と、前記第1から第nの符号化処理手段が前記各
画像ブロックデータに対して第1から第nの順番で処理
をし、かつ、前記第1から第nの符号化処理手段が互い
に異なる画像ブロックデータに対する処理を並列に行う
よう前記各符号化処理手段を制御する制御手段とを具備
することを特徴とする。
In order to solve the above-mentioned problems, an image encoding apparatus according to the present invention performs an encoding process on input data composed of a plurality of image block data each composed of a plurality of pixels in each of vertical and horizontal directions. A first to an n-th encoding processing means for performing the following, and the first to the n-th encoding processing means process the image block data in a first to an n-th order, and A control unit for controlling each of the encoding processing units so that the first to n-th encoding processing units perform processing on different image block data in parallel with each other.

【0017】この画像符号化装置においては、符号化処
理に必要な処理を時系列に沿って第1から第nの複数の
分割処理に分割し、それら各分割符号化処理を専用回路
などから構成される各々独立した第1から第nの複数の
符号化処理手段に割り当てている。これら符号化処理手
段は、制御手段の制御によりパイプライン動作し、画像
ブロックデータを順次入力および処理しながら第1から
第nの順番で処理する。これにより、互いに異なる複数
の画像ブロックデータが同時に異なる符号化処理手段で
処理される。このようにして、第1から第nの符号化処
理手段が互いに異なる画像ブロックデータに対する分割
符号化処理を並列に行うことにより、低い動作周波数で
も効率よく画像の符号化処理を行えるようになる。ま
た、同一処理を行う演算処理部を複数冗長化して設け
て、複数ブロックに対して同じ符号化処理を同時に行う
という従来の構成と比較すると、冗長化が行われてない
分だけ装置サイズの小型化、低消費電力化を図ることが
でき、携帯情報端末等の低消費電力が要求される機器へ
の搭載に最適な符号化装置を実現できる。
In this image coding apparatus, the processing necessary for the coding process is divided into first to n-th divided processes in a time series, and each of the divided coding processes is constituted by a dedicated circuit or the like. Respectively assigned to a plurality of independent first to n-th encoding processing means. These encoding units operate in a pipeline under the control of the control unit, and process the image block data in the first to n-th order while sequentially inputting and processing the image block data. Thus, a plurality of different image block data are simultaneously processed by different encoding processing units. In this way, the first to n-th encoding processing units perform the division encoding processing on different image block data in parallel, so that the image encoding processing can be performed efficiently even at a low operating frequency. Also, as compared with a conventional configuration in which a plurality of arithmetic processing units for performing the same processing are provided in a redundant manner and the same encoding processing is simultaneously performed on a plurality of blocks, the apparatus size is reduced by the amount of no redundancy. Therefore, it is possible to realize an encoding device that is optimal for mounting on devices requiring low power consumption such as portable information terminals.

【0018】また、本発明は、前記第1から第nの符号
化処理手段によって並列に行われる各処理の処理時間
は、並列処理される複数の画像ブロックデータに応じて
可変設定されることを特徴とする。
Further, according to the present invention, the processing time of each processing performed in parallel by the first to n-th encoding processing means is variably set according to a plurality of image block data to be processed in parallel. Features.

【0019】一般に、パイプライン動作によって並列処
理を行う場合には、各ステージには固定時間が割り当て
られるが、画像符号化処理では入力される画像データに
応じて処理時間が異なり、例えば逆離散コサイン変換
(IDCT)処理や逆量子化(IQ)処理は入力データ
値がゼロの場合は出力もゼロであるため計算処理をする
必要がなくすぐに処理が終わることになるので、各ステ
ージの処理時間を可変にすることで、符号化処理全体に
要する時間の短縮を図ることが可能となる。
In general, when parallel processing is performed by pipeline operation, a fixed time is allocated to each stage. However, in image coding processing, processing time varies depending on input image data. In the transform (IDCT) process and the inverse quantization (IQ) process, when the input data value is zero, the output is also zero, so that there is no need to perform the calculation process, and the process ends immediately. Is variable, it is possible to reduce the time required for the entire encoding process.

【0020】このような各ステージの処理時間の可変設
定は、前記制御手段が、前記第1から第nの符号化処理
手段によって並列に行われる各処理毎に前記第1から第
nの全ての符号化処理手段それぞれの動作終了の有無を
終了フラグの取得などによって判定し、全ての符号化処
理手段の動作終了が検出されたときに次の分割符号化処
理に移るよう制御を行うことによって実現でき、これに
より、各処理時間は同時に動作している処理の中で最も
時間のかかるものに合わせるよう制御することができ
る。
Such a variable setting of the processing time of each stage is performed by the control means for each of the first to n-th encoding processes performed in parallel by the first to n-th encoding processes. This is realized by determining whether or not the operation of each of the encoding processing units is completed by acquiring an end flag or the like, and performing control to shift to the next divided encoding process when the operation of all the encoding units is detected to be completed. This makes it possible to control each processing time so as to match the longest processing among the simultaneously operating processes.

【0021】また、本発明は、前記第1から第nの符号
化処理手段による処理は、1から順に、動き補償処理、
離散コサイン変換処理、量子化と逆量子化処理、逆離散
コサイン変換処理、動き補償画素加算処理であることを
特徴とする。このようにいくつかの分割符号化処理を統
合化してそれを一つの符号化処理手段に割り当てること
により、並列処理される処理されざれの処理時間をほぼ
同じにでき並列動作を最適化することが可能となる。ま
た、前記第1から第nの符号化処理手段による処理を、
1から順に、動き補償処理、離散コサイン変換と量子化
処理、逆量子化と逆離散コサイン変換処理、動き補償画
素加算処理にしても良い。
Further, according to the present invention, the processing by the first to n-th encoding processing means includes, in order from 1, a motion compensation processing,
It is characterized by discrete cosine transformation processing, quantization and inverse quantization processing, inverse discrete cosine transformation processing, and motion compensation pixel addition processing. In this way, by integrating several divisional encoding processes and assigning them to one encoding processing means, it is possible to make the processing time of the parallel processing almost the same and optimize the parallel operation. It becomes possible. Further, the processing by the first to n-th encoding processing means is as follows:
The motion compensation process, discrete cosine transform and quantization process, inverse quantization and inverse discrete cosine transform process, and motion compensation pixel addition process may be performed in order from 1.

【0022】また、本発明は、画像符号化機能と復号化
機能とを併せ持つ装置において、縦横各々複数画素から
構成される複数の画像ブロックデータからなる入力デー
タに対して符号化処理を行う第1から第nの処理手段
と、符号化時には、前記第1から第nの処理手段が前記
各画像ブロックデータに対して第1から第nの順番で処
理を、かつ、前記第1から第nの処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記各処理手段を制御し、復号化時には、前記第1から第
nの処理手段の一部を用いて、符号化された各画素ブロ
ックデータに対してその復号化のための所定の順番で処
理をし、かつ、復号化に用いられる前記第1から第nの
処理手段の一部が互いに異なる画像ブロックデータに対
する処理を並列に行うよう前記各処理手段を制御する制
御手段とを具備することを特徴とする。
Further, according to the present invention, in an apparatus having both an image encoding function and a decoding function, a first method for performing encoding processing on input data composed of a plurality of image block data each composed of a plurality of pixels in each of vertical and horizontal directions. To n-th processing means, and at the time of encoding, the first to n-th processing means processes the image block data in the first to n-th order, and The processing means controls the respective processing means so as to perform processing on image block data different from each other in parallel, and at the time of decoding, each of the encoded pixel blocks is encoded using a part of the first to n-th processing means. Data is processed in a predetermined order for decoding, and a part of the first to n-th processing means used for decoding performs processing on image block data different from each other in parallel. Characterized by comprising a control means for controlling each of said processing means so.

【0023】このように復号化処理に用いられる処理手
段の一部を復号化にも利用することで、装置規模の縮小
を図ることが可能となる。
As described above, by using a part of the processing means used for the decoding process also for the decoding, it is possible to reduce the size of the apparatus.

【0024】[0024]

【発明の実施の形態】(第1の実施形態)以下、図面を
参照して本発明の第1実施形態に係る画像符号化/復号
化装置を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) Hereinafter, an image encoding / decoding device according to a first embodiment of the present invention will be described with reference to the drawings.

【0025】図1は、第1実施形態の画像符号化/復号
化装置の構成を示すブロック図である。この画像符号化
/復号化装置は無線環境での誤り耐性を有するMPEG
4 [1] Visual Simple Profile 対応のものであり、画像
符号化機能と復号化機能とを併せ持つ1チップLSI
CODECとして実現されている。この画像符号化/復
号化装置は、動作周波数33MHzで、横176画素×
縦144画素というQCIF規格の画面サイズを有する
画像の符号化を、秒10フレームでリアルタイムに行え
るように構成されている。
FIG. 1 is a block diagram showing the configuration of the image encoding / decoding device according to the first embodiment. This image encoding / decoding device is an MPEG having error tolerance in a wireless environment.
4 [1] One-chip LSI that supports Visual Simple Profile and has both image coding and decoding functions
It is implemented as a CODEC. This image encoding / decoding device has an operating frequency of 33 MHz and a width of 176 pixels ×
It is configured so that an image having a screen size of the QCIF standard of 144 pixels vertically can be encoded in 10 frames per second in real time.

【0026】MPEG4 は伝送誤りに強い構成となって
いるが、誤りが生じた場合の処理は復号側に任されてい
るため、画質はデコーダでのコンシールメント処理に依
存する。本画像符号化/復号化装置は、エラー処理の改
善等が可能なように、プログラムを外部よりダウンロー
ドして動作するよう作られている。
Although MPEG4 has a structure that is resistant to transmission errors, the processing when an error occurs is left to the decoding side, so the image quality depends on the concealment processing in the decoder. The present image encoding / decoding device is made to operate by downloading a program from the outside so that error processing can be improved.

【0027】すなわち、図1に示されているように、本
画像符号化/復号化装置は、RISCプロセッサよりな
るコントローラ31と、このコントローラ31によって
制御されるハードウェアモジュール群とによって構成さ
れている。
That is, as shown in FIG. 1, the present image encoding / decoding apparatus comprises a controller 31 composed of a RISC processor and a group of hardware modules controlled by the controller 31. .

【0028】ハードウェアモジュール群には、各ハード
ウェアと作業用の外部メモリ40との間のDMA転送を
行うDMAコントローラ(DMAC)32と、外部のカ
メラやディスプレイとのデータのやりとりを行うビデオ
インタフェース部(VIDEO−I/F)33と、離散
コサイン変換(DCT)処理を行う離散コサイン変換部
(DCT)34と、逆離散コサイン変換(IDCT)処
理を行う逆離散コサイン変換部(IDCT)35と、動
きベクトル検出および符号化モードの選択などの動き検
出(ME)処理を行う動き検出部(ME)36と、動き
補償画素加算処理(MC−ADD)および動き補償画素
差分処理(MC−SUB)を行う動き補償部(MC−A
DD/SUB)37と、可変長符号化(VLC)処理を
行う可変長符号化部(VLC)38と、可変長復号化
(VLD)処理を行う可変長復号化部(VLD)39と
が含まれている。
The hardware modules include a DMA controller (DMAC) 32 for performing a DMA transfer between each hardware and an external working memory 40, and a video interface for exchanging data with an external camera or display. (VIDEO-I / F) 33, a discrete cosine transform (DCT) 34 for performing a discrete cosine transform (DCT) process, and an inverse discrete cosine transform (IDCT) 35 for performing an inverse discrete cosine transform (IDCT) process. , A motion detection unit (ME) 36 for performing motion detection (ME) processing such as motion vector detection and encoding mode selection, and a motion compensation pixel addition process (MC-ADD) and a motion compensation pixel difference process (MC-SUB) Motion compensation unit (MC-A
DD / SUB) 37, a variable length coding unit (VLC) 38 for performing variable length coding (VLC) processing, and a variable length decoding unit (VLD) 39 for performing variable length decoding (VLD) processing. Have been.

【0029】コントローラ31には、コンピュータプロ
グラムにより実現される機能モジュールとして、符号化
動作および復号化動作全体を制御する符号化/復号化制
御部(Enc/Dec)311と、DMAコントローラ
(DMAC)32のDMA転送機能を制御するDMA制
御部312と、量子化(Q)および逆量子化(IQ)処
理を行う量子化/逆量子化処理部(Q/IQ)313が
設けられている。
The controller 31 includes, as functional modules realized by a computer program, an encoding / decoding control unit (Enc / Dec) 311 for controlling the entire encoding and decoding operations, and a DMA controller (DMAC) 32 A DMA control unit 312 for controlling the DMA transfer function of, and a quantization / inverse quantization processing unit (Q / IQ) 313 for performing quantization (Q) and inverse quantization (IQ) processing are provided.

【0030】すなわち、ソフトウェアによって実現され
ている主な機能は、ハードウェアモジュール32〜38
全体の制御と、符号化/復号化処理の内の量子化(Q)
および逆量子化(IQ)処理の部分と、エラー耐性のた
めの同期符号の挿入やリバーシブルVLCによるシンタ
ックス処理などである。また、符号化/復号化処理の
内、量子化(Q)および逆量子化(IQ)処理を除く他
の全ての処理、つまり、離散コサイン変換(DCT)、
逆離散コサイン変換(IDCT)、動き検出(ME)、
動き補償(MC)、可変長符号(VLC)、可変長復号
(VLD)といった符号化/復号の信号処理に最も多く
の処理量を要する処理は、それぞれ独立した専用のハー
ドウェアモジュール34〜38で実現されている。
That is, the main functions realized by the software are the hardware modules 32-38.
Overall control and quantization (Q) in the encoding / decoding process
And an inverse quantization (IQ) process, insertion of a synchronization code for error tolerance, syntax processing by reversible VLC, and the like. In the encoding / decoding process, all other processes except the quantization (Q) and inverse quantization (IQ) processes, that is, discrete cosine transform (DCT),
Inverse discrete cosine transform (IDCT), motion detection (ME),
Processes requiring the most processing amount for encoding / decoding signal processing such as motion compensation (MC), variable length code (VLC), and variable length decoding (VLD) are performed by independent dedicated hardware modules 34 to 38, respectively. Has been realized.

【0031】このシステム構成においては、符号化/復
号化に必要なDCT処理、IDCT処理、MC処理、量
子化・逆量子化処理がそれぞれ独立したブロックで行わ
れるため、動き補償部(MC−ADD/SUB)37、
離散コサイン変換部(DCT)34、量子化/逆量子化
処理部(Q/IQ)313、逆離散コサイン変換部(I
DCT)35をパイプライン動作させることにより、こ
れら各処理をマクロブロックを構成する互いに異なる複
数の画像ブロックに対して同時に実行することができ
る。この場合、動き補償部(MC−ADD/SUB)3
7、離散コサイン変換部(DCT)34、量子化/逆量
子化処理部(Q/IQ)313、逆離散コサイン変換部
(IDCT)35間におけるブロックデータの受け渡し
は、これらの間で共用されているメモリ40を介して行
われる。
In this system configuration, since the DCT processing, IDCT processing, MC processing, and quantization / dequantization processing necessary for encoding / decoding are performed in independent blocks, a motion compensation unit (MC-ADD) is used. / SUB) 37,
Discrete cosine transform unit (DCT) 34, quantization / inverse quantization processing unit (Q / IQ) 313, inverse discrete cosine transform unit (I
By performing the pipeline operation of the DCT 35, these processes can be simultaneously performed on a plurality of different image blocks constituting a macroblock. In this case, the motion compensation unit (MC-ADD / SUB) 3
7. Block data exchange among the discrete cosine transform unit (DCT) 34, the quantization / inverse quantization processing unit (Q / IQ) 313, and the inverse discrete cosine transform unit (IDCT) 35 is shared among them. This is performed via the memory 40 that is present.

【0032】本発明者は、8×8画素のブロックデータ
の処理を行うために必要な処理量について検討を行った
ところ、DCTおよびIDCTは処理は各々約1500
サイクル、量子化・逆量子化は合わせて最大約1600
サイクル、動き補償処理は加算・差分処理各々約700
サイクルであった。
The present inventor has studied the processing amount required for processing block data of 8 × 8 pixels. As a result, DCT and IDCT have a processing of about 1500 each.
Cycles, quantization and inverse quantization up to about 1600
Cycle and motion compensation processing are about 700 each for addition and difference processing.
It was a cycle.

【0033】従って各々の処理時間がほぼ同じになるよ
うな並列処理化を考えると、符号化時には、DCT処
理、IDCT処理、QとIQ処理、動き補償(MC)処
理という分けかたをする事ができる。上記処理プロセス
を8×8画素の各画像ブロックに対して並列に処理を行
う場合のパイプライン構成を図2に示す。
Therefore, considering parallel processing so that each processing time becomes substantially the same, when encoding, DCT processing, IDCT processing, Q and IQ processing, and motion compensation (MC) processing are divided. Can be. FIG. 2 shows a pipeline configuration in the case where the above processing is performed in parallel on each image block of 8 × 8 pixels.

【0034】図2において、縦方向にはある任意のマク
ロブロック(MBn)中の4つの輝度ブロック(Y0−
Y3)と2つの色差ブロック(Cb,Cr)が処理対象
ブロックデータとして示されており、また横方向にはパ
イプラインの各ステージが示されている。
In FIG. 2, four luminance blocks (Y0-Y) in an arbitrary macro block (MBn) are arranged in the vertical direction.
Y3) and two color difference blocks (Cb, Cr) are shown as processing target block data, and each stage of the pipeline is shown in the horizontal direction.

【0035】ステージ0では、輝度ブロックY0に対す
るDCT処理と輝度ブロックY1に対するMC処理(M
C−SUB)が並行して行われる。
In the stage 0, the DCT processing for the luminance block Y0 and the MC processing (M
C-SUB) are performed in parallel.

【0036】ステージ1では、輝度ブロックY0に対し
てはQとIQ処理が順次行われ、これと並行して、輝度
ブロックY1に対するDCT処理と輝度ブロックY2に
対するMC処理(MC−SUB)が行われる。
In stage 1, Q and IQ processing are sequentially performed on the luminance block Y0, and in parallel with this, DCT processing on the luminance block Y1 and MC processing (MC-SUB) on the luminance block Y2 are performed. .

【0037】続く、ステージ2では、輝度ブロックY0
に対するIDCT処理と、輝度ブロックY1のQとIQ
処理と、輝度ブロックY2に対するDCT処理と、輝度
ブロックY3に対するMC処理(MC−SUB)とが並
行して行われる。
In the following stage 2, the luminance block Y0
Processing and Q and IQ of the luminance block Y1
The processing, the DCT processing for the luminance block Y2, and the MC processing (MC-SUB) for the luminance block Y3 are performed in parallel.

【0038】続く、ステージ3では、輝度ブロックY0
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY1に対するIDCT処理と、輝度ブロックY2
のQとIQ処理と、輝度ブロックY3に対するDCT処
理と、色差ブロックCbのMC処理(MC−SUB)が
行われる。
Subsequently, in stage 3, the luminance block Y0
In parallel with the MC processing (MC-ADD) for the luminance block Y1, the IDCT processing for the luminance block Y1 and the luminance block Y2
, The DCT process for the luminance block Y3, and the MC process (MC-SUB) for the color difference block Cb.

【0039】続く、ステージ4では、輝度ブロックY1
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY2に対するIDCT処理と、輝度ブロックY3
のQとIQ処理と、色差ブロックCbのDCT処理と、
色差ブロックCrのMC処理(MC−SUB)が行われ
る。
In the subsequent stage 4, the luminance block Y1
In parallel with the MC processing (MC-ADD) for the luminance block Y2, the IDCT processing for the luminance block Y2 and the luminance block Y3
Q and IQ processing, DCT processing of the color difference block Cb,
MC processing (MC-SUB) of the color difference block Cr is performed.

【0040】続く、ステージ5では、輝度ブロックY2
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY3に対するIDCT処理と、色差ブロックCb
のQとIQ処理と、色差ブロックCrのDCT処理が行
われる。
Subsequently, in stage 5, the luminance block Y2
In parallel with the MC processing (MC-ADD) on the luminance block Y3, the IDCT processing on the luminance block Y3 and the chrominance block Cb
Q and IQ processing and DCT processing of the color difference block Cr are performed.

【0041】また、これらステージ0〜5の期間には、
動き検出部(ME)36による次のマクロブロック(M
Bn+1)に対する動き検出処理(ME)が行われてい
る。
During these stages 0-5,
The next macro block (M
Bn + 1) is being subjected to motion detection processing (ME).

【0042】続く、ステージ6では、輝度ブロックY3
に対するMC処理(MC−ADD)と並行して、色差ブ
ロックCbのIDCT処理と、色差ブロックCrのQと
IQ処理が行われる。また、輝度ブロックY3に対する
MC処理(MC−ADD)が終了した時点で、動き補償
部(MC−ADD/SUB)37による処理は次のマク
ロブロック(MBn+1)中の輝度ブロックY0に対す
るMC処理(MC−ADD)に切り替えられ、この処理
が色差ブロックCbのIDCT処理、色差ブロックCr
のQ/IQ処理と並行して行われる。
Subsequently, in stage 6, the luminance block Y3
In parallel with the MC processing (MC-ADD), the IDCT processing of the color difference block Cb and the Q and IQ processing of the color difference block Cr are performed. When the MC processing (MC-ADD) for the luminance block Y3 is completed, the processing by the motion compensation unit (MC-ADD / SUB) 37 is performed by the MC processing (MC-MC) for the luminance block Y0 in the next macroblock (MBn + 1). −ADD), and this processing is performed by the IDCT processing of the color difference block Cb and the color difference block Cr.
Is performed in parallel with the Q / IQ processing.

【0043】続く、ステージ7では、色差ブロックCb
のMC処理(MC−ADD)と並行して、色差ブロック
CrのIDCT処理が行われる。また、色差ブロックC
rのIDCT処理が終了すると、このステージ7内で、
色差ブロックCrのMC処理(MC−ADD)が続けて
行われる。
In the following stage 7, the color difference block Cb
In parallel with the MC processing (MC-ADD), the IDCT processing of the color difference block Cr is performed. The color difference block C
When the IDCT processing of r is completed, in this stage 7,
The MC processing (MC-ADD) of the color difference block Cr is continuously performed.

【0044】また、このステージ7では、次のマクロブ
ロック(MBn+1)についての符号化モード(INT
RA/INTER)が動き検出部(ME)36によって
決定される。
In this stage 7, the encoding mode (INT) for the next macroblock (MBn + 1) is set.
RA / INTER) is determined by the motion detection unit (ME) 36.

【0045】以上のように、輝度ブロック(Y0−Y
3)および色差ブロック(Cb,Cr)からなる6ブロ
ックはそれぞれ1ステージずつ遅れながら順次、MC−
SUB処理、DCT処理、Q・IQ処理、IDCT処
理、MC−ADD処理されていく。これにより、ステー
ジ0〜ステージ7の8ステージで、1マクロブロック内
の6ブロック全てに対する一連の符号化処理が完了す
る。
As described above, the luminance blocks (Y0-Y
6) consisting of 3) and color difference blocks (Cb, Cr) are sequentially shifted by one stage each,
SUB processing, DCT processing, Q / IQ processing, IDCT processing, and MC-ADD processing are performed. Thus, a series of encoding processes for all six blocks in one macroblock is completed in eight stages from stage 0 to stage 7.

【0046】前述のように、DCTおよびIDCTは処
理に各々約1500サイクル、量子化・逆量子化は合わ
せて最大約1600サイクル、動き補償処理は加算・差
分処理各々約700サイクル要することを考慮すると、
従来のように1ブロック毎に符号化処理をシリアルに行
った場合には、1マクロブロックの符号化処理には最大
約37000サイクル程度かかることになるが、本実施
形態では、パイプラインによる並列処理により、約13
000サイクルで1マクロブロックの符号化処理を完了
することができる。
As described above, taking into account that DCT and IDCT require about 1500 cycles for processing, quantization and inverse quantization together require a maximum of about 1600 cycles, and motion compensation processing requires about 700 cycles for addition and difference processing. ,
When the encoding process is performed serially for each block as in the related art, the encoding process for one macroblock takes about 37000 cycles at the maximum. However, in the present embodiment, the parallel processing by the pipeline is performed. Approximately 13
The encoding process of one macroblock can be completed in 000 cycles.

【0047】なお、本実施形態では、動き検出部(M
E)36による処理については1ステージ内でMC−A
DDとMC−SUBの双方を行ったり、最後のステージ
7ではIDCTに後続して行うといった制御を行ってい
るが、これは、MC−ADD、MC−SUBが他の処理
に比べ短時間で終了することを利用したものであり、こ
れにより全体の処理時間のさらなる短縮を図っている。
従って、このようなMC処理を除くと、本実施形態のパ
イプライン動作では、処理対象の全ての画像ブロックデ
ータの符号化処理のために要する全パイプラインステー
ジ数Tは、処理対象の画像ブロックデータの個数をNと
し、パイプラインの段数をKとすると、T=N+K−1
の関係が設立する。このことは、図2の例では、N=
6、K=3であり、合計8ステージでパイプライン処理
が完了されていることから理解されよう。
In this embodiment, the motion detector (M
E) For processing by 36, MC-A within one stage
Controls such as performing both DD and MC-SUB, and performing following the IDCT in the final stage 7, are performed in a shorter time than MC-ADD and MC-SUB compared to other processes. Therefore, the overall processing time is further reduced.
Therefore, excluding such MC processing, in the pipeline operation of the present embodiment, the total number of pipeline stages T required for the encoding processing of all image block data to be processed is equal to the number of image block data to be processed. Is N and the number of pipeline stages is K, T = N + K−1
The relationship established. This means that in the example of FIG.
6, K = 3, which means that the pipeline processing is completed in a total of eight stages.

【0048】また、一般に、パイプライン動作によって
並列処理を行う場合には各プロセスステージに要する時
間は固定時間が割り当てられるのが通常であるが、画像
符号化処理では入力される画像データに応じてその処理
に要する時間が異なる。例えばIDCT処理やIQ処理
は入力データ値がゼロの場合は出力もゼロであるため計
算処理を行う必要がない。従って固定時間の割り当てを
行っておくと入力にゼロ値が多数含まれる場合に何もせ
ずにただ待っている状態が生じる事になる。
In general, when parallel processing is performed by a pipeline operation, a time required for each process stage is generally assigned a fixed time. However, in image coding processing, a time is required in accordance with input image data. The time required for the processing is different. For example, in the case of the IDCT processing and the IQ processing, when the input data value is zero, the output is also zero, so that it is not necessary to perform the calculation processing. Therefore, if a fixed time is allocated, when the input contains many zero values, a state occurs in which the input is simply waited without doing anything.

【0049】このような事態を避けるため、本実施形態
では、動き補償部(MC−ADD/SUB)37、離散
コサイン変換部(DCT)34、量子化/逆量子化処理
部(Q/IQ)313、逆離散コサイン変換部(IDC
T)35の各々が1ブロックの処理が終了する度にそれ
を示す終了フラグをコントローラ31に返すという仕組
みを採用しており、コントローラ31は同時に動作して
いる処理の全ての終了フラグを取得した時点で直ちに次
のステージに移る制御を行う。これにより各処理ステー
ジが可変時間になり、前述の処理サイクルをさらに短縮
する事ができる。
In order to avoid such a situation, in the present embodiment, the motion compensation unit (MC-ADD / SUB) 37, the discrete cosine transform unit (DCT) 34, and the quantization / inverse quantization processing unit (Q / IQ) 313, inverse discrete cosine transform unit (IDC
T) 35, each time one block of processing is completed, an end flag indicating the completion is returned to the controller 31. The controller 31 acquires all the end flags of the processes operating simultaneously. At this point, control to move to the next stage is performed. Accordingly, each processing stage has a variable time, and the above-described processing cycle can be further reduced.

【0050】また、復号化処理についてもパイプライン
による並列処理が行われる。この様子を図3に示す。
The decoding process is also performed in parallel by a pipeline. This is shown in FIG.

【0051】復号化処理では、図3に示されているよう
に、輝度ブロック(Y0−Y3)および色差ブロック
(Cb,Cr)からなる6ブロックはそれぞれ1ステー
ジずつ遅れながら順次、IQ処理、IDCT処理、MC
−ADD処理されていく。これにより、ステージ0〜ス
テージ6の7ステージで、1マクロブロック内の6ブロ
ック全てに対する一連の復号化処理が完了する。また、
最後のステージ6では、Crに対するIDCT処理とM
C−ADD処理が順次行われる。従って、MC−ADD
処理を除くとパイプラインの段数K=2となるので、前
述の式、T=N+K−1が成立する。
In the decoding process, as shown in FIG. 3, six blocks including a luminance block (Y0-Y3) and a chrominance block (Cb, Cr) are sequentially subjected to IQ processing, IDCT processing while being delayed by one stage. Processing, MC
-ADD processing is performed. As a result, a series of decoding processes for all six blocks in one macroblock is completed in seven stages from stage 0 to stage 6. Also,
In the final stage 6, the IDCT process for Cr and M
C-ADD processing is sequentially performed. Therefore, MC-ADD
Excluding the processing, the number of pipeline stages becomes K = 2, so that the above equation, T = N + K−1, holds.

【0052】次に、図4および図5のフローチャートを
参照して、コントローラ31による符号化処理の制御動
作を説明する。
Next, the control operation of the encoding process by the controller 31 will be described with reference to the flowcharts of FIGS.

【0053】まず、ステージ0からのパイプラインステ
ージに入る前に、Y0に対するMC−SUB処理の開始
が、動き補償部(MC−ADD/SUB)37に対して
指示される(ステップS1)。そして、その動き補償部
(MC−ADD/SUB)37から終了フラグを取得す
ると(ステップS2)、ステージ0からのパイプライン
ステージに移行する。
First, before entering the pipeline stage from stage 0, the start of the MC-SUB process for Y0 is instructed to the motion compensator (MC-ADD / SUB) 37 (step S1). Then, when the end flag is obtained from the motion compensation unit (MC-ADD / SUB) 37 (step S2), the process shifts from the stage 0 to the pipeline stage.

【0054】ステージ0では、Y0に対するDCT処理
の開始が離散コサイン変換部(DCT)34に対して指
示されると共に(ステップS3)、Y1に対するMC−
SUB処理の開始が動き補償部(MC−ADD/SU
B)37に対して指示される(ステップS4)。そし
て、離散コサイン変換部(DCT)34および動き補償
部(MC−ADD/SUB)37の双方から終了フラグ
を取得すると(ステップS5〜S7)、ステージ1に移
行する。
In stage 0, the start of the DCT process for Y0 is instructed to discrete cosine transform unit (DCT) 34 (step S3), and the MC-to-YT1 DCT process is started.
The start of the SUB processing is performed by the motion compensation unit (MC-ADD / SU).
B) An instruction is given to 37 (step S4). When the end flags are obtained from both the discrete cosine transform unit (DCT) 34 and the motion compensation unit (MC-ADD / SUB) 37 (steps S5 to S7), the process proceeds to stage 1.

【0055】ステージ1では、Y0に対するQとIQ処
理を順次行うことが量子化/逆量子化処理部(Q/I
Q)313に指示されると共に(ステップS8)、Y1
に対するDCT処理の開始が離散コサイン変換部(DC
T)34に指示され(ステップS9)、さらにY2に対
するMC−SUB処理の開始が動き補償部(MC−AD
D/SUB)37に対して指示される(ステップS1
0)。そして、量子化/逆量子化処理部(Q/IQ)3
13、離散コサイン変換部(DCT)34、および動き
補償部(MC−ADD/SUB)37の全てから終了フ
ラグを取得すると(ステップS11〜S14)、ステー
ジ2に移行する。
In stage 1, the Q / IQ processing for Y0 is sequentially performed by a quantization / dequantization processing unit (Q / I
Q) 313 is instructed (step S8), and Y1
Start of the DCT process for the discrete cosine transform unit (DC
T) 34 (step S9), and the start of the MC-SUB process for Y2 is further started by the motion compensation unit (MC-AD).
D / SUB) 37 (step S1)
0). Then, a quantization / inverse quantization processing unit (Q / IQ) 3
When the end flags are obtained from all of the discrete cosine transform unit (DCT) 34 and the motion compensation unit (MC-ADD / SUB) 37 (steps S11 to S14), the process proceeds to stage 2.

【0056】ステージ2では、Y0に対するIDCT処
理の開始が逆離散コサイン変換部(IDCT)35に対
して指示されると共に(ステップS15)、Y1に対し
てQとIQ処理を順次行うことが量子化/逆量子化処理
部(Q/IQ)313に指示され(ステップS16)、
Y2に対するDCT処理の開始が離散コサイン変換部
(DCT)34に指示され(ステップS17)、さらに
Y3に対するMC−SUB処理の開始が動き補償部(M
C−ADD/SUB)37に対して指示される(ステッ
プS18)。そして、逆離散コサイン変換部(IDC
T)35、量子化/逆量子化処理部(Q/IQ)31
3、離散コサイン変換部(DCT)34、および動き補
償部(MC−ADD/SUB)37の全てから終了フラ
グを取得すると(ステップS19〜S23)、ステージ
3に移行する。
In the stage 2, the start of the IDCT process for Y0 is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S15), and the Q and IQ processes for Y1 are sequentially performed. / Inverse quantization processing unit (Q / IQ) 313 (step S16),
The start of the DCT process for Y2 is instructed to the discrete cosine transform unit (DCT) 34 (step S17), and the start of the MC-SUB process for Y3 is also started by the motion compensation unit (M
C-ADD / SUB) 37 is instructed (step S18). Then, an inverse discrete cosine transform unit (IDC
T) 35, quantization / inverse quantization processing unit (Q / IQ) 31
3. When the end flags are obtained from all of the discrete cosine transform unit (DCT) 34 and the motion compensation unit (MC-ADD / SUB) 37 (steps S19 to S23), the process proceeds to stage 3.

【0057】ステージ3では、Y0に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS24)、Y1
に対するIDCT処理の開始が逆離散コサイン変換部
(IDCT)35に対して指示され(ステップS2
5)、Y2に対してQとIQ処理を順次行うことが量子
化/逆量子化処理部(Q/IQ)313に指示され(ス
テップS26)、さらにY3に対するDCT処理の開始
が離散コサイン変換部(DCT)34に指示される(ス
テップS27)。動き補償部(MC−ADD/SUB)
37から終了フラグを取得すると(ステップS28,S
32)、Cbに対するMC−SUB処理の開始が動き補
償部(MC−ADD/SUB)37に対して指示される
(ステップS33)。この後、逆離散コサイン変換部
(IDCT)35、量子化/逆量子化処理部(Q/I
Q)313、離散コサイン変換部(DCT)34、およ
び動き補償部(MC−ADD/SUB)37の全てから
終了フラグを取得すると(ステップS29〜S31,S
34,S35)、図5のステージ4に移行する。
In stage 3, MC-AD for Y0
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S24) and Y1
Is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S2).
5), the quantization / dequantization processing unit (Q / IQ) 313 is instructed to sequentially perform the Q and IQ processing on Y2 (step S26), and the DCT processing on Y3 is started by the discrete cosine transform unit. (DCT) 34 is instructed (step S27). Motion compensation unit (MC-ADD / SUB)
When the end flag is acquired from the subroutine 37 (steps S28, S
32), the start of the MC-SUB process for Cb is instructed to the motion compensation unit (MC-ADD / SUB) 37 (step S33). Thereafter, an inverse discrete cosine transform unit (IDCT) 35 and a quantization / inverse quantization processing unit (Q / I
Q) When end flags are obtained from all of the 313, the discrete cosine transform unit (DCT) 34, and the motion compensation unit (MC-ADD / SUB) 37 (steps S29 to S31, S
34, S35), and proceeds to the stage 4 in FIG.

【0058】ステージ4では、Y1に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS36)、Y2
に対するIDCT処理の開始が逆離散コサイン変換部
(IDCT)35に対して指示され(ステップS3
7)、Y3に対してQとIQ処理を順次行うことが量子
化/逆量子化処理部(Q/IQ)313に指示され(ス
テップS38)、さらにCbに対するDCT処理の開始
が離散コサイン変換部(DCT)34に指示される(ス
テップS39)。動き補償部(MC−ADD/SUB)
37から終了フラグを取得すると(ステップS36,S
44)、Crに対するMC−SUB処理の開始が動き補
償部(MC−ADD/SUB)37に対して指示される
(ステップS45)。この後、逆離散コサイン変換部
(IDCT)35、量子化/逆量子化処理部(Q/I
Q)313、離散コサイン変換部(DCT)34、およ
び動き補償部(MC−ADD/SUB)37それぞれか
ら終了フラグを取得すると(ステップS41〜S43,
S46,S47)、ステージ5に移行する。
In stage 4, MC-AD for Y1
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S36) and Y2
Is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S3).
7), the quantization / dequantization processing unit (Q / IQ) 313 is instructed to sequentially perform Q and IQ processing on Y3 (step S38), and the DCT processing on Cb is started by the discrete cosine transform unit (DCT) 34 is instructed (step S39). Motion compensation unit (MC-ADD / SUB)
When the end flag is obtained from the subroutine 37 (steps S36, S
44), the start of the MC-SUB processing for Cr is instructed to the motion compensation unit (MC-ADD / SUB) 37 (step S45). Thereafter, an inverse discrete cosine transform unit (IDCT) 35 and a quantization / inverse quantization processing unit (Q / I
Q) When the end flag is obtained from each of the 313, the discrete cosine transform unit (DCT) 34, and the motion compensation unit (MC-ADD / SUB) 37 (steps S41 to S43,
S 46, S 47), and proceed to stage 5.

【0059】ステージ5では、Y2に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS48)、Y3
に対するIDCT処理の開始が逆離散コサイン変換部
(IDCT)35に対して指示され(ステップS4
9)、Cbに対してQとIQ処理を順次行うことが量子
化/逆量子化処理部(Q/IQ)313に指示され(ス
テップS50)、さらにCrに対するDCT処理の開始
が離散コサイン変換部(DCT)34に指示される(ス
テップS51)。そして、動き補償部(MC−ADD/
SUB)37、逆離散コサイン変換部(IDCT)3
5、量子化/逆量子化処理部(Q/IQ)313、およ
び離散コサイン変換部(DCT)34それぞれから終了
フラグを取得すると(ステップS52〜S56)、ステ
ージ6に移行する。
In stage 5, MC-AD for Y2
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S48) and Y3
Is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S4).
9), the quantization / dequantization processing unit (Q / IQ) 313 is instructed to sequentially perform Q and IQ processing on Cb (step S50), and the DCT processing on Cr is started by the discrete cosine transform unit (DCT) 34 is instructed (step S51). Then, a motion compensation unit (MC-ADD /
SUB) 37, inverse discrete cosine transform unit (IDCT) 3
5. When an end flag is obtained from each of the quantization / inverse quantization processing unit (Q / IQ) 313 and the discrete cosine transform unit (DCT) 34 (steps S52 to S56), the process proceeds to stage 6.

【0060】ステージ6では、Y3に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS57)、Cb
に対するIDCT処理の開始が逆離散コサイン変換部
(IDCT)35に対して指示され(ステップS5
8)、さらにCrに対してQとIQ処理を順次行うこと
が量子化/逆量子化処理部(Q/IQ)313に指示さ
れる(ステップS59)。そして、動き補償部(MC−
ADD/SUB)37から終了フラグを取得すると(ス
テップS60,S63)、次のマクロブロックのY0に
対するMC−SUB処理の開始が動き補償部(MC−A
DD/SUB)37に対して指示される(ステップS6
4)。この後、逆離散コサイン変換部(IDCT)3
5、量子化/逆量子化処理部(Q/IQ)313、およ
び動き補償部(MC−ADD/SUB)37それぞれか
ら終了フラグを取得すると(ステップS61,S62,
S65,S66)、ステージ7に移行する。
In stage 6, MC-AD for Y3
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S57) and Cb
Is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S5).
8) Further, the quantization / inverse quantization processing unit (Q / IQ) 313 is instructed to sequentially perform Q and IQ processing on Cr (step S59). The motion compensator (MC-
When the end flag is obtained from the (ADD / SUB) 37 (steps S60 and S63), the start of the MC-SUB process for Y0 of the next macroblock is started by the motion compensation unit (MC-A).
DD / SUB) 37 (step S6)
4). Thereafter, an inverse discrete cosine transform unit (IDCT) 3
5. When the end flag is obtained from each of the quantization / inverse quantization processing unit (Q / IQ) 313 and the motion compensation unit (MC-ADD / SUB) 37 (steps S61, S62,
S65, S66), and proceed to stage 7.

【0061】ステージ7では、Cbに対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS67)、Cr
に対するIDCT処理の開始が逆離散コサイン変換部
(IDCT)35に対して指示される(ステップS6
8)。動き補償部(MC−ADD/SUB)37および
逆離散コサイン変換部(IDCT)35それぞれから終
了フラグを取得すると(ステップS69〜S71)、C
rに対するMC−ADD処理の開始が動き補償部(MC
−ADD/SUB)37に対して指示される(ステップ
S72)。そして、動き補償部(MC−ADD/SU
B)37から終了フラグを取得すると(ステップS7
3)、次のマクロブロックのステージ0に移行する。
In stage 7, MC-AD for Cb
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S67), and
Is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S6).
8). When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37 and the inverse discrete cosine transform unit (IDCT) 35 (steps S69 to S71), C
r is started by the motion compensation unit (MC
-ADD / SUB) 37 (step S72). Then, a motion compensation unit (MC-ADD / SU)
B) When the end flag is obtained from 37 (step S7)
3), proceed to stage 0 of the next macroblock.

【0062】次に、図6および図7のフローチャートを
参照して、コントローラ31による復号化処理の制御動
作を説明する。
Next, the control operation of the decoding process by the controller 31 will be described with reference to the flowcharts of FIGS.

【0063】ステージ0では、Y0に対するIQ処理の
開始が量子化/逆量子化処理部(Q/IQ)313に指
示される(ステップS81)。そして、その量子化/逆
量子化処理部(Q/IQ)313から終了フラグを取得
すると(ステップS82)、ステージ1に移行する。
In stage 0, the start of the IQ processing for Y0 is instructed to the quantization / inverse quantization processing unit (Q / IQ) 313 (step S81). When the end flag is obtained from the quantization / dequantization processing unit (Q / IQ) 313 (step S82), the process proceeds to stage 1.

【0064】ステージ1では、Y0に対するIDCT処
理の開始が逆離散コサイン変換部(IDCT)35に対
して指示されると共に(ステップS83)、Y1に対す
るIQ処理の開始が量子化/逆量子化処理部(Q/I
Q)313に指示される(ステップS84)。そして、
逆離散コサイン変換部(IDCT)35および量子化/
逆量子化処理部(Q/IQ)313の双方から終了フラ
グを取得すると(ステップS85〜S87)、ステージ
2に移行する。
In stage 1, the start of the IDCT process for Y0 is instructed to the inverse discrete cosine transform unit (IDCT) 35 (step S83), and the start of the IQ process for Y1 is determined by the quantization / inverse quantization unit. (Q / I
Q) 313 is instructed (step S84). And
Inverse discrete cosine transform (IDCT) 35 and quantization /
When the end flag is obtained from both of the inverse quantization processing unit (Q / IQ) 313 (steps S85 to S87), the process proceeds to stage 2.

【0065】ステージ2では、Y0に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に指示されると共に(ステップS88)、Y1に対す
るIDCT処理の開始が逆離散コサイン変換部(IDC
T)35に対して指示され(ステップS89)、Y2に
対するIQ処理の開始が量子化/逆量子化処理部(Q/
IQ)313に指示される(ステップS90)。動き補
償部(MC−ADD/SUB)37、逆離散コサイン変
換部(IDCT)35、および量子化/逆量子化処理部
(Q/IQ)313それぞれから終了フラグを取得する
と(ステップS91〜S94)、ステージ3に移行す
る。
In stage 2, MC-AD for Y0
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S88), and the start of the IDCT process for Y1 is determined by the inverse discrete cosine transform unit (IDC).
T) 35 (step S89), and the start of the IQ processing for Y2 is determined by the quantization / dequantization processing unit (Q /
IQ) 313 (step S90). When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37, the inverse discrete cosine transform unit (IDCT) 35, and the quantization / inverse quantization processing unit (Q / IQ) 313 (steps S91 to S94). Then, the process proceeds to stage 3.

【0066】ステージ3では、Y1に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に指示されると共に(ステップS95)、Y2に対す
るIDCT処理の開始が逆離散コサイン変換部(IDC
T)35に対して指示され(ステップS96)、Y3に
対するIQ処理の開始が量子化/逆量子化処理部(Q/
IQ)313に指示される(ステップS97)。動き補
償部(MC−ADD/SUB)37、逆離散コサイン変
換部(IDCT)35、および量子化/逆量子化処理部
(Q/IQ)313それぞれから終了フラグを取得する
と(ステップS98〜S101)、図7のステージ4に
移行する。
In stage 3, MC-AD for Y1
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S95), and the start of the IDCT process on Y2 is performed by the inverse discrete cosine transform unit (IDC).
T) 35 (step S96), and the start of the IQ processing for Y3 is determined by the quantization / inverse quantization processing unit (Q /
IQ) 313 (step S97). When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37, the inverse discrete cosine transform unit (IDCT) 35, and the quantization / inverse quantization processing unit (Q / IQ) 313 (steps S98 to S101). Then, the process proceeds to stage 4 in FIG.

【0067】ステージ4では、Y2に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に指示されると共に(ステップS102)、Y3に対
するIDCT処理の開始が逆離散コサイン変換部(ID
CT)35に対して指示され(ステップS103)、C
bに対するIQ処理の開始が量子化/逆量子化処理部
(Q/IQ)313に指示される(ステップS10
4)。動き補償部(MC−ADD/SUB)37、逆離
散コサイン変換部(IDCT)35、および量子化/逆
量子化処理部(Q/IQ)313それぞれから終了フラ
グを取得すると(ステップS105〜S108)、ステ
ージ5に移行する。
In stage 4, MC-AD for Y2
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S102), and the start of the IDCT processing for Y3 is performed by the inverse discrete cosine transform unit (ID).
CT) 35 (step S103), and C
The start of the IQ processing for b is instructed to the quantization / dequantization processing unit (Q / IQ) 313 (step S10).
4). When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37, the inverse discrete cosine transform unit (IDCT) 35, and the quantization / inverse quantization processing unit (Q / IQ) 313 (steps S105 to S108). , To stage 5.

【0068】ステージ5では、Y3に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に指示されると共に(ステップS109)、Cbに対
するIDCT処理の開始が逆離散コサイン変換部(ID
CT)35に対して指示され(ステップS110)、C
rに対するIQ処理の開始が量子化/逆量子化処理部
(Q/IQ)313に指示される(ステップS11
1)。動き補償部(MC−ADD/SUB)37、逆離
散コサイン変換部(IDCT)35、および量子化/逆
量子化処理部(Q/IQ)313それぞれから終了フラ
グを取得すると(ステップS112〜S115)、ステ
ージ6に移行する。
In stage 5, MC-AD for Y3
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S109), and the start of the IDCT process on Cb is performed by the inverse discrete cosine transform unit (ID).
CT) 35 (step S110), and C
The start of IQ processing for r is instructed to the quantization / inverse quantization processing unit (Q / IQ) 313 (step S11).
1). When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37, the inverse discrete cosine transform unit (IDCT) 35, and the quantization / inverse quantization processing unit (Q / IQ) 313 (steps S112 to S115). , To the stage 6.

【0069】ステージ6では、Cbに対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に指示されると共に(ステップS116)、Crに対
するIDCT処理の開始が逆離散コサイン変換部(ID
CT)35に対して指示される(ステップS117)。
動き補償部(MC−ADD/SUB)37および逆離散
コサイン変換部(IDCT)35それぞれから終了フラ
グを取得すると(ステップS118〜S120)、Cr
に対するMC−ADD処理の開始が動き補償部(MC−
ADD/SUB)37に指示される(ステップS12
1)。そして、動き補償部(MC−ADD/SUB)3
7から終了フラグを取得すると(ステップS112)、
次のマクロブロックのステージ0に移行する。
In stage 6, MC-AD for Cb
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S116), and the start of the IDCT process on Cr is performed by the inverse discrete cosine transform unit (ID).
CT) 35 (step S117).
When the end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37 and the inverse discrete cosine transform unit (IDCT) 35 (steps S118 to S120), the Cr
Start of the MC-ADD process for the motion compensation unit (MC-
ADD / SUB) 37 (step S12)
1). Then, a motion compensation unit (MC-ADD / SUB) 3
When the end flag is obtained from No. 7 (step S112),
Move to stage 0 of the next macroblock.

【0070】以上のように、本第1実施形態によれば、
符号化処理時には、動き補償減算処理(MC−SU
B)、離散コサイン変換処理(DCT)、量子化と逆量
子化処理(Q,IQ)、逆離散コサイン変換処理(ID
CT)、動き補償画素加算処理(MC−ADD)が並列
に実行され、また、復号化時には、逆量子化処理(I
Q)、逆離散コサイン変換処理(IDCT)、動き補償
画素加算処理(MC−ADD)が並列に実行される。
As described above, according to the first embodiment,
During the encoding process, the motion compensation subtraction process (MC-SU
B), discrete cosine transform (DCT), quantization and inverse quantization (Q, IQ), inverse discrete cosine transform (ID
CT) and motion-compensated pixel addition processing (MC-ADD) are performed in parallel. At the time of decoding, the inverse quantization processing (I
Q), inverse discrete cosine transform processing (IDCT), and motion compensation pixel addition processing (MC-ADD) are performed in parallel.

【0071】また、本第1実施形態においては、前述し
たように、並列に行っている各処理の処理時間は処理の
種類や入力画像によって可変であるため、パイプライン
の各ステージの処理時間は、最長の処理時間の符号化ま
たは復号化処理の終了を待ってから次のステージの処理
に移行する。従って、このパイプライン処理1つに要す
る処理時間は、各パイプライステージにおける最長処理
時間の総和となる。
In the first embodiment, as described above, since the processing time of each processing performed in parallel is variable depending on the type of processing and the input image, the processing time of each stage of the pipeline is reduced. After waiting for the end of the encoding or decoding process for the longest processing time, the process proceeds to the next stage. Therefore, the processing time required for one pipeline processing is the sum of the longest processing time in each pipeline stage.

【0072】また、CPUを用いてこの符号化、復号化
の処理を行う場合、CPUの動作周波数を適当な値に設
定しなければならない。例えば、1画像ブロック当たり
の処理時間が17000サイクル、画像ブロックの数が
99個、1秒当たりのフレーム数が10とすれば、CP
Uの動作周波数はこれらの横をとった約17MHz以上
としなければならない。双方向伝送を行う場合には、符
号化と復号化を同時に行う必要があるから、符号化に必
要な動作周波数と復号化に必要な復号化周波数、さらに
可変長符号処理や入出力処理等の和がCPU動作周波数
となる。
When the encoding and decoding processes are performed using a CPU, the operating frequency of the CPU must be set to an appropriate value. For example, if the processing time per image block is 17000 cycles, the number of image blocks is 99, and the number of frames per second is 10, CP
The operating frequency of U must be greater than about 17 MHz beside these. When performing bi-directional transmission, it is necessary to perform encoding and decoding at the same time, so the operating frequency required for encoding and the decoding frequency required for decoding, as well as variable-length code processing and input / output processing, etc. The sum is the CPU operating frequency.

【0073】なお、ここでは、量子化/逆量子化処理部
(Q/IQ)313をソフトウェアで実現した場合を説
明したが、量子化/逆量子化処理部(Q/IQ)313
を専用のハードウェアモジュールとして実現することも
可能である。
Here, the case where the quantization / inverse quantization processing section (Q / IQ) 313 is realized by software has been described, but the quantization / inverse quantization processing section (Q / IQ) 313 has been described.
Can be realized as a dedicated hardware module.

【0074】(第2実施形態)図8には、本発明の第2
実施形態に係る画像符号化/復号化装置の構成が示され
ている。
(Second Embodiment) FIG. 8 shows a second embodiment of the present invention.
1 shows a configuration of an image encoding / decoding device according to an embodiment.

【0075】この画像符号化/復号化装置は、図1に示
した第1実施形態と比較すると、符号化/復号化処理の
分割の形態のみが異なっており、同一ステージでDCT
処理とQ処理が行われ、またIQ処理とIDCT処理も
同一ステージで実行できるようになっている。
This image encoding / decoding apparatus differs from the first embodiment shown in FIG. 1 only in the mode of division of the encoding / decoding processing.
Processing and Q processing are performed, and IQ processing and IDCT processing can be executed in the same stage.

【0076】すなわち、本第2実施形態の画像符号化/
復号化装置では、図1の量子化/逆量子化処理部(Q/
IQ)313、離散コサイン変換部(DCT)34、お
よび逆離散コサイン変換部(IDCT)35の代わり
に、DCT処理とQ処理を行う離散コサイン/量子化部
(DCT/Q)44と、IDCT処理とIQ処理を行う
逆離散コサイン/逆量子化部(IDCT/IQ)45と
が設けられている。これら離散コサイン/量子化部(D
CT/Q)44および逆離散コサイン/逆量子化部(I
DCT/IQ)45は互いに独立した専用のハードウェ
アモジュールによって実現されている。
That is, the image encoding / coding of the second embodiment
In the decoding device, the quantization / inverse quantization processing unit (Q /
Instead of the IQ) 313, the discrete cosine transform unit (DCT) 34, and the inverse discrete cosine transform unit (IDCT) 35, a discrete cosine / quantization unit (DCT / Q) 44 for performing DCT processing and Q processing, and an IDCT processing And an inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 for performing IQ processing. These discrete cosine / quantization units (D
CT / Q) 44 and an inverse discrete cosine / inverse quantization unit (I
The DCT / IQ) 45 is realized by dedicated hardware modules independent of each other.

【0077】図9には、符号化処理時のパイプライン動
作の様子が示されている。
FIG. 9 shows the state of the pipeline operation during the encoding process.

【0078】図示のように、輝度ブロック(Y0−Y
3)および色差ブロック(Cb,Cr)からなる6ブロ
ックはそれぞれ1ステージずつ遅れながら順次、MC−
SUB処理、DCT・Q処理、IQ・IDCT処理、M
C−ADD処理されていく。
As shown, the luminance blocks (Y0-Y
6) consisting of 3) and color difference blocks (Cb, Cr) are sequentially shifted by one stage each,
SUB processing, DCT / Q processing, IQ / IDCT processing, M
C-ADD processing is performed.

【0079】すなわち、ステージ0では、輝度ブロック
Y0に対するDCT処理とQ処理が順に行われると共
に、これに並行して、輝度ブロックY1に対するMC処
理(MC−SUB)が並行して行われる。
That is, in the stage 0, the DCT process and the Q process are sequentially performed on the luminance block Y0, and the MC process (MC-SUB) is performed on the luminance block Y1 in parallel.

【0080】続く、ステージ1では、輝度ブロックY0
に対してはIQとIDCT処理が順に行われ、これと並
行して、輝度ブロックY1に対するDCT処理とQ処理
が順に行われ、さらに輝度ブロックY2に対するMC処
理(MC−SUB)が行われる。
Subsequently, in stage 1, the luminance block Y0
, The IQ and IDCT processes are sequentially performed, and in parallel with this, the DCT process and the Q process are sequentially performed on the luminance block Y1, and the MC process (MC-SUB) is further performed on the luminance block Y2.

【0081】続く、ステージ2では、輝度ブロックY0
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY1のIQとIDCT処理、輝度ブロックY2の
DCTとQ処理、および輝度ブロックY3のMC処理
(MC−SUB)が行われる。
Subsequently, in stage 2, the luminance block Y0
In parallel with the MC processing (MC-ADD), the IQ and IDCT processing of the luminance block Y1, the DCT and Q processing of the luminance block Y2, and the MC processing (MC-SUB) of the luminance block Y3 are performed.

【0082】続く、ステージ3では、輝度ブロックY1
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY2のIQとIDCT処理、輝度ブロックY3の
DCTとQ処理、および色差ブロックCbのMC処理
(MC−SUB)が行われる。
Subsequently, in stage 3, the luminance block Y1
In parallel with the MC processing (MC-ADD), the IQ processing and the IDCT processing of the luminance block Y2, the DCT and Q processing of the luminance block Y3, and the MC processing (MC-SUB) of the color difference block Cb are performed.

【0083】続く、ステージ4では、輝度ブロックY2
に対するMC処理(MC−ADD)と並行して、輝度ブ
ロックY3のIQとIDCT処理、色差ブロックCbの
DCTとQ処理、および色差ブロックCrのMC処理
(MC−SUB)が行われる。
Subsequently, in stage 4, the luminance block Y2
In parallel with the MC processing (MC-ADD), the IQ processing and the IDCT processing of the luminance block Y3, the DCT and Q processing of the chrominance block Cb, and the MC processing (MC-SUB) of the chrominance block Cr are performed.

【0084】また、これらステージ0〜4の期間には、
動き検出部(ME)36による次のマクロブロックに対
する動き検出処理(ME)が行われている。
Also, during these stages 0 to 4,
A motion detection process (ME) for the next macroblock is performed by the motion detection unit (ME) 36.

【0085】続く、ステージ5では、輝度ブロックY3
に対するMC処理(MC−ADD)と並行して、色差ブ
ロックCbのIQとIDCT処理、色差ブロックCrの
DCTとQ処理が行われる。また、輝度ブロックY3に
対するMC処理(MC−ADD)が終了した時点で、動
き補償部(MC−ADD/SUB)37による処理は次
のマクロブロック中の輝度ブロックY0に対するMC処
理(MC−ADD)に切り替えられ、この処理が、色差
ブロックCbのIQとIDCT処理、色差ブロックCr
のDCTとQ処理と、並行して行われる。
Subsequently, in stage 5, the luminance block Y3
In parallel with the MC processing (MC-ADD), the IQ and IDCT processing of the color difference block Cb and the DCT and Q processing of the color difference block Cr are performed. When the MC processing (MC-ADD) for the luminance block Y3 is completed, the processing by the motion compensation unit (MC-ADD / SUB) 37 is performed by the MC processing (MC-ADD) for the luminance block Y0 in the next macroblock. Is switched to the IQ and IDCT processing of the color difference block Cb, and the color difference block Cr.
DCT and Q processing are performed in parallel.

【0086】続く、ステージ6では、色差ブロックCb
のMC処理(MC−ADD)と並行して、色差ブロック
CrのIQとIDCT処理が行われる。また、色差ブロ
ックCrのIDCT処理が終了すると、このステージ6
内で、色差ブロックCrのMC処理(MC−ADD)が
続けて行われる。
Subsequently, in stage 6, the color difference block Cb
In parallel with the MC processing (MC-ADD), IQ and IDCT processing of the color difference block Cr are performed. When the IDCT processing of the color difference block Cr is completed, the stage 6
The MC processing (MC-ADD) of the chrominance block Cr is continuously performed.

【0087】また、このステージ6では、次のマクロブ
ロックについての符号化モード(INTRA/INTE
R)が動き検出部(ME)36によって決定される。
In this stage 6, the encoding mode (INTRA / INTER) for the next macroblock is
R) is determined by the motion detector (ME) 36.

【0088】本例においても、MC処理を除くとパイプ
ラインの段数K=2となるので、式T=N+K−1が成
立する。
Also in this example, since the number of pipeline stages is K = 2 except for the MC processing, the equation T = N + K-1 holds.

【0089】図10には、復号化処理時のパイプライン
動作の様子が示されている。
FIG. 10 shows the state of the pipeline operation during the decoding process.

【0090】復号化処理では、図示のように、輝度ブロ
ック(Y0−Y3)および色差ブロック(Cb,Cr)
からなる6ブロックはそれぞれ1ステージずつ遅れなが
ら順次、IQとIDCT処理、MC−ADD処理されて
いく。これにより、ステージ0〜ステージ5の6ステー
ジで、1マクロブロック内の6ブロック全てに対する一
連の復号化処理が完了する。また、最後のステージ5で
は、Crに対するIQ・IDCT処理とMC−ADD処
理が順次行われる。従って、MC−ADD処理を除くと
パイプラインの段数K=1となるので、式T=N+K−
1が成立する。
In the decoding process, as shown, the luminance block (Y0-Y3) and the chrominance block (Cb, Cr)
Are sequentially processed with IQ, IDCT processing and MC-ADD processing with a delay of one stage each. Thus, a series of decoding processes for all six blocks in one macroblock is completed in six stages from stage 0 to stage 5. In the last stage 5, IQ / IDCT processing and MC-ADD processing for Cr are sequentially performed. Therefore, since the number of pipeline stages K becomes 1 except for the MC-ADD process, the equation T = N + K−
1 holds.

【0091】次に、図11および図12のフローチャー
トを参照して、コントローラ31による符号化処理の制
御動作を説明する。
Next, the control operation of the encoding process by the controller 31 will be described with reference to the flowcharts of FIGS.

【0092】まず、ステージ0からのパイプラインステ
ージに入る前に、Y0に対するMC−SUB処理の開始
が動き補償部(MC−ADD/SUB)37に対して指
示される(ステップS201)。そして、その動き補償
部(MC−ADD/SUB)37から終了フラグを取得
すると(ステップS202)、ステージ0からのパイプ
ラインステージに移行する。
First, before entering the pipeline stage from stage 0, the start of the MC-SUB process for Y0 is instructed to the motion compensation unit (MC-ADD / SUB) 37 (step S201). Then, when the end flag is obtained from the motion compensation unit (MC-ADD / SUB) 37 (step S202), the processing shifts from the stage 0 to the pipeline stage.

【0093】ステージ0では、Y0に対するDCTとQ
処理の開始が離散コサイン/量子化部(DCT/Q)4
4に対して指示されると共に(ステップS203)、Y
1に対するMC−SUB処理の開始が動き補償部(MC
−ADD/SUB)37に対して指示される(ステップ
S204)。そして、離散コサイン/量子化部(DCT
/Q)44および動き補償部(MC−ADD/SUB)
37の双方から終了フラグを取得すると(ステップS2
05〜S207)、ステージ1に移行する。
In stage 0, DCT and Q for Y0
Processing starts with discrete cosine / quantization unit (DCT / Q) 4
4 (step S203) and Y
1 is started by the motion compensation unit (MC
-ADD / SUB) 37 (step S204). Then, a discrete cosine / quantization unit (DCT)
/ Q) 44 and motion compensator (MC-ADD / SUB)
37 (step S2).
05 to S207), and proceeds to stage 1.

【0094】ステージ1では、Y0に対するIQとID
CT処理の開始が逆離散コサイン/逆量子化部(IDC
T/IQ)45に指示されると共に(ステップS20
8)、Y1に対するDCTとQ処理の開始が離散コサイ
ン/量子化部(DCT/Q)44に対して指示され(ス
テップS209)、さらにY2に対するMC−SUB処
理の開始が動き補償部(MC−ADD/SUB)37に
対して指示される(ステップS210)。逆離散コサイ
ン/逆量子化部(IDCT/IQ)45、離散コサイン
/量子化部(DCT/Q)44、および動き補償部(M
C−ADD/SUB)37それぞれから終了フラグを取
得すると(ステップS211〜S214)、ステージ2
に移行する。
In stage 1, IQ and ID for Y0
The start of the CT processing is performed by the inverse discrete cosine / inverse quantization unit (IDC).
T / IQ) 45 (step S20)
8) The start of DCT and Q processing for Y1 is instructed to discrete cosine / quantization section (DCT / Q) 44 (step S209), and the start of MC-SUB processing for Y2 is started by motion compensation section (MC-Q). ADD / SUB) 37 (step S210). Inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45, discrete cosine / quantization unit (DCT / Q) 44, and motion compensation unit (M
When the end flag is obtained from each of the C-ADD / SUB) 37 (steps S211 to S214), the stage 2
Move to

【0095】ステージ2では、Y0に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示される(ステップS215)と共に、Y
1に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に指示され(ステ
ップS216)、またY2に対するDCTとQ処理の開
始が離散コサイン/量子化部(DCT/Q)44に対し
て指示される(ステップS217)。動き補償部(MC
−ADD/SUB)37から終了フラグを取得すると
(ステップS219,S223)、Y3に対するMC−
SUB処理の開始が動き補償部(MC−ADD/SU
B)37に対して指示される(ステップS218)。逆
離散コサイン/逆量子化部(IDCT/IQ)45、離
散コサイン/量子化部(DCT/Q)44、および動き
補償部(MC−ADD/SUB)37それぞれから終了
フラグを取得すると(ステップS220〜S222,S
224)、ステージ3に移行する。
In stage 2, MC-AD for Y0
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S215), and Y
The start of IQ and IDCT processing for 1 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S216), and the start of DCT and Q processing for Y2 is performed by the discrete cosine / quantization unit (DCT / IDT). Q) 44 is instructed (step S217). Motion compensation unit (MC
−ADD / SUB) 37 (steps S219 and S223), the MC for Y3 is obtained.
The start of the SUB processing is performed by the motion compensation unit (MC-ADD / SU).
B) An instruction is given to 37 (step S218). When the end flag is obtained from each of the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45, the discrete cosine / quantization unit (DCT / Q) 44, and the motion compensation unit (MC-ADD / SUB) 37 (step S220) ~ S222, S
224), and proceed to stage 3.

【0096】ステージ3では、Y1に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示される(ステップS225)と共に、Y
2に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に指示され(ステ
ップS226)、またY3に対するDCTとQ処理の開
始が離散コサイン/量子化部(DCT/Q)44に対し
て指示される(ステップS227)。動き補償部(MC
−ADD/SUB)37から終了フラグを取得すると
(ステップS229,S233)、Cbに対するMC−
SUB処理の開始が動き補償部(MC−ADD/SU
B)37に対して指示される(ステップS228)。逆
離散コサイン/逆量子化部(IDCT/IQ)45、離
散コサイン/量子化部(DCT/Q)44、および動き
補償部(MC−ADD/SUB)37それぞれから終了
フラグを取得すると(ステップS230〜S232,S
234)、図12のステージ4に移行する。
In stage 3, MC-AD for Y1
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S225), and Y
The start of the IQ and IDCT processing for the signal 2 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S226), and the start of the DCT and Q processing for Y3 is performed by the discrete cosine / quantization unit (DCT / IQ). Q) 44 is instructed (step S227). Motion compensation unit (MC
−ADD / SUB) 37 (steps S229 and S233), the MC for Cb is obtained.
The start of the SUB processing is performed by the motion compensation unit (MC-ADD / SU).
B) An instruction is given to 37 (step S228). When the end flag is obtained from each of the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45, the discrete cosine / quantization unit (DCT / Q) 44, and the motion compensation unit (MC-ADD / SUB) 37 (step S230) ~ S232, S
234), and shifts to the stage 4 in FIG.

【0097】ステージ4では、Y2に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示される(ステップS235)と共に、Y
3に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に指示され(ステ
ップS236)、またCbに対するDCTとQ処理の開
始が離散コサイン/量子化部(DCT/Q)44に対し
て指示される(ステップS237)。動き補償部(MC
−ADD/SUB)37から終了フラグを取得すると
(ステップS239,S243)、Crに対するMC−
SUB処理の開始が動き補償部(MC−ADD/SU
B)37に対して指示される(ステップS238)。逆
離散コサイン/逆量子化部(IDCT/IQ)45、離
散コサイン/量子化部(DCT/Q)44、および動き
補償部(MC−ADD/SUB)37それぞれから終了
フラグを取得すると(ステップS240〜S242,S
244)、ステージ5に移行する。
In stage 4, MC-AD for Y2
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S235), and Y
The start of the IQ and IDCT processing for Cb.3 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S236), and the start of DCT and Q processing for Cb is performed by the discrete cosine / quantization unit (DCT / IQ). Q) 44 is instructed (step S237). Motion compensation unit (MC
−ADD / SUB) 37 (steps S239 and S243), the MC for Cr—
The start of the SUB processing is performed by the motion compensation unit (MC-ADD / SU).
B) An instruction is given to 37 (step S238). When the end flag is obtained from each of the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45, the discrete cosine / quantization unit (DCT / Q) 44, and the motion compensation unit (MC-ADD / SUB) 37 (step S240) ~ S242, S
244), and proceed to stage 5.

【0098】ステージ5では、Y3に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示される(ステップS245)と共に、C
bに対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に指示され(ステ
ップS246)、またCrに対するDCTとQ処理の開
始が離散コサイン/量子化部(DCT/Q)44に対し
て指示される(ステップS247)。動き補償部(MC
−ADD/SUB)37から終了フラグを取得すると
(ステップS248,S251)、次のマクロブロック
のY0に対するMC−SUBの開始が動き補償部(MC
−ADD/SUB)37に対して指示される(ステップ
S252)。逆離散コサイン/逆量子化部(IDCT/
IQ)45、離散コサイン/量子化部(DCT/Q)4
4、および動き補償部(MC−ADD/SUB)37そ
れぞれから終了フラグを取得すると(ステップS24
9,S250,S253,S254)、ステージ6に移
行する。
In stage 5, MC-AD for Y3
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S245), and C
The start of IQ and IDCT processing for b is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S246), and the start of DCT and Q processing for Cr is performed by the discrete cosine / quantization unit (DCT / IQ). Q) 44 is instructed (step S247). Motion compensation unit (MC
When the end flag is obtained from the (-ADD / SUB) 37 (steps S248 and S251), the start of the MC-SUB for the next macroblock Y0 is determined by the motion compensation unit (MC).
-ADD / SUB) 37 (step S252). Inverse discrete cosine / inverse quantization unit (IDCT /
IQ) 45, discrete cosine / quantization unit (DCT / Q) 4
4, and an end flag is obtained from each of the motion compensation unit (MC-ADD / SUB) 37 (step S24).
9, S250, S253, S254), and proceeds to stage 6.

【0099】ステージ6では、Cbに対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示される(ステップS255)と共に、C
rに対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に指示される(ス
テップS256)。動き補償部(MC−ADD/SU
B)37および逆離散コサイン/逆量子化部(IDCT
/IQ)45それぞれからの終了フラグを取得すると
(ステップS257〜S259)、Crに対するMC−
ADD処理の開始が動き補償部(MC−ADD/SU
B)37に対して指示される(ステップS260)。そ
して、動き補償部(MC−ADD/SUB)37から終
了フラグを取得すると(ステップS261)、次のマク
ロブロックのステージ0に移行する。
In stage 6, MC-AD for Cb
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S255), and C
The start of IQ and IDCT processing for r is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S256). Motion compensation unit (MC-ADD / SU
B) 37 and inverse discrete cosine / inverse quantization unit (IDCT)
/ IQ) 45 (steps S257 to S259), the MC-
The start of the ADD processing is performed by the motion compensation unit (MC-ADD / SU).
B) An instruction is given to 37 (step S260). Then, when the end flag is obtained from the motion compensation unit (MC-ADD / SUB) 37 (step S261), the process proceeds to stage 0 of the next macroblock.

【0100】次に、図13および図14のフローチャー
トを参照して、コントローラ31による復号化処理の制
御動作を説明する。
Next, the control operation of the decoding process by the controller 31 will be described with reference to the flowcharts of FIGS.

【0101】ステージ0では、Y0に対するIQとID
CT処理の開始が逆離散コサイン/逆量子化部(IDC
T/IQ)45に対して指示される(ステップS30
1)。逆離散コサイン/逆量子化部(IDCT/IQ)
45から終了フラグを取得すると、ステージ1に移行す
る。
In stage 0, IQ and ID for Y0
The start of the CT processing is performed by the inverse discrete cosine / inverse quantization unit (IDC).
T / IQ) 45 (step S30)
1). Inverse discrete cosine / inverse quantization unit (IDCT / IQ)
When the end flag is obtained from 45, the process proceeds to stage 1.

【0102】ステージ1では、Y0に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS303)、Y
1に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に対して指示され
る(ステップS304)。動き補償部(MC−ADD/
SUB)37および逆離散コサイン/逆量子化部(ID
CT/IQ)45の双方から終了フラグを取得すると
(ステップS305〜S307)、ステージ2に移行す
る。
In stage 1, MC-AD for Y0
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S303), and Y
The start of the IQ and IDCT processing for 1 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S304). Motion compensation unit (MC-ADD /
SUB) 37 and an inverse discrete cosine / inverse quantization unit (ID)
When the end flag is obtained from both the CT / IQ) 45 (steps S305 to S307), the process proceeds to stage 2.

【0103】ステージ2では、Y1に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS308)、Y
2に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に対して指示され
る(ステップS309)。動き補償部(MC−ADD/
SUB)37および逆離散コサイン/逆量子化部(ID
CT/IQ)45の双方から終了フラグを取得すると
(ステップS310〜S312)、ステージ3に移行す
る。
In stage 2, MC-AD for Y1
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S308), and Y
The start of the IQ and IDCT processing for 2 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S309). Motion compensation unit (MC-ADD /
SUB) 37 and an inverse discrete cosine / inverse quantization unit (ID)
When the end flag is acquired from both of the CT / IQ) 45 (steps S310 to S312), the process proceeds to stage 3.

【0104】ステージ3では、Y2に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS313)、Y
3に対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に対して指示され
る(ステップS314)。動き補償部(MC−ADD/
SUB)37および逆離散コサイン/逆量子化部(ID
CT/IQ)45の双方から終了フラグを取得すると
(ステップS316〜S319)、図14のステージ4
に移行する。
In stage 3, MC-AD for Y2
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S313) and Y
The start of the IQ and IDCT processing for No. 3 is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S314). Motion compensation unit (MC-ADD /
SUB) 37 and an inverse discrete cosine / inverse quantization unit (ID)
When the end flag is acquired from both the CT / IQ) 45 (steps S316 to S319), the stage 4 in FIG.
Move to

【0105】ステージ4では、Y3に対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS320)、C
bに対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に対して指示され
る(ステップS321)。動き補償部(MC−ADD/
SUB)37および逆離散コサイン/逆量子化部(ID
CT/IQ)45の双方から終了フラグを取得すると
(ステップS322〜S324)、ステージ5に移行す
る。
In stage 4, MC-AD for Y3
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S320), and C
The start of IQ and IDCT processing for b is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S321). Motion compensation unit (MC-ADD /
SUB) 37 and an inverse discrete cosine / inverse quantization unit (ID)
When the end flag is acquired from both of the CT / IQ) 45 (steps S322 to S324), the process proceeds to stage 5.

【0106】ステージ5では、Cbに対するMC−AD
D処理の開始が動き補償部(MC−ADD/SUB)3
7に対して指示されると共に(ステップS325)、C
rに対するIQとIDCT処理の開始が逆離散コサイン
/逆量子化部(IDCT/IQ)45に対して指示され
る(ステップS326)。動き補償部(MC−ADD/
SUB)37および逆離散コサイン/逆量子化部(ID
CT/IQ)45の双方から終了フラグを取得すると
(ステップS327〜S329)、Crに対するMC−
ADD処理の開始が動き補償部(MC−ADD/SU
B)37に指示される(ステップS330)。そして、
その動き補償部(MC−ADD/SUB)37から終了
フラグを取得すると(ステップS331)、次のマクロ
ブロックのステージ0に移行する。
In stage 5, MC-AD for Cb
The start of D processing is performed by the motion compensation unit (MC-ADD / SUB) 3
7 (step S325), and C
The start of IQ and IDCT processing for r is instructed to the inverse discrete cosine / inverse quantization unit (IDCT / IQ) 45 (step S326). Motion compensation unit (MC-ADD /
SUB) 37 and an inverse discrete cosine / inverse quantization unit (ID)
When the end flag is acquired from both of the CT / IQ) 45 (steps S327 to S329), the MC-
The start of the ADD processing is performed by the motion compensation unit (MC-ADD / SU).
B) 37 is instructed (step S330). And
When the end flag is obtained from the motion compensator (MC-ADD / SUB) 37 (step S331), the process proceeds to stage 0 of the next macro block.

【0107】また、本第2実施形態においても、前述し
たように、並列に行っている各処理の処理時間は処理の
種類や入力画像によって可変であるため、パイプライン
の各ステージの処理時間は、最長の処理時間の符号化ま
たは復号化処理の終了を待ってから次のステージの処理
に移行する。従って、このパイプライン処理1つに要す
る処理時間は、各パイプライステージにおける最長処理
時間の総和となる。
Also in the second embodiment, as described above, since the processing time of each processing performed in parallel is variable depending on the processing type and the input image, the processing time of each stage of the pipeline is different. After waiting for the end of the encoding or decoding process for the longest processing time, the process proceeds to the next stage. Therefore, the processing time required for one pipeline processing is the sum of the longest processing time in each pipeline stage.

【0108】また、CPUを用いてこの符号化、復号化
の処理を行う場合、CPUの動作周波数を適当な値に設
定しなければならない。例えば、1画像ブロック当たり
の処理時間が17000サイクル、画像ブロックの数が
99個、1秒当たりのフレーム数が10とすれば、CP
Uの動作周波数はこれらの横をとった約17MHz以上
としなければならない。双方向伝送を行う場合には、符
号化と復号化を同時に行う必要があるから、符号化に必
要な動作周波数と復号化に必要な復号化周波数、さらに
可変長符号処理や入出力処理等の和がCPU動作周波数
となる。
When the encoding and decoding processes are performed using the CPU, the operating frequency of the CPU must be set to an appropriate value. For example, if the processing time per image block is 17000 cycles, the number of image blocks is 99, and the number of frames per second is 10, CP
The operating frequency of U must be greater than about 17 MHz beside these. When performing bi-directional transmission, it is necessary to perform encoding and decoding at the same time, so the operating frequency required for encoding and the decoding frequency required for decoding, as well as variable-length code processing and input / output processing, etc. The sum is the CPU operating frequency.

【0109】[0109]

【発明の効果】以上説明したように、本発明によれば、
符号化/復号化のためたの一連の処理が複数の専用モジ
ュールにそれぞれ分割し、それらモジュールが互いに異
なる画像ブロックデータに対して処理を並列に行うよう
に制御しているので、低い動作周波数でも効率よく画像
の符号化/復号化処理を行えるようになる。また、冗長
化構成は採用しておらず、同一機能を有するモジュール
は1つのみしか存在しないので、装置サイズの小型化、
低消費電力化を図ることができ、携帯情報端末等の低消
費電力が要求される機器への搭載に最適な符号化/復号
化装置を実現できる。
As described above, according to the present invention,
A series of processes for encoding / decoding are respectively divided into a plurality of dedicated modules, and the modules control the processes on different image block data in parallel, so that even at a low operating frequency, It is possible to efficiently perform image encoding / decoding processing. In addition, since a redundant configuration is not adopted and only one module having the same function exists, the size of the device can be reduced,
Low power consumption can be achieved, and an encoding / decoding device optimal for mounting on a device requiring low power consumption such as a portable information terminal can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係る画像符号化/復号
化装置の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an image encoding / decoding device according to a first embodiment of the present invention.

【図2】同第1実施形態の画像符号化/復号化装置にお
ける符号化処理時のパイプライン動作の一例を示す図。
FIG. 2 is a view showing an example of a pipeline operation at the time of encoding processing in the image encoding / decoding device of the first embodiment.

【図3】同第1実施形態の画像符号化/復号化装置にお
ける復号化処理時のパイプライン動作の一例を示す図。
FIG. 3 is a view showing an example of a pipeline operation at the time of decoding processing in the image encoding / decoding device of the first embodiment.

【図4】同第1実施形態の画像符号化/復号化装置にお
ける符号化処理動作の制御手順の一部を説明するフロー
チャート。
FIG. 4 is a flowchart illustrating a part of a control procedure of an encoding processing operation in the image encoding / decoding device according to the first embodiment.

【図5】同第1実施形態の画像符号化/復号化装置にお
ける符号化処理動作の制御手順の残りの部分を説明する
フローチャート。
FIG. 5 is a flowchart illustrating the remaining part of the control procedure of the encoding processing operation in the image encoding / decoding device according to the first embodiment.

【図6】同第1実施形態の画像符号化/復号化装置にお
ける復号化処理動作の制御手順の一部を説明するフロー
チャート。
FIG. 6 is a flowchart illustrating a part of a control procedure of a decoding processing operation in the image encoding / decoding device according to the first embodiment.

【図7】同第1実施形態の画像符号化/復号化装置にお
ける復号化処理動作の制御手順の残りの部分を説明する
フローチャート。
FIG. 7 is a flowchart for explaining the remaining part of the control procedure of the decoding processing operation in the image encoding / decoding device according to the first embodiment.

【図8】本発明の第2実施形態に係る画像符号化/復号
化装置の構成を示すブロック図。
FIG. 8 is a block diagram showing a configuration of an image encoding / decoding device according to a second embodiment of the present invention.

【図9】同第2実施形態の画像符号化/復号化装置にお
ける符号化処理時のパイプライン動作の一例を示す図。
FIG. 9 is a diagram showing an example of a pipeline operation at the time of encoding processing in the image encoding / decoding device according to the second embodiment.

【図10】同第2実施形態の画像符号化/復号化装置に
おける復号化処理時のパイプライン動作の一例を示す
図。
FIG. 10 is a view showing an example of a pipeline operation at the time of decoding processing in the image encoding / decoding device of the second embodiment.

【図11】同第2実施形態の画像符号化/復号化装置に
おける符号化処理動作の制御手順の一部を説明するフロ
ーチャート。
FIG. 11 is a flowchart illustrating a part of a control procedure of an encoding processing operation in the image encoding / decoding device according to the second embodiment.

【図12】同第2実施形態の画像符号化/復号化装置に
おける符号化処理動作の制御手順の残りの部分を説明す
るフローチャート。
FIG. 12 is a flowchart for explaining the remaining part of the control procedure of the encoding processing operation in the image encoding / decoding device according to the second embodiment.

【図13】同第2実施形態の画像符号化/復号化装置に
おける復号化処理動作の制御手順の一部を説明するフロ
ーチャート。
FIG. 13 is a flowchart illustrating a part of a control procedure of a decoding processing operation in the image encoding / decoding device according to the second embodiment.

【図14】同第2実施形態の画像符号化/復号化装置に
おける復号化処理動作の制御手順の残りの部分を説明す
るフローチャート。
FIG. 14 is a flowchart for explaining the remaining part of the control procedure of the decoding processing operation in the image encoding / decoding device according to the second embodiment.

【図15】従来の画像符号化処理を説明するためのブロ
ック図。
FIG. 15 is a block diagram for explaining a conventional image encoding process.

【図16】従来の画像復号化処理を説明するためのブロ
ック図。
FIG. 16 is a block diagram for explaining a conventional image decoding process.

【図17】画像のマクロブロックの構成を説明する図。FIG. 17 is a diagram illustrating a configuration of a macroblock of an image.

【符号の説明】[Explanation of symbols]

31…コントローラ 32…DMAコントローラ(DMAC) 33…ビデオインタフェース部(VIDEO−I/F) 34…離散コサイン変換部(DCT) 35…逆離散コサイン変換部(IDCT) 36…動き検出部(ME) 37…動き補償部(MC−ADD/SUB) 38…可変長符号化部(VLC) 39…可変長復号化部(VLD) 311…符号化/復号化制御部(Enc/Dec) 312…DMA制御部 313…量子化/逆量子化処理部(Q/IQ) 44…離散コサイン/量子化部(DCT/Q) 45…逆離散コサイン/逆量子化部(IDCT/IQ) 31 controller 32 DMA controller (DMAC) 33 video interface unit (VIDEO-I / F) 34 discrete cosine transform unit (DCT) 35 inverse discrete cosine transform unit (IDCT) 36 motion detector (ME) 37 ... Motion compensation unit (MC-ADD / SUB) 38 ... Variable length coding unit (VLC) 39 ... Variable length decoding unit (VLD) 311 ... Encoding / decoding control unit (Enc / Dec) 312 ... DMA control unit 313: quantization / inverse quantization processing unit (Q / IQ) 44: discrete cosine / quantization unit (DCT / Q) 45: inverse discrete cosine / inverse quantization unit (IDCT / IQ)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森本 美智代 神奈川県川崎市幸区柳町70番地 株式会社 東芝柳町工場内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Michiyo Morimoto 70, Yanagicho, Saiwai-ku, Kawasaki-shi, Kanagawa Prefecture Toshiba Yanagicho Plant Co., Ltd.

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 縦横各々複数画素から構成される複数の
画像ブロックデータからなる入力データに対して符号化
処理を行う第1から第nの符号化処理手段と、 前記第1から第nの符号化処理手段が前記各画像ブロッ
クデータに対して第1から第nの順番で処理をし、か
つ、前記第1から第nの符号化処理手段が互いに異なる
画像ブロックデータに対する処理を並列に行うよう前記
各符号化処理手段を制御する制御手段とを具備すること
を特徴とする画像符号化装置。
A first to an n-th encoding processing means for performing an encoding process on input data composed of a plurality of image block data each composed of a plurality of pixels in each of a vertical direction and a horizontal direction; Encoding processing means processes the image block data in a first to n-th order, and the first to n-th encoding processing means performs processing on different image block data in parallel. An image encoding apparatus comprising: a control unit for controlling each of the encoding processing units.
【請求項2】 前記第1から第nの符号化処理手段によ
って並列に行われる各処理の処理時間は、それら並列処
理される複数の画像ブロックデータに応じて可変設定さ
れることを特徴とする請求項1記載の画像符号化装置。
2. The processing time of each processing performed in parallel by the first to n-th encoding processing means is variably set according to the plurality of image block data to be processed in parallel. The image encoding device according to claim 1.
【請求項3】 前記制御手段は、前記第1から第nの符
号化処理手段によって並列に行われる各処理毎に前記第
1から第nの全ての符号化処理手段それぞれの動作終了
の有無を判定し、全ての符号化処理手段の動作終了が検
出されたときに次の分割符号化処理に移るよう制御を行
うことを特徴とする請求項2記載の画像符号化装置。
3. The control means determines whether or not each of the first to n-th encoding processing means has completed the operation for each of the processing performed in parallel by the first to n-th encoding processing means. 3. The image encoding apparatus according to claim 2, wherein the control is performed so as to make a determination and, when the operation end of all encoding processing means is detected, to proceed to the next divided encoding processing.
【請求項4】 前記第1から第nの符号化処理手段によ
る処理は、1から順に、動き補償処理、離散コサイン変
換処理、量子化と逆量子化処理、逆離散コサイン変換処
理、動き補償画素加算処理であることを特徴とする請求
項1乃至3のいずれか1項記載の画像符号化装置。
4. The processing by the first to n-th encoding processing means includes, in order from 1, motion compensation processing, discrete cosine transformation processing, quantization and inverse quantization processing, inverse discrete cosine transformation processing, motion compensation pixel The image encoding device according to claim 1, wherein the image encoding device performs an addition process.
【請求項5】 前記第1から第nの符号化処理手段によ
る処理は、1から順に、動き補償処理、離散コサイン変
換と量子化処理、逆量子化と逆離散コサイン変換処理、
動き補償画素加算処理であることを特徴とする請求項1
乃至3のいずれか1項記載の画像符号化装置。
5. The processing by the first to n-th encoding processing means includes, in order from 1, motion compensation processing, discrete cosine transformation and quantization processing, inverse quantization and inverse discrete cosine transformation processing,
2. A motion compensation pixel addition process.
The image encoding device according to any one of claims 1 to 3.
【請求項6】 縦横各々複数画素から構成される複数の
符号化された画像ブロックデータからなる入力データに
対して復号化処理を行う第1から第nの復号化処理手段
と、 前記第1から第nの復号化処理手段が前記各画素ブロッ
クデータに対して第1から第nの順番で処理をし、か
つ、前記第1から第nの復号化処理手段が互いに異なる
画像ブロックデータに対する処理を並列に行うよう前記
各復号化処理手段を制御する制御手段とを具備すること
を特徴とする画像復号化装置。
6. A first to n-th decoding processing means for performing a decoding process on input data composed of a plurality of encoded image block data each composed of a plurality of pixels vertically and horizontally, and The n-th decoding processing means processes the respective pixel block data in the first to n-th order, and the first to n-th decoding processing means performs processing on different image block data from each other. Control means for controlling each of the decoding processing means so as to perform the processing in parallel.
【請求項7】 前記第1から第nの復号化処理手段によ
る処理は、1から順に、逆量子化処理、逆離散コサイン
変換処理、動き補償画素加算処理であることを特徴とす
る請求項6記載の画像復号化装置。
7. The processing by the first to n-th decoding processing means is, in order from 1, an inverse quantization processing, an inverse discrete cosine transform processing, and a motion compensation pixel addition processing. An image decoding device according to claim 1.
【請求項8】 前記第1から第nの復号化処理手段によ
る処理は、1から順に、逆量子化と逆離散コサイン変換
処理、動き補償画素加算処理であることを特徴とする請
求項6記載の画像復号装置。
8. The processing according to claim 6, wherein the processing by the first to n-th decoding processing means is, in order from 1, the inverse quantization, the inverse discrete cosine transform processing, and the motion compensation pixel addition processing. Image decoding device.
【請求項9】 縦横各々複数画素から構成される複数の
画像ブロックデータからなる入力データに対して符号化
処理を行う第1から第nの処理手段と、 符号化時には、前記第1から第nの処理手段が前記各画
像ブロックデータに対して第1から第nの順番で処理を
し、かつ、前記第1から第nの処理手段が互いに異なる
画像ブロックデータに対する処理を並列に行うよう前記
各処理手段を制御し、 復号化時には、前記第1から第nの処理手段の一部を用
いて、符号化された各画素ブロックデータに対してその
復号化のための所定の順番で処理をし、かつ、復号化に
用いられる前記第1から第nの処理手段の一部が互いに
異なる画像ブロックデータに対する処理を並列に行うよ
う前記各処理手段を制御する制御手段とを具備すること
を特徴とする画像符号化/復号化装置。
9. A first to n-th processing means for performing an encoding process on input data composed of a plurality of image block data each composed of a plurality of pixels vertically and horizontally, and the first to n-th encoding means at the time of encoding. Processing means for processing each of the image block data in the first to n-th order, and the first to n-th processing means perform processing for different image block data in parallel with each other. At the time of decoding, a part of the first to n-th processing means is used to process each of the encoded pixel block data in a predetermined order for decoding. And control means for controlling each processing means so that a part of the first to n-th processing means used for decoding performs processing on different image block data in parallel with each other. You Image encoding / decoding apparatus.
【請求項10】 前記各画像ブロックデータは、縦8画
素×横8画素から構成されることを特徴とする請求項
1、6、または9記載の画像符号化/復号化装置。
10. The image encoding / decoding apparatus according to claim 1, wherein each of the image block data is composed of 8 pixels vertically × 8 pixels horizontally.
【請求項11】 縦横各々複数画素から構成される複数
の画像ブロックデータからなる入力データに対して符号
化処理を行う第1から第nの符号化処理手段を具備し、 前記第1から第nの符号化処理手段をパイプライン動作
させ、前記第1から第nの符号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、 処理対象の全ての画像ブロックデータの符号化処理のた
めに要する全パイプラインステージ数は、処理対象の画
像ブロックデータの個数と、前記第1から第nの符号化
処理手段によるパイプラインの段数との和、から1を引
いた残り値であることを特徴とする画像符号化装置。
11. An image processing apparatus comprising: first to n-th encoding processing means for performing encoding processing on input data composed of a plurality of image block data each composed of a plurality of pixels vertically and horizontally; And a control means for controlling the pipeline operation so that the first to n-th encoding processing means perform processing on different image block data in parallel with each other. The total number of pipeline stages required for the encoding processing of all target image block data is determined by the number of image block data to be processed and the number of pipeline stages by the first to n-th encoding processing units. An image encoding device, wherein the remaining value is obtained by subtracting 1 from the sum.
【請求項12】 縦横各々複数画素から構成される複数
の符号化された画像ブロックデータからなる入力データ
に対して復号化処理を行う第1から第nの復号化処理手
段を具備し、 前記第1から第nの復号化処理手段をパイプライン動作
させ、前記第1から第nの復号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、 処理対象の全ての画像ブロックデータの復号化処理のた
めに要する全パイプラインステージ数は、処理対象の画
像ブロックデータの個数と、前記第1から第nの復号化
処理手段によるパイプラインの段数との和、から1を引
いた残り値であることを特徴とする画像復号化装置。
12. A first to n-th decoding processing means for performing decoding processing on input data comprising a plurality of encoded image block data each composed of a plurality of pixels vertically and horizontally, and Control means for causing the first to n-th decoding processing means to perform a pipeline operation, and controlling the pipeline operation such that the first to n-th decoding processing means performs processing on different image block data in parallel with each other; The number of all pipeline stages required for the decoding processing of all the image block data to be processed is determined by the number of image block data to be processed and the pipeline by the first to n-th decoding processing means. An image decoding apparatus characterized in that the remaining value is obtained by subtracting 1 from the sum of the number of stages.
【請求項13】 縦横各々複数画素から構成される複数
の画像ブロックデータからなる入力データに対して符号
化処理を行う第1から第nの符号化処理手段を具備し、 前記第1から第nの符号化処理手段をパイプライン動作
させ、前記第1から第nの符号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、1
つのパイプラインの符号化処理のために要する処理時間
は、各パイプラインステージにおける前記第1から第n
の符号化処理手段による符号化処理に要する処理時間の
うち、最長の処理時間の総和であることを特徴とする画
像符号化装置。
13. An image processing apparatus comprising: first to n-th encoding processing means for performing encoding processing on input data composed of a plurality of image block data each composed of a plurality of pixels vertically and horizontally; And a control means for controlling the pipeline operation so that the first to n-th encoding processing means perform processing on different image block data in parallel.
The processing time required for the encoding processing of one pipeline is the first to n-th in each pipeline stage.
An image encoding apparatus characterized in that it is the sum of the longest processing time among the processing times required for the encoding processing by the encoding processing means.
【請求項14】 縦横各々複数画素から構成される複数
の画像ブロックデータからなる入力データに対して符号
化処理を行う第1から第nの符号化処理手段を具備し、 前記第1から第nの符号化処理手段をパイプライン動作
させ、前記第1から第nの符号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、 全ての前記画像ブロックデータに対する符号化処理を行
うのに要する動作周波数は、処理対象の全ての前記画像
ブロックデータの符号化処理を行うのに要する処理時間
と、前記画像ブロックデータの個数と、単位時間当たり
に表示させる画像のフレーム数との積に基づいて設定さ
れることを特徴とする画像符号化装置。
14. An image processing apparatus comprising: first to n-th encoding processing means for performing encoding processing on input data composed of a plurality of image block data each composed of a plurality of pixels in each of the vertical and horizontal directions; And a control means for controlling the pipeline operation so that the first to n-th encoding processing means perform processing on different image block data in parallel. The operating frequency required to perform the encoding process on the image block data is the processing time required to perform the encoding process on all the image block data to be processed, the number of the image block data, and the unit time. An image coding apparatus, which is set based on a product of the number of frames of an image to be displayed per hit.
【請求項15】 縦横各々複数画像から構成される複数
の画像ブロックデータからなる入力データに対して復号
化処理を行う第1から第nの復号化処理手段を具備し、 前記第1から第nの復号化処理手段をパイプライン動作
させ、前記第1から第nの復号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、 1つのパイプラインの復号化処理のために要する処理時
間は、各パイプラインステージにおける前記第1から第
nの複号化処理手段による復号化処理に要する処理時間
のうち、最長の処理時間の総和であることを特徴とする
画像復号化装置。
15. An image processing apparatus comprising: first to n-th decoding processing means for performing a decoding process on input data composed of a plurality of image block data each composed of a plurality of images in each of vertical and horizontal directions; And control means for controlling the pipeline operation so that the first to n-th decoding processing means perform processing on different image block data in parallel with each other. The processing time required for the decoding processing of one pipeline is the sum of the longest processing time among the processing times required for the decoding processing by the first to n-th decoding processing means in each pipeline stage. An image decoding device, comprising:
【請求項16】 縦横各々複数画素から構成される複数
の画像ブロックデータからなる入力データに対して複号
化処理を行う第1から第nの復号化処理手段を具備し、 前記第1から第nの復号化処理手段をパイプライン動作
させ、前記第1から第nの従号化処理手段が互いに異な
る画像ブロックデータに対する処理を並列に行うよう前
記パイプライン動作を制御する制御手段とを具備し、 全ての前記画像ブロックデータに対する復号化処理を行
うのに要する動作周波数は、処理対象の全ての前記画像
ブロックデータの復号化処理を行うのに要する処理時間
と、前記画像ブロックデータの個数と、単位時間当たり
に表示させる画像のフレーム数との積に基づいて設定さ
れることを特徴とする画像復号化装置。
16. An image processing apparatus comprising: first to n-th decoding processing means for performing a decoding process on input data including a plurality of image block data each composed of a plurality of pixels in the vertical and horizontal directions; control means for causing the n decoding processing means to perform a pipeline operation, and controlling the pipeline operation so that the first to n-th decoding processing means perform processing on different image block data in parallel. The operating frequency required to perform the decoding process on all the image block data, the processing time required to perform the decoding process on all the image block data to be processed, the number of the image block data, An image decoding apparatus, which is set based on a product of the number of frames of an image to be displayed per unit time.
【請求項17】 縦横各々複数画像から構成される複数
の画像ブロックデータからなる入力データに対して符号
化/復号化処理を行う第1から第nの符号化/復号化処
理手段を具備し、 前記第1から第nの符号化/復号化処理手段をパイプラ
イン動作させ、前記第1から第nの符号化/従号化処理
手段が互いに異なる画像ブロックデータに対する地理を
並列に行うよう前記パイプライン動作を制御する制御手
段とを具備し、 全ての前記画魚ブロックデータに対する符号化及び復号
化処理を行うのに要る動作周波数は、前記符号化処理を
行うのに要する動作周波数と、前記復号化処理を行うの
に要する動作周波数と、少なくとも可変長符号処理を含
む動作周波数との和に基づいて設定されることを特徴と
する画像符号化/復号化装置。
17. An image processing apparatus comprising: first to n-th encoding / decoding processing means for performing encoding / decoding processing on input data composed of a plurality of image block data each composed of a plurality of images each vertically and horizontally, The first to n-th encoding / decoding processing means are operated in a pipeline, and the first to n-th encoding / decoding processing means perform the geography on different image block data in parallel. Control means for controlling the line operation, the operating frequency required to perform the encoding and decoding processing on all the fish block data, the operating frequency required to perform the encoding processing, An image encoding / decoding apparatus, which is set based on a sum of an operating frequency required for performing a decoding process and an operating frequency including at least a variable-length code process.
JP4837798A 1998-02-27 1998-02-27 Image coding/decoding device Pending JPH11252549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4837798A JPH11252549A (en) 1998-02-27 1998-02-27 Image coding/decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4837798A JPH11252549A (en) 1998-02-27 1998-02-27 Image coding/decoding device

Publications (1)

Publication Number Publication Date
JPH11252549A true JPH11252549A (en) 1999-09-17

Family

ID=12801646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4837798A Pending JPH11252549A (en) 1998-02-27 1998-02-27 Image coding/decoding device

Country Status (1)

Country Link
JP (1) JPH11252549A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093458A1 (en) * 2003-04-15 2004-10-28 Kanazawa University Technology Licensing Organization Ltd. Moving picture encoding or decoding processing system and mobin g picture encoding or decoding processing method
KR100465963B1 (en) * 2002-05-16 2005-01-13 삼성전자주식회사 Image compressing and extracting method for mobile phone
WO2005025230A1 (en) * 2003-08-28 2005-03-17 Hitachi Ulsi Systems Co., Ltd. Image processing device
WO2006013690A1 (en) * 2004-08-04 2006-02-09 Matsushita Electric Industrial Co., Ltd. Image decoding device
JP2006157678A (en) * 2004-11-30 2006-06-15 Canon Inc Variable length coding apparatus and variable length coding method
JP2007282085A (en) * 2006-04-11 2007-10-25 Toshiba Corp Image filter processing apparatus and image processor
US7460042B2 (en) 2006-06-29 2008-12-02 Kabushiki Kaisha Toshiba Encoding circuit, decoding circuit, encoder circuit, decoder circuit, and CABAC processing method
JP2009152805A (en) * 2007-12-19 2009-07-09 Canon Inc Video coder, control method of video coder, and computer program
JP2009237888A (en) * 2008-03-27 2009-10-15 Renesas Technology Corp Data processor, image coding/decoding device, and data processing system
WO2009130871A1 (en) * 2008-04-25 2009-10-29 パナソニック株式会社 Decoding device
JP2014533466A (en) * 2011-11-10 2014-12-11 イーサトゥルヌスEsaturnus Ultra-low latency video communication
US9414059B2 (en) 2010-10-04 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Image processing device, image coding method, and image processing method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100465963B1 (en) * 2002-05-16 2005-01-13 삼성전자주식회사 Image compressing and extracting method for mobile phone
WO2004093458A1 (en) * 2003-04-15 2004-10-28 Kanazawa University Technology Licensing Organization Ltd. Moving picture encoding or decoding processing system and mobin g picture encoding or decoding processing method
WO2005025230A1 (en) * 2003-08-28 2005-03-17 Hitachi Ulsi Systems Co., Ltd. Image processing device
JP4668914B2 (en) * 2004-08-04 2011-04-13 パナソニック株式会社 Image decoding device
WO2006013690A1 (en) * 2004-08-04 2006-02-09 Matsushita Electric Industrial Co., Ltd. Image decoding device
US8428126B2 (en) 2004-08-04 2013-04-23 Panasonic Corporation Image decoding device with parallel processors
JPWO2006013690A1 (en) * 2004-08-04 2008-05-01 松下電器産業株式会社 Image decoding device
JP2006157678A (en) * 2004-11-30 2006-06-15 Canon Inc Variable length coding apparatus and variable length coding method
US7894532B2 (en) 2004-11-30 2011-02-22 Canon Kabushiki Kaisha Variable-length encoding apparatus and method
US8170363B2 (en) 2006-04-11 2012-05-01 Kabushiki Kaisha Toshiba Image processing apparatus for performing deblocking filtering process
JP2007282085A (en) * 2006-04-11 2007-10-25 Toshiba Corp Image filter processing apparatus and image processor
US7460042B2 (en) 2006-06-29 2008-12-02 Kabushiki Kaisha Toshiba Encoding circuit, decoding circuit, encoder circuit, decoder circuit, and CABAC processing method
JP2009152805A (en) * 2007-12-19 2009-07-09 Canon Inc Video coder, control method of video coder, and computer program
JP2009237888A (en) * 2008-03-27 2009-10-15 Renesas Technology Corp Data processor, image coding/decoding device, and data processing system
WO2009130871A1 (en) * 2008-04-25 2009-10-29 パナソニック株式会社 Decoding device
US9414059B2 (en) 2010-10-04 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Image processing device, image coding method, and image processing method
JP2014533466A (en) * 2011-11-10 2014-12-11 イーサトゥルヌスEsaturnus Ultra-low latency video communication

Similar Documents

Publication Publication Date Title
EP1445869B1 (en) Variable length encoding method, variable length decoding method, storage medium, variable length encoding device, variable length decoding device, and bit stream
US20030095603A1 (en) Reduced-complexity video decoding using larger pixel-grid motion compensation
JP4501631B2 (en) Image coding apparatus and method, computer program for image coding apparatus, and portable terminal
JPH11252549A (en) Image coding/decoding device
JP3680845B2 (en) Compressed video decompression device and image display device using the same
JP3633204B2 (en) Signal encoding apparatus, signal encoding method, signal recording medium, and signal transmission method
JP2006157925A (en) Pipeline deblocking filter
JP2003061100A (en) Apparatus and method for encoding multi-channel image
JP2002247583A (en) Image signal decoding device
JPH099251A (en) Parallel picture encoding method and device therefor
JP2008289105A (en) Image processing device and imaging apparatus equipped therewith
JPH06319131A (en) Video decoder
JP3589481B2 (en) Video signal encoding method
JP3141149B2 (en) Image coding device
US6501795B1 (en) Adaptable intraframe/interframe motion video encoder
JP3416505B2 (en) Video decoding method
JP2001045493A (en) Moving image encoding device, moving image output device and storage medium
JP2003125408A (en) Image coder, image decoder, its method, image coding program, and image decoding program
KR20030092580A (en) Image encoding method and apparatus for improving performance
JP2000184380A (en) Moving picture compression coder and moving picture compression decoder
JP3855332B2 (en) Image coding method
JP2003087789A (en) Image encoder and image decoder
JP2004312689A (en) Mpeg video decoding method and mpeg video decoder
JPH11252561A (en) Moving image decoding method
JP2003037854A (en) Dynamic-image coding and decoding methods, and the program and apparatus therefor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040210