JP2002135596A - Image processing apparatus, image processing method and image data transfer method - Google Patents

Image processing apparatus, image processing method and image data transfer method

Info

Publication number
JP2002135596A
JP2002135596A JP2000322969A JP2000322969A JP2002135596A JP 2002135596 A JP2002135596 A JP 2002135596A JP 2000322969 A JP2000322969 A JP 2000322969A JP 2000322969 A JP2000322969 A JP 2000322969A JP 2002135596 A JP2002135596 A JP 2002135596A
Authority
JP
Japan
Prior art keywords
component
block
data
stage
coefficient data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000322969A
Other languages
Japanese (ja)
Inventor
Manabu Kuroda
学 黒田
Kazutoshi Funahashi
和年 舟橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000322969A priority Critical patent/JP2002135596A/en
Publication of JP2002135596A publication Critical patent/JP2002135596A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To decompress compression image data in the unit of blocks. SOLUTION: Read addresses of color difference components U, V in a first block in a horizontal direction are stored in a start address memory M3. Huffman decoding, inverse quantization and inverse DCT are applied to a luminance component Y and the color difference components U, V for each block. Up-sampling is applied to decompressed image data of the color difference components U, V to extract a part corresponding to the decompressed image data of the luminance component Y. Color space conversion and color number reduction are applied to the luminance component Y and the color difference components U, V to obtain a decompressed image of a concerned block. When the decompression processing of the block by one line in the horizontal direction is finished, the coded data of the color difference components U, V are read again on the basis of the address information stored in the start address memory M3. Then the similar decompression processing to above is repeated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像処理装置、
画像処理方法および画像データ転送方法に関する。さら
に詳しくは、プログレッシブ符号化された圧縮画像デー
タを伸張する画像処理装置および画像処理方法、ならび
に、当該画像処理装置および画像処理方法に適用するこ
とができる画像データ転送方法に関する。
The present invention relates to an image processing apparatus,
The present invention relates to an image processing method and an image data transfer method. More specifically, the present invention relates to an image processing apparatus and an image processing method for expanding progressively encoded compressed image data, and an image data transfer method applicable to the image processing apparatus and the image processing method.

【0002】[0002]

【従来の技術】(従来技術1)プログレッシブ符号化さ
れた圧縮画像データをブロック単位で伸長する画像処理
装置がある(特願2000−273752参照)。この
画像処理装置では、圧縮画像データの各成分(輝度成
分、色差成分)ごとに以下の処理を行う。
2. Description of the Related Art (Prior Art 1) There is an image processing apparatus for decompressing progressively encoded image data in units of blocks (see Japanese Patent Application No. 2000-273752). In this image processing apparatus, the following processing is performed for each component (luminance component, color difference component) of the compressed image data.

【0003】(1)あるブロックに対する各段階の符号
化データを圧縮画像データから抽出する。
(1) The encoded data of each stage for a certain block is extracted from the compressed image data.

【0004】(2)抽出した各段階の符号化データをハ
フマン復号化する。
(2) Huffman decoding is performed on the extracted encoded data at each stage.

【0005】(3)ハフマン復号化によって得られた各
段階のDCT係数データを組み合わせて上記ブロックの
DCT係数データを得る。
(3) The DCT coefficient data of the above block is obtained by combining the DCT coefficient data of each stage obtained by Huffman decoding.

【0006】(4)上記ブロックのDCT係数データに
対して逆DCT変換を施す。
(4) Inverse DCT is performed on the DCT coefficient data of the block.

【0007】(5)逆DCT変換によって得られた上記
ブロックの伸長画像データの色空間を、YUV(輝度成
分、色差成分)からRGB(3原色成分)に変換する。
(5) The color space of the expanded image data of the block obtained by the inverse DCT transform is converted from YUV (luminance component, color difference component) to RGB (three primary color components).

【0008】これにより、上記ブロックのカラー伸長画
像が得られる。そして、すべてのブロックに対して同様
の処理を行うことによって、1画面分のカラー伸長画像
が得られる。
Thus, a color expanded image of the block is obtained. Then, the same processing is performed on all the blocks to obtain a color expanded image for one screen.

【0009】(従来技術2)JPEGなどの圧縮符号化
方式では、圧縮率を向上させるために、原画像データの
色差成分をダウンサンプリングして画素数を減らした後
にハフマン符号化することがある。この場合において、
原画像データをプログレッシブ符号化方式によって圧縮
するときの処理の流れは、図36に示すようになる。な
お、ここでは、原画像データの輝度成分Yおよび色差成
分U,Vは、それぞれ4個のブロックBY1−BY4,
BU1−BU4,BV1−BV4に分割されているもの
とする。
(Prior Art 2) In a compression coding method such as JPEG, Huffman coding is sometimes performed after downsampling the color difference component of the original image data to reduce the number of pixels in order to improve the compression ratio. In this case,
FIG. 36 shows a processing flow when the original image data is compressed by the progressive encoding method. Here, the luminance component Y and the color difference components U and V of the original image data are respectively divided into four blocks BY1-BY4.
It is assumed that it is divided into BU1-BU4, BV1-BV4.

【0010】図36を参照して、まず、色差成分U,V
を画面上の垂直方向に1/2にダウンサンプリングす
る。すなわち、色差成分U,Vの画素数を画面上の垂直
方向に1/2に減らす。これにより、色差成分U,Vの
ブロック数は、それぞれ2個(BU13,BU24,B
V13,BV24)となる。一方、輝度成分Yのブロッ
ク数は、4個(BY1−BY4)のままである。
Referring to FIG. 36, first, color difference components U, V
Is down-sampled by に in the vertical direction on the screen. That is, the number of pixels of the color difference components U and V is reduced to half in the vertical direction on the screen. Accordingly, the number of blocks of each of the color difference components U and V is two (BU13, BU24, B
V13, BV24). On the other hand, the number of blocks of the luminance component Y remains four (BY1-BY4).

【0011】次いで、輝度成分Yおよびダウンサンプリ
ング後の色差成分U,Vに対してDCT変換を施す。そ
して、ブロックごとに、得られたDCT係数データを複
数の段階(ここでは、n段階)に分割する。なお、図3
6では、ブロックXの第i段階のDCT係数データを
「X−i」と表している。したがって、例えば、ブロッ
クBY1の第1段階のDCT係数データは、「BY1−
1」である。
Next, DCT transformation is performed on the luminance component Y and the color difference components U and V after downsampling. Then, the obtained DCT coefficient data is divided into a plurality of stages (here, n stages) for each block. Note that FIG.
In 6, the DCT coefficient data of the i-th stage of the block X is represented as “Xi”. Therefore, for example, the first-stage DCT coefficient data of the block BY1 is “BY1-
1 ".

【0012】次いで、各段階ごとにDCT係数データを
ハフマン符号化する。各段階におけるDCT係数データ
の符号化の順序は、輝度成分Yでは、ブロックBY1,
ブロックBY2,ブロックBY3,ブロックBY4のD
CT係数データの順となる。また、色差成分U,Vで
は、ブロックBU13,BV13のDCT係数データ,
ブロックBU24,BV24のDCT係数データの順と
なる。
Next, the DCT coefficient data is Huffman-coded for each stage. The coding order of the DCT coefficient data in each stage is as follows.
D of block BY2, block BY3, and block BY4
The order is the CT coefficient data. In the color difference components U and V, the DCT coefficient data of the blocks BU13 and BV13,
The order is the DCT coefficient data of the blocks BU24 and BV24.

【0013】以上のようにして、図36に示すような圧
縮画像データが得られる。
As described above, compressed image data as shown in FIG. 36 is obtained.

【0014】[0014]

【発明が解決しようとする課題】上述の従来技術2に示
したようにしてプログレッシブ符号化された圧縮画像デ
ータを、従来技術1に示した画像処理装置によって伸長
するときの処理の流れは、図37に示すようになる。
The flow of processing when the compressed image data progressively encoded as described in the above-mentioned prior art 2 is decompressed by the image processing apparatus shown in the prior art 1 is shown in FIG. 37.

【0015】図37を参照して、まず、輝度成分Yのブ
ロックBY1に対する各段階の符号化データBY1−1
〜BY1−nと、色差成分U,VのブロックBU13,
BV13に対する各段階の符号化データBU13−1〜
BU13−n,BV13−1〜BV13−nとを圧縮画
像データから抽出する。そして、抽出した各段階の符号
化データをハフマン復号化する。
Referring to FIG. 37, first, coded data BY1-1 of each stage for block BY1 of luminance component Y
To BY1-n and blocks BU13,
Encoded data BU13-1 to BU13-1 of each stage for BV13
BU13-n and BV13-1 to BV13-n are extracted from the compressed image data. Then, Huffman decoding is performed on the extracted encoded data at each stage.

【0016】次いで、ハフマン復号化によって得られた
各段階のDCT係数データを組み合わせてブロックBY
1,BU13,BV13のDCT係数データを得る。
Next, DCT coefficient data of each stage obtained by Huffman decoding is combined to form a block BY.
1, DC13 coefficient data of BU13 and BV13 are obtained.

【0017】次いで、ブロックBY1,BU13,BV
13のDCT係数データに対して逆DCT変換を施す。
Next, the blocks BY1, BU13, BV
The inverse DCT transform is performed on the thirteen DCT coefficient data.

【0018】次いで、色差成分U,Vを画面上の垂直方
向に2倍にアップサンプリングする。すなわち、画面上
の垂直方向の色差成分U,Vの画素数を復元する。これ
により、色差成分U,Vのブロック数は、それぞれ2個
(BU1,BU3,BV1,BV3)となる。
Next, the color difference components U and V are up-sampled twice in the vertical direction on the screen. That is, the number of pixels of the color difference components U and V in the vertical direction on the screen is restored. As a result, the number of blocks of each of the color difference components U and V becomes two (BU1, BU3, BV1, and BV3).

【0019】このように、色差成分U,Vについては、
それぞれブロック(BU1,BU3),(BV1,BV
3)をまとめて伸長することができる。これに対して、
輝度成分Yについては、最初に伸長することができるの
は、ブロックBY1だけである。そして、ブロックBY
1の次に伸長される輝度成分Yのブロックは、ブロック
BY2である。色差成分U,VのブロックBU3,BV
3に対応するブロックBY3が伸長されるのは、画面上
の水平方向の1ライン分すべてのブロック(BY1,B
Y2)を伸長した後である。
As described above, for the color difference components U and V,
Blocks (BU1, BU3), (BV1, BV
3) can be extended together. On the contrary,
For the luminance component Y, only the block BY1 can be expanded first. And the block BY
The block of the luminance component Y expanded after 1 is the block BY2. Blocks BU3 and BV of color difference components U and V
The block BY3 corresponding to No. 3 is expanded because all blocks (BY1, B1) corresponding to one horizontal line on the screen are expanded.
After elongation of Y2).

【0020】以上のように、色差成分U,Vを画面上の
垂直方向にダウンサンプリングしてプログレッシブ符号
化された圧縮画像データを、従来技術1に示した画像処
理装置によって伸長しようとした場合、伸長されるブロ
ックの順序が輝度成分Yと色差成分U,Vとで異なるた
め、圧縮画像データをブロック単位で伸長することがで
きない。
As described above, when the compressed image data progressively encoded by down-sampling the color difference components U and V in the vertical direction on the screen and decompressing by the image processing apparatus shown in the prior art 1, Since the order of the blocks to be expanded is different between the luminance component Y and the color difference components U and V, the compressed image data cannot be expanded in block units.

【0021】この発明は上記のような問題を解決するた
めになされたものであり、その目的は、プログレッシブ
符号化された圧縮画像データをブロック単位で伸長する
ことができる画像処理装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide an image processing apparatus capable of decompressing progressively encoded image data in units of blocks. It is.

【0022】[0022]

【課題を解決するための手段】この発明の1つの局面に
従うと、画像処理装置は、第1の成分および第2の成分
を含む原画像に対して、第2の成分を画面上の垂直方向
にダウンサンプリングし、第1の成分およびダウンサン
プリング後の第2の成分に対して、所定の数の画素で構
成されるブロックごとに、直交変換を施して得られた係
数データを複数の段階に分割し、各段階ごとに係数デー
タをエントロピー符号化することによって得られた圧縮
画像データを伸長するものであって、抽出手段と、エン
トロピー復号化手段と、組み合わせ手段と、逆直交変換
手段と、復元手段と、ブロック抽出手段とを備える。
According to one aspect of the present invention, an image processing apparatus is configured to apply a second component to an original image including a first component and a second component in a vertical direction on a screen. The coefficient data obtained by performing orthogonal transformation on the first component and the second component after the down sampling for each block composed of a predetermined number of pixels is divided into a plurality of stages. Dividing and expanding compressed image data obtained by entropy-encoding coefficient data for each stage, comprising: extracting means, entropy decoding means, combining means, inverse orthogonal transform means, The image processing apparatus includes a restoration unit and a block extraction unit.

【0023】抽出手段は、画面上の水平方向の1ライン
分のブロックについて、各ブロックごとに第1の成分の
各段階の符号化データおよび第2の成分の各段階の符号
化データを圧縮画像データから抽出する。エントロピー
復号化手段は、抽出手段によって抽出された第1の成分
の各段階の符号化データおよび第2の成分の各段階の符
号化データをエントロピー復号化する。組み合わせ手段
は、エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、エントロピー復号化
手段によって得られた第2の成分の各段階の係数データ
を組み合わせて第2の成分の各ブロックの係数データを
得る。逆直交変換手段は、組み合わせ手段によって得ら
れた第1の成分の各ブロックの係数データおよび第2の
成分の各ブロックの係数データに対して逆直交変換を施
す。復元手段は、逆直交変換手段によって得られた第2
の成分の各ブロックの伸長画像データを画面上の垂直方
向にアップサンプリングする。ブロック抽出手段は、復
元手段によってアップサンプリングされた後の第2の成
分の伸長画像データのうち、逆直交変換手段によって得
られた第1の成分の各ブロックの伸長画像データに対応
する部分を抽出する。
The extracting means converts the encoded data of each stage of the first component and the encoded data of each stage of the second component into a compressed image for each block of one line in the horizontal direction on the screen. Extract from data. The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The combining means combines the coefficient data of each stage of the first component obtained by the entropy decoding means to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The restoring unit is a second unit that is obtained by the inverse orthogonal transform unit.
Is up-sampled in the vertical direction on the screen. The block extracting means extracts a portion corresponding to the decompressed image data of each block of the first component obtained by the inverse orthogonal transform means from the decompressed image data of the second component after being upsampled by the restoration means. I do.

【0024】そして、上記抽出手段は、画面上の水平方
向の1ライン分のすべてのブロックについて各段階の符
号化データを抽出した後、第1の成分については、上記
1ラインの次の1ライン分のブロックについて各ブロッ
クごとに各段階の符号化データを抽出し、第2の成分に
ついては、再度上記1ライン分のブロックについて各ブ
ロックごとに各段階の符号化データを抽出する。
After extracting the coded data at each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means extracts the next one line from the one line for the first component. For each block, the coded data of each stage is extracted for each block, and for the second component, the coded data of each stage is again extracted for each block of the one-line block.

【0025】好ましくは、上記画像処理装置はさらに、
記憶手段を備える。記憶手段は、第2の成分について、
上記ライン上の最初のブロックに対する各段階の符号化
データが格納されている位置を記憶する。また、上記抽
出手段は、上記ライン上のすべてのブロックについて各
段階の符号化データを抽出した後、記憶手段に記憶され
た位置に基づいて、第2の成分について上記ライン上の
各ブロックごとに各段階の符号化データを抽出する。
Preferably, the image processing apparatus further comprises:
It has storage means. The storage means, for the second component,
The position where the encoded data of each stage for the first block on the line is stored is stored. Further, the extracting means extracts the coded data of each stage for all the blocks on the line, and then, for each block on the line, for the second component based on the position stored in the storing means. The encoded data of each stage is extracted.

【0026】上記画像処理装置では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データおよび当該
第1の成分の伸長画像データに対応する部分の第2の成
分の伸長画像データが得られる。このように、上記画像
処理装置によれば、プログレッシブ符号化された圧縮画
像データをブロック単位で伸長することができる。
In the above-described image processing apparatus, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component are obtained for each block of one horizontal line on the screen. The expanded image data of the component is obtained. Next, the expanded image data of the first component and the expanded image data of the second component corresponding to the expanded image data of the first component are obtained for each block of one line following the one line. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be decompressed in block units.

【0027】この発明のもう1つの局面に従うと、画像
処理装置は、第1の成分および第2の成分を含む原画像
に対して、第2の成分を画面上の垂直方向にダウンサン
プリングし、第1の成分およびダウンサンプリング後の
第2の成分に対して、所定の数の画素で構成されるブロ
ックごとに、直交変換を施して得られた係数データを複
数の段階に分割し、各段階ごとに係数データをエントロ
ピー符号化することによって得られた圧縮画像データを
伸長するものであって、抽出手段と、エントロピー復号
化手段と、バッファメモリと、組み合わせ手段と、逆直
交変換手段と、復元手段とを備える。
According to another aspect of the present invention, an image processing apparatus down-samples a second component in a vertical direction on a screen with respect to an original image including a first component and a second component, The coefficient data obtained by performing the orthogonal transformation on the first component and the second component after down-sampling is divided into a plurality of stages for each block composed of a predetermined number of pixels. The compression image data obtained by entropy-encoding the coefficient data for each is expanded, and the extraction means, the entropy decoding means, the buffer memory, the combination means, the inverse orthogonal transform means, Means.

【0028】抽出手段は、1MCU(Minimum
Coded Unit)×画面上の水平方向の1ライン
に含まれるブロックについて、ブロックごとに第1の成
分の各段階の符号化データおよび第2の成分の各段階の
符号化データを圧縮画像データから抽出する。エントロ
ピー復号化手段は、抽出手段によって抽出された第1の
成分の各段階の符号化データおよび第2の成分の各段階
の符号化データをエントロピー復号化する。バッファメ
モリは、エントロピー復号化手段によって得られた第1
の成分の各段階の係数データのうち、最終ライン(画面
上の垂直方向の一番下のライン)上のブロックを除くブ
ロックに対する係数データを記憶する。組み合わせ手段
は、第1の成分について、エントロピー復号化手段によ
って得られた最終ライン上の各ブロックに対する係数デ
ータを組み合わせて当該ブロックの係数データを得、か
つ、当該ブロックとともに1つのMCUを構成するブロ
ックに対する各段階の係数データをバッファメモリから
読み出し、読み出した係数データを組み合わせて、上記
1つのMCUを構成するブロックの係数データを得る。
一方、組み合わせ手段は、第2の成分について、エント
ロピー復号化手段によって得られた各段階の係数データ
を組み合わせて各ブロックの係数データを得る。逆直交
変換手段は、組み合わせ手段によって得られた第1の成
分の各ブロックの係数データおよび第2の成分の各ブロ
ックの係数データに対して逆直交変換を施す。復元手段
は、逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする。
The extracting means is composed of 1 MCU (Minimum).
(Coded Unit) × For blocks included in one horizontal line on the screen, the coded data of each stage of the first component and the coded data of each stage of the second component are extracted from the compressed image data for each block. I do. The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The buffer memory is the first memory obtained by the entropy decoding means.
The coefficient data for the blocks other than the block on the last line (the bottom line in the vertical direction on the screen) among the coefficient data at each stage of the component is stored. The combination means combines the coefficient data for each block on the last line obtained by the entropy decoding means with respect to the first component to obtain coefficient data of the block, and constitutes one MCU together with the block. Are read from the buffer memory, and the read coefficient data are combined to obtain coefficient data of a block constituting one MCU.
On the other hand, the combination unit combines the coefficient data of each stage obtained by the entropy decoding unit with respect to the second component to obtain coefficient data of each block. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The restoration means up-samples the decompressed image data of each block of the second component obtained by the inverse orthogonal transformation means in the vertical direction on the screen.

【0029】上記画像処理装置では、1MCUに含まれ
るブロックの第1の成分の伸長画像データおよび第2の
成分の伸長画像データが得られる。すなわち、1MCU
ごとに伸長画像データが得られる。このように、上記画
像処理装置によれば、プログレッシブ符号化された圧縮
画像データをMCUごとに伸長することができる。
In the above-described image processing apparatus, decompressed image data of the first component and decompressed image data of the second component of a block included in one MCU are obtained. That is, 1 MCU
In each case, decompressed image data is obtained. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be expanded for each MCU.

【0030】この発明のさらにもう1つの局面に従う
と、画像処理装置は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出手段と、エントロ
ピー復号化手段と、組み合わせ手段と、逆直交変換手段
と、バッファメモリと、復元手段とを備える。抽出手段
は、1MCU×画面上の水平方向の1ラインに含まれる
ブロックについて、ブロックごとに第1の成分の各段階
の符号化データおよび第2の成分の各段階の符号化デー
タを圧縮画像データから抽出する。エントロピー復号化
手段は、抽出手段によって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化する。組み合わせ手段は、エ
ントロピー復号化手段によって得られた第1の成分の各
段階の係数データを組み合わせて第1の成分の各ブロッ
クの係数データを得、かつ、エントロピー復号化手段に
よって得られた第2の成分の各段階の係数データを組み
合わせて第2の成分の各ブロックの係数データを得る。
逆直交変換手段は、組み合わせ手段によって得られた第
1の成分の各ブロックの係数データおよび第2の成分の
各ブロックの係数データに対して逆直交変換を施す。バ
ッファメモリは、逆直交変換手段によって得られた第1
の成分の伸長画像データのうち、最終ライン上のブロッ
クを除くブロックに対する伸長画像データを記憶する。
復元手段は、逆直交変換手段によって得られた第2の成
分の各ブロックの伸長画像データを画面上の垂直方向に
アップサンプリングする。
According to still another aspect of the present invention, the image processing apparatus down-samples the second component in the vertical direction on the screen with respect to the original image including the first component and the second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes extraction means, entropy decoding means, combination means, inverse orthogonal transform means, buffer memory, Restoration means. The extracting means converts the encoded data of each stage of the first component and the encoded data of each stage of the second component into compressed image data for each block of one MCU × one horizontal line on the screen. Extract from The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The combining means combines the coefficient data of each stage of the first component obtained by the entropy decoding means to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component.
The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The buffer memory is the first memory obtained by the inverse orthogonal transform means.
The expanded image data for the blocks other than the block on the last line among the expanded image data of the component is stored.
The restoration means up-samples the decompressed image data of each block of the second component obtained by the inverse orthogonal transformation means in the vertical direction on the screen.

【0031】そして、上記画像処理装置は、第1の成分
について、逆直交変換手段によって最終ライン上の各ブ
ロックに対する伸長画像データが得られたとき、当該ブ
ロックとともに1つのMCUを構成するブロックの伸長
画像データをバッファメモリから読み出す。
When the decompressed image data for each block on the last line is obtained by the inverse orthogonal transform means for the first component, the image processing apparatus decompresses the block constituting one MCU together with the block. Reads image data from the buffer memory.

【0032】上記画像処理装置では、バッファメモリか
ら読み出された伸長画像データと、逆直交変換手段によ
って得られた最終ライン上のブロックの伸長画像データ
とで1MCUに含まれる第1の成分の伸長画像データが
得られる。また、復元手段によって当該1MCUに含ま
れる第2の成分の伸長画像データが得られる。このよう
に、上記画像処理装置によれば、プログレッシブ符号化
された圧縮画像データをMCUごとに伸長することがで
きる。
In the above image processing apparatus, the first component included in one MCU is expanded by the expanded image data read from the buffer memory and the expanded image data of the block on the last line obtained by the inverse orthogonal transform means. Image data is obtained. Further, decompressed image data of the second component included in the one MCU is obtained. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be expanded for each MCU.

【0033】この発明のさらにもう1つの局面に従う
と、画像処理装置は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出手段と、バッファ
メモリと、エントロピー復号化手段と、組み合わせ手段
と、逆直交変換手段と、復元手段とを備える。
According to still another aspect of the present invention, the image processing apparatus downsamples the second component in the vertical direction on the screen with respect to the original image including the first component and the second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. It expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes extracting means, buffer memory, entropy decoding means, combination means, inverse orthogonal transform means, Restoration means.

【0034】抽出手段は、1MCU×画面上の水平方向
の1ラインに含まれるブロックについて、ブロックごと
に第1の成分の各段階の符号化データおよび第2の成分
の各段階の符号化データを圧縮画像データから抽出す
る。バッファメモリは、抽出手段によって抽出された第
1の成分の符号化データのうち、最終ライン上のブロッ
クを除くブロックに対する符号化データを記憶する。エ
ントロピー復号化手段は、第1の成分について、抽出手
段によって抽出された最終ライン上の各ブロックに対す
る符号化データと、バッファメモリに記憶された、当該
ブロックとともに1つのMCUを構成するブロックに対
する符号化データとをエントロピー復号化する一方、第
2の成分について、抽出手段によって抽出された符号化
データをエントロピー復号化する。組み合わせ手段は、
エントロピー復号化手段によって得られた第1の成分の
各段階の係数データを組み合わせて第1の成分の各ブロ
ックの係数データを得、かつ、エントロピー復号化手段
によって得られた第2の成分の各段階の係数データを組
み合わせて第2の成分の各ブロックの係数データを得
る。逆直交変換手段は、組み合わせ手段によって得られ
た第1の成分の各ブロックの係数データおよび第2の成
分の各ブロックの係数データに対して逆直交変換を施
す。復元手段は、逆直交変換手段によって得られた第2
の成分の各ブロックの伸長画像データを画面上の垂直方
向にアップサンプリングする。
The extraction means extracts, for each block, 1 MCU × the coded data of each stage of the first component and the coded data of each stage of the second component for each block included in one horizontal line on the screen. Extract from compressed image data. The buffer memory stores encoded data for blocks other than the block on the last line among the encoded data of the first component extracted by the extracting unit. The entropy decoding unit encodes, for the first component, the encoded data for each block on the last line extracted by the extraction unit and the encoded data stored in the buffer memory for the block that constitutes one MCU together with the block. While entropy decoding is performed on the data, the encoded data extracted by the extraction unit for the second component is entropy decoded. The combination means
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the first component obtained by the entropy decoding means, and each of the second components obtained by the entropy decoding means is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of the stages. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The restoring unit is a second unit that is obtained by the inverse orthogonal transform unit.
Is up-sampled in the vertical direction on the screen.

【0035】上記画像処理装置では、バッファメモリか
ら読み出された第1の成分の符号化データと、抽出手段
によって抽出された最終ライン上のブロックの符号化デ
ータとで1MCUに含まれる第1の成分の符号化データ
が得られる。そして、この1MCUに含まれる第1の成
分の符号化データに対してエントロピー復号化、係数デ
ータの組み合わせ、および逆直交変換が行われる。これ
により、当該1MCUに含まれる第1の成分の伸長画像
データが得られる。また、復元手段によって当該1MC
Uに含まれる第2の成分の伸長画像データが得られる。
このように、上記画像処理装置によれば、プログレッシ
ブ符号化された圧縮画像データをMCUごとに伸長する
ことができる。
In the above-described image processing apparatus, the first data contained in one MCU includes the encoded data of the first component read from the buffer memory and the encoded data of the block on the last line extracted by the extracting means. The encoded data of the component is obtained. Then, entropy decoding, combination of coefficient data, and inverse orthogonal transform are performed on the encoded data of the first component included in this 1 MCU. Thereby, decompressed image data of the first component included in the one MCU is obtained. In addition, the 1MC
The expanded image data of the second component included in U is obtained.
As described above, according to the image processing apparatus, the progressively encoded compressed image data can be expanded for each MCU.

【0036】この発明のさらにもう1つの局面に従う
と、画像処理装置は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出手段と、エントロ
ピー復号化手段と、バッファメモリと、組み合わせ手段
と、逆直交変換手段と、復元手段と、ブロック抽出手段
とを備える。
According to still another aspect of the present invention, the image processing apparatus down-samples the second component in the vertical direction on the screen with respect to the original image including the first component and the second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. It expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes extraction means, entropy decoding means, buffer memory, combination means, inverse orthogonal transform means, The image processing apparatus includes a restoration unit and a block extraction unit.

【0037】抽出手段は、画面上の水平方向の1ライン
分のブロックについて、各ブロックごとに第1の成分の
各段階の符号化データおよび第2の成分の各段階の符号
化データを圧縮画像データから抽出する。エントロピー
復号化手段は、抽出手段によって抽出された第1の成分
の各段階の符号化データおよび第2の成分の各段階の符
号化データをエントロピー復号化する。バッファメモリ
は、エントロピー復号化手段によって得られた第2の成
分の各段階の符号化データを記憶する。組み合わせ手段
は、エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、エントロピー復号化
手段によって得られた第2の成分の各段階の係数データ
を組み合わせて第2の成分の各ブロックの係数データを
得る。逆直交変換手段は、組み合わせ手段によって得ら
れた第1の成分の各ブロックの係数データおよび第2の
成分の各ブロックの係数データに対して逆直交変換を施
す。復元手段は、逆直交変換手段によって得られた第2
の成分の各ブロックの伸長画像データを画面上の垂直方
向にアップサンプリングする。ブロック抽出手段は、復
元手段によってアップサンプリングされた後の第2の成
分の伸長画像データのうち、逆直交変換手段によって得
られた第1の成分の各ブロックの伸長画像データに対応
する部分を抽出する。
The extracting means converts the encoded data of each stage of the first component and the encoded data of each stage of the second component for each block of one horizontal line on the screen into a compressed image. Extract from data. The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The buffer memory stores the encoded data of each stage of the second component obtained by the entropy decoding means. The combining means combines the coefficient data of each stage of the first component obtained by the entropy decoding means to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The restoring unit is a second unit that is obtained by the inverse orthogonal transform unit.
Is up-sampled in the vertical direction on the screen. The block extracting means extracts a portion corresponding to the decompressed image data of each block of the first component obtained by the inverse orthogonal transform means from the decompressed image data of the second component after being upsampled by the restoration means. I do.

【0038】そして上記抽出手段は、画面上の水平方向
の1ライン分のすべてのブロックについて各段階の符号
化データを抽出した後、第1の成分について、上記1ラ
インの次の1ライン分のブロックについて各ブロックご
とに各段階の符号化データを抽出する。また、上記組み
合わせ手段は、画面上の水平方向の1ライン分のすべて
のブロックについて係数データを得た後、第2の成分に
ついて、バッファメモリに記憶された各ブロックの各段
階の符号化データを組み合わせて当該各ブロックの係数
データを得る。
After extracting the encoded data at each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means extracts the first component for the next one line after the one line. The encoded data at each stage is extracted for each block. Further, the combination means obtains coefficient data for all blocks of one line in the horizontal direction on the screen, and then converts the encoded data of each stage of each block stored in the buffer memory for the second component. The coefficient data of each block is obtained by combination.

【0039】上記画像処理装置では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された各ブロックの符
号化データが読み出され、組み合わせ処理、逆直交変換
処理、アップサンプリング、ブロック抽出処理が行われ
る。これにより、上記1ラインの次の1ライン分の第1
の成分の伸長画像データに対応する第2の成分の伸長画
像データが得られる。このように、上記画像処理装置に
よれば、プログレッシブ符号化された圧縮画像データを
ブロック単位で伸長することができる。
In the above-described image processing apparatus, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component for each block of one line in the horizontal direction on the screen. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the encoded data of each block stored in the buffer memory is read, and combination processing, inverse orthogonal transformation processing, upsampling, and block extraction processing are performed. As a result, the first line for the next one line after the one line
The expanded image data of the second component corresponding to the expanded image data of the component is obtained. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be decompressed in block units.

【0040】この発明のさらにもう1つの局面に従う
と、画像処理装置は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出手段と、エントロ
ピー復号化手段と、組み合わせ手段と、逆直交変換手段
と、バッファメモリと、復元手段と、ブロック抽出手段
とを備える。
According to still another aspect of the present invention, the image processing apparatus down-samples the second component in the vertical direction on the screen with respect to the original image including the first component and the second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes extraction means, entropy decoding means, combination means, inverse orthogonal transform means, buffer memory, The image processing apparatus includes a restoration unit and a block extraction unit.

【0041】抽出手段は、画面上の水平方向の1ライン
分のブロックについて、各ブロックごとに第1の成分の
各段階の符号化データおよび第2の成分の各段階の符号
化データを圧縮画像データから抽出する。エントロピー
復号化手段は、抽出手段によって抽出された第1の成分
の各段階の符号化データおよび第2の成分の各段階の符
号化データをエントロピー復号化する。組み合わせ手段
は、エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、エントロピー復号化
手段によって得られた第2の成分の各段階の係数データ
を組み合わせて第2の成分の各ブロックの係数データを
得る。逆直交変換手段は、組み合わせ手段によって得ら
れた第1の成分の各ブロックの係数データおよび第2の
成分の各ブロックの係数データに対して逆直交変換を施
す。バッファメモリは、逆直交変換手段によって得られ
た第2の成分の各ブロックの伸長画像データを記憶す
る。復元手段は、逆直交変換手段によって得られた第2
の成分の各ブロックの伸長画像データを画面上の垂直方
向にアップサンプリングする。ブロック抽出手段は、復
元手段によってアップサンプリングされた後の第2の成
分の伸長画像データのうち、逆直交変換手段によって得
られた第1の成分の各ブロックの伸長画像データに対応
する部分を抽出する。
The extracting means converts the encoded data of each stage of the first component and the encoded data of each stage of the second component for each block of one horizontal line on the screen into a compressed image. Extract from data. The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The combining means combines the coefficient data of each stage of the first component obtained by the entropy decoding means to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The buffer memory stores the decompressed image data of each block of the second component obtained by the inverse orthogonal transform means. The reconstructing means is a second means for reconstructing the second orthogonal transform
Is up-sampled in the vertical direction on the screen. The block extracting means extracts a portion corresponding to the decompressed image data of each block of the first component obtained by the inverse orthogonal transform means from the decompressed image data of the second component after being upsampled by the restoration means. I do.

【0042】そして上記抽出手段は、画面上の水平方向
の1ライン分のすべてのブロックについて各段階の符号
化データを抽出した後、第1の成分について、上記1ラ
インの次の1ライン分のブロックについて各ブロックご
とに各段階の符号化データを抽出する。また、上記復元
手段は、画面上の水平方向の1ライン分の第2の成分の
すべてのブロックについて伸長画像データをアップサン
プリングした後、バッファメモリに記憶された第2の成
分の各ブロックの伸長画像データを画面上の垂直方向に
アップサンプリングする。
After extracting the coded data at each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means extracts the first component for the next one line after the one line. The encoded data at each stage is extracted for each block. In addition, the restoration means upsamples the decompressed image data for all the blocks of the second component for one line in the horizontal direction on the screen, and then decompresses each block of the second component stored in the buffer memory. The image data is up-sampled in the vertical direction on the screen.

【0043】上記画像処理装置では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された第2の成分の各
ブロックの伸長画像データが読み出され、アップサンプ
リング、ブロック抽出処理が行われる。これにより、上
記1ラインの次の1ライン分の第1の成分の伸長画像デ
ータに対応する第2の成分の伸長画像データが得られ
る。このように、上記画像処理装置によれば、プログレ
ッシブ符号化された圧縮画像データをブロック単位で伸
長することができる。
In the above-described image processing apparatus, first, for each block of one line in the horizontal direction on the screen, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component are obtained. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the decompressed image data of each block of the second component stored in the buffer memory is read, and upsampling and block extraction processing are performed. As a result, decompressed image data of the second component corresponding to decompressed image data of the first component for one line following the one line is obtained. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be decompressed in block units.

【0044】この発明のさらにもう1つの局面に従う
と、画像処理装置は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出手段と、バッファ
メモリと、エントロピー復号化手段と、組み合わせ手段
と、逆直交変換手段と、復元手段と、ブロック抽出手段
とを備える。
According to still another aspect of the present invention, the image processing apparatus down-samples the second component in the vertical direction on the screen with respect to the original image including the first component and the second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. It expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes extracting means, buffer memory, entropy decoding means, combination means, inverse orthogonal transform means, The image processing apparatus includes a restoration unit and a block extraction unit.

【0045】抽出手段は、画面上の水平方向の1ライン
分のブロックについて、各ブロックごとに第1の成分の
各段階の符号化データおよび第2の成分の各段階の符号
化データを圧縮画像データから抽出する。バッファメモ
リは、抽出手段によって抽出された第2の成分の各段階
の符号化データを記憶する。エントロピー復号化手段
は、抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する。組み合わせ手段は、エント
ロピー復号化手段によって得られた第1の成分の各段階
の係数データを組み合わせて第1の成分の各ブロックの
係数データを得、かつ、エントロピー復号化手段によっ
て得られた第2の成分の各段階の係数データを組み合わ
せて第2の成分の各ブロックの係数データを得る。逆直
交変換手段は、組み合わせ手段によって得られた第1の
成分の各ブロックの係数データおよび第2の成分の各ブ
ロックの係数データに対して逆直交変換を施す。復元手
段は、逆直交変換手段によって得られた第2の成分の各
ブロックの伸長画像データを画面上の垂直方向にアップ
サンプリングする。ブロック抽出手段は、復元手段によ
ってアップサンプリングされた後の第2の成分の伸長画
像データのうち、逆直交変換手段によって得られた第1
の成分の各ブロックの伸長画像データに対応する部分を
抽出する。
The extracting means converts the encoded data of each stage of the first component and the encoded data of each stage of the second component into a compressed image for each block of one horizontal line on the screen. Extract from data. The buffer memory stores the encoded data of each stage of the second component extracted by the extracting means. The entropy decoding means performs entropy decoding on the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting means. The combining means combines the coefficient data of each stage of the first component obtained by the entropy decoding means to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. The inverse orthogonal transform unit performs an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combination unit. The restoration means up-samples the decompressed image data of each block of the second component obtained by the inverse orthogonal transformation means in the vertical direction on the screen. The block extracting unit is configured to include, among the expanded image data of the second component after being up-sampled by the restoring unit, the first image obtained by the inverse orthogonal transform unit.
The part corresponding to the expanded image data of each block of the component is extracted.

【0046】そして上記抽出手段は、画面上の水平方向
の1ライン分のすべてのブロックについて各段階の符号
化データを抽出した後、第1の成分について、上記1ラ
インの次の1ライン分のブロックについて各ブロックご
とに各段階の符号化データを抽出する。また、上記エン
トロピー復号化手段は、画面上の水平方向の1ライン分
のすべてのブロックについて各段階の符号化データをエ
ントロピー復号化した後、第2の成分について、バッフ
ァメモリに記憶された各ブロックの各段階の符号化デー
タをエントロピー復号化する。
After extracting the encoded data at each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means extracts the first component for the next one line after the one line. The encoded data at each stage is extracted for each block. Further, the entropy decoding means performs entropy decoding of the encoded data of each stage for all the blocks for one line in the horizontal direction on the screen, and then, for each of the blocks stored in the buffer memory, for the second component. Is entropy-decoded for each stage of the encoded data.

【0047】上記画像処理装置では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された各ブロックの符
号化データが読み出され、エントロピー復号化、組み合
わせ処理、逆直交変換処理、アップサンプリング、ブロ
ック抽出処理が行われる。これにより、上記1ラインの
次の1ライン分の第1の成分の伸長画像データに対応す
る第2の成分の伸長画像データが得られる。このよう
に、上記画像処理装置によれば、プログレッシブ符号化
された圧縮画像データをブロック単位で伸長することが
できる。
In the image processing apparatus, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component for each block of one horizontal line on the screen are first obtained. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the encoded data of each block stored in the buffer memory is read, and entropy decoding, combination processing, inverse orthogonal transformation processing, upsampling, and block extraction processing are performed. As a result, decompressed image data of the second component corresponding to decompressed image data of the first component for one line following the one line is obtained. As described above, according to the image processing apparatus, the progressively encoded compressed image data can be decompressed in block units.

【0048】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、エン
トロピー復号化ステップと、組み合わせステップと、逆
直交変換ステップと、復元ステップと、ブロック抽出ス
テップとを備える。
According to yet another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen from an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Decompressing the compressed image data obtained by entropy-encoding the coefficient data for each stage, the extracting step, the entropy decoding step, the combination step, the inverse orthogonal transformation step, the restoration step, And a block extracting step.

【0049】抽出ステップでは、画面上の水平方向の1
ライン分のブロックについて、各ブロックごとに第1の
成分の各段階の符号化データおよび第2の成分の各段階
の符号化データを圧縮画像データから抽出する。エント
ロピー復号化ステップでは、抽出ステップによって抽出
された第1の成分の各段階の符号化データおよび第2の
成分の各段階の符号化データをエントロピー復号化す
る。組み合わせステップでは、エントロピー復号化ステ
ップによって得られた第1の成分の各段階の係数データ
を組み合わせて第1の成分の各ブロックの係数データを
得、かつ、エントロピー復号化ステップによって得られ
た第2の成分の各段階の係数データを組み合わせて第2
の成分の各ブロックの係数データを得る。逆直交変換ス
テップでは、組み合わせステップによって得られた第1
の成分の各ブロックの係数データおよび第2の成分の各
ブロックの係数データに対して逆直交変換を施す。復元
ステップでは、逆直交変換ステップによって得られた第
2の成分の各ブロックの伸長画像データを画面上の垂直
方向にアップサンプリングする。ブロック抽出ステップ
では、復元ステップによってアップサンプリングされた
後の第2の成分の伸長画像データのうち、逆直交変換ス
テップによって得られた第1の成分の各ブロックの伸長
画像データに対応する部分を抽出する。
In the extraction step, the horizontal 1
For each block of lines, encoded data of each stage of the first component and encoded data of each stage of the second component are extracted from the compressed image data for each block. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the combining step, the coefficient data of each stage of the first component obtained by the entropy decoding step are combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding step is obtained. By combining the coefficient data of each stage of the component
The coefficient data of each block of the component is obtained. In the inverse orthogonal transform step, the first orthogonal transform obtained by the combining step is performed.
The inverse orthogonal transform is performed on the coefficient data of each block of the component and the coefficient data of each block of the second component. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen. In the block extraction step, a portion corresponding to the decompressed image data of each block of the first component obtained in the inverse orthogonal transformation step is extracted from the decompressed image data of the second component after being upsampled in the restoration step. I do.

【0050】そして、画面上の水平方向の1ライン分の
すべてのブロックについて各段階の符号化データを抽出
した後、第1の成分については、上記1ラインの次の1
ライン分のブロックについて各ブロックごとに各段階の
符号化データを抽出し、第2の成分については、再度上
記1ライン分のブロックについて各ブロックごとに各段
階の符号化データを抽出する。
After extracting the encoded data of each stage for all the blocks of one line in the horizontal direction on the screen, the first component is added to the next one of the one line.
The encoded data of each stage is extracted for each block of the line block, and the encoded data of each stage is extracted for each block of the one-line block again for the second component.

【0051】上記画像処理方法では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データおよび当該
第1の成分の伸長画像データに対応する部分の第2の成
分の伸長画像データが得られる。このように、上記画像
処理方法によれば、プログレッシブ符号化された圧縮画
像データをブロック単位で伸長することができる。
In the above-described image processing method, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component are obtained for each block of one line in the horizontal direction on the screen. The expanded image data of the component is obtained. Next, the expanded image data of the first component and the expanded image data of the second component corresponding to the expanded image data of the first component are obtained for each block of one line following the one line. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded in units of blocks.

【0052】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、エン
トロピー復号化ステップと、記憶ステップと、組み合わ
せステップと、逆直交変換ステップと、復元ステップと
を備える。
According to still another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen with respect to an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Decompressing compressed image data obtained by entropy-encoding coefficient data for each stage, comprising an extraction step, an entropy decoding step, a storage step, a combination step, an inverse orthogonal transformation step, Restoring step.

【0053】抽出ステップでは、1MCU×画面上の水
平方向の1ラインに含まれるブロックについて、ブロッ
クごとに第1の成分の各段階の符号化データおよび第2
の成分の各段階の符号化データを圧縮画像データから抽
出する。エントロピー復号化ステップでは、抽出ステッ
プによって抽出された第1の成分の各段階の符号化デー
タおよび第2の成分の各段階の符号化データをエントロ
ピー復号化する。記憶ステップでは、エントロピー復号
化ステップによって得られた第1の成分の各段階の係数
データのうち、最終ライン上のブロックを除くブロック
に対する係数データをバッファメモリに記憶する。組み
合わせステップでは、第1の成分について、エントロピ
ー復号化ステップによって得られた最終ライン上の各ブ
ロックに対する係数データを組み合わせて当該ブロック
の係数データを得、かつ、当該ブロックとともに1つの
MCUを構成するブロックに対する各段階の係数データ
をバッファメモリから読み出し、読み出した係数データ
を組み合わせて、上記1つのMCUを構成するブロック
の係数データを得る一方、第2の成分について、エント
ロピー復号化ステップによって得られた各段階の係数デ
ータを組み合わせて各ブロックの係数データを得る。逆
直交変換ステップでは、組み合わせステップによって得
られた第1の成分の各ブロックの係数データおよび第2
の成分の各ブロックの係数データに対して逆直交変換を
施す。復元ステップでは、逆直交変換ステップによって
得られた第2の成分の各ブロックの伸長画像データを画
面上の垂直方向にアップサンプリングする。
In the extracting step, for each block included in one MCU × one horizontal line on the screen, the encoded data of each stage of the first component and the second
The encoded data of each stage of the component is extracted from the compressed image data. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the storing step, of the coefficient data of each stage of the first component obtained in the entropy decoding step, coefficient data for blocks other than the block on the last line is stored in the buffer memory. In the combining step, for the first component, coefficient data of each block on the last line obtained by the entropy decoding step is combined to obtain coefficient data of the block, and a block constituting one MCU together with the block Is read from the buffer memory, and the read coefficient data is combined to obtain coefficient data of the block constituting the one MCU, while the second component is obtained by the entropy decoding step. The coefficient data of each block is obtained by combining the coefficient data of the stages. In the inverse orthogonal transformation step, the coefficient data of each block of the first component obtained by the combination step and the second
Inverse orthogonal transform is performed on the coefficient data of each block of the component. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen.

【0054】上記画像処理方法では、1MCUに含まれ
るブロックの第1の成分の伸長画像データおよび第2の
成分の伸長画像データが得られる。すなわち、1MCU
ごとに伸長画像データが得られる。このように、上記画
像処理方法によれば、プログレッシブ符号化された圧縮
画像データをMCUごとに伸長することができる。
In the above image processing method, decompressed image data of the first component and decompressed image data of the second component of a block included in one MCU are obtained. That is, 1 MCU
In each case, decompressed image data is obtained. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded for each MCU.

【0055】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、エン
トロピー復号化ステップと、組み合わせステップと、逆
直交変換ステップと、記憶ステップと、復元ステップと
を備える。
According to still another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen with respect to an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes an extraction step, an entropy decoding step, a combination step, an inverse orthogonal transformation step, a storage step, Restoring step.

【0056】抽出ステップでは、1MCU×画面上の水
平方向の1ラインに含まれるブロックについて、ブロッ
クごとに第1の成分の各段階の符号化データおよび第2
の成分の各段階の符号化データを圧縮画像データから抽
出する。エントロピー復号化ステップでは、抽出ステッ
プによって抽出された第1の成分の各段階の符号化デー
タおよび第2の成分の各段階の符号化データをエントロ
ピー復号化する。組み合わせステップでは、エントロピ
ー復号化ステップによって得られた第1の成分の各段階
の係数データを組み合わせて第1の成分の各ブロックの
係数データを得、かつ、エントロピー復号化ステップに
よって得られた第2の成分の各段階の係数データを組み
合わせて第2の成分の各ブロックの係数データを得る。
逆直交変換ステップでは、組み合わせステップによって
得られた第1の成分の各ブロックの係数データおよび第
2の成分の各ブロックの係数データに対して逆直交変換
を施す。記憶ステップでは、逆直交変換ステップによっ
て得られた第1の成分の伸長画像データのうち、最終ラ
イン上のブロックを除くブロックに対する伸長画像デー
タをバッファメモリに記憶する。復元ステップでは、逆
直交変換ステップによって得られた第2の成分の各ブロ
ックの伸長画像データを画面上の垂直方向にアップサン
プリングする。
In the extraction step, for each block included in one MCU × one horizontal line on the screen, the encoded data of each stage of the first component and the second
The encoded data of each stage of the component is extracted from the compressed image data. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the combining step, the coefficient data of each stage of the first component obtained by the entropy decoding step are combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding step is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component.
In the inverse orthogonal transform step, inverse orthogonal transform is performed on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained in the combining step. In the storing step, expanded image data for blocks other than the block on the last line among the expanded image data of the first component obtained in the inverse orthogonal transformation step is stored in the buffer memory. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen.

【0057】そして、第1の成分について、逆直交変換
ステップによって最終ライン上の各ブロックに対する伸
長画像データが得られたとき、当該ブロックとともに1
つのMCUを構成するブロックの伸長画像データをバッ
ファメモリから読み出す。
When the decompressed image data for each block on the last line is obtained by the inverse orthogonal transformation step for the first component, 1
The decompressed image data of the blocks constituting one MCU is read from the buffer memory.

【0058】上記画像処理方法では、バッファメモリか
ら読み出された伸長画像データと、逆直交変換ステップ
によって得られた最終ライン上のブロックの伸長画像デ
ータとで1MCUに含まれる第1の成分の伸長画像デー
タが得られる。また、復元ステップによって当該1MC
Uに含まれる第2の成分の伸長画像データが得られる。
このように、上記画像処理方法によれば、プログレッシ
ブ符号化された圧縮画像データをMCUごとに伸長する
ことができる。
In the above image processing method, the decompression of the first component included in one MCU is performed by using the decompressed image data read from the buffer memory and the decompressed image data of the block on the last line obtained by the inverse orthogonal transformation step. Image data is obtained. In addition, the 1MC
The expanded image data of the second component included in U is obtained.
As described above, according to the image processing method, the progressively encoded compressed image data can be expanded for each MCU.

【0059】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、記憶
ステップと、エントロピー復号化ステップと、組み合わ
せステップと、逆直交変換ステップと、復元ステップと
を備える。
According to still another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen from an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes an extraction step, a storage step, an entropy decoding step, a combination step, an inverse orthogonal transformation step, Restoring step.

【0060】抽出ステップでは、1MCU×画面上の水
平方向の1ラインに含まれるブロックについて、ブロッ
クごとに第1の成分の各段階の符号化データおよび第2
の成分の各段階の符号化データを圧縮画像データから抽
出する。記憶ステップでは、抽出ステップによって得ら
れた第1の成分の符号化データのうち、最終ライン上の
ブロックを除くブロックに対する符号化データをバッフ
ァメモリに記憶する。エントロピー復号化ステップで
は、第1の成分について、抽出ステップによって抽出さ
れた最終ライン上の各ブロックに対する符号化データ
と、バッファメモリに記憶された、当該ブロックととも
に1つのMCUを構成するブロックに対する符号化デー
タとをエントロピー復号化する一方、第2の成分につい
て、抽出ステップによって抽出された符号化データをエ
ントロピー復号化する。組み合わせステップでは、エン
トロピー復号化ステップによって得られた第1の成分の
各段階の係数データを組み合わせて第1の成分の各ブロ
ックの係数データを得、かつ、エントロピー復号化ステ
ップによって得られた第2の成分の各段階の係数データ
を組み合わせて第2の成分の各ブロックの係数データを
得る。逆直交変換ステップでは、組み合わせステップに
よって得られた第1の成分の各ブロックの係数データお
よび第2の成分の各ブロックの係数データに対して逆直
交変換を施す。復元ステップでは、逆直交変換ステップ
によって得られた第2の成分の各ブロックの伸長画像デ
ータを画面上の垂直方向にアップサンプリングする。
In the extraction step, for each block included in one horizontal line on the MCU × 1 MCU, the coded data of each stage of the first component and the second
The encoded data of each stage of the component is extracted from the compressed image data. In the storing step, among the encoded data of the first component obtained in the extracting step, encoded data for blocks other than the block on the last line is stored in the buffer memory. In the entropy decoding step, for the first component, the encoded data for each block on the last line extracted by the extraction step and the encoded data for a block stored in the buffer memory and constituting the one MCU together with the block are stored. And entropy decoding the encoded data extracted by the extraction step for the second component. In the combining step, the coefficient data of each stage of the first component obtained by the entropy decoding step are combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding step is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. In the inverse orthogonal transform step, inverse orthogonal transform is performed on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained in the combining step. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen.

【0061】上記画像処理方法では、バッファメモリか
ら読み出された第1の成分の符号化データと、抽出ステ
ップによって抽出された最終ライン上のブロックの符号
化データとで1MCUに含まれる第1の成分の符号化デ
ータが得られる。そして、この1MCUに含まれる第1
の成分の符号化データに対してエントロピー復号化、係
数データの組み合わせ、および逆直交変換が行われる。
これにより、当該1MCUに含まれる第1の成分の伸長
画像データが得られる。また、復元ステップによって当
該1MCUに含まれる第2の成分の伸長画像データが得
られる。このように、上記画像処理方法によれば、プロ
グレッシブ符号化された圧縮画像データをMCUごとに
伸長することができる。
In the above-described image processing method, the first MCU included in one MCU includes the encoded data of the first component read from the buffer memory and the encoded data of the block on the last line extracted in the extraction step. The encoded data of the component is obtained. Then, the first MCU included in this one MCU
Is subjected to entropy decoding, combination of coefficient data, and inverse orthogonal transform.
Thereby, decompressed image data of the first component included in the one MCU is obtained. In addition, decompressed image data of the second component included in the one MCU is obtained. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded for each MCU.

【0062】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、エン
トロピー復号化ステップと、記憶ステップと、組み合わ
せステップと、逆直交変換ステップと、復元ステップ
と、ブロック抽出ステップとを備える。
According to yet another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen from an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Decompressing compressed image data obtained by entropy-encoding coefficient data for each stage, comprising an extraction step, an entropy decoding step, a storage step, a combination step, an inverse orthogonal transformation step, It includes a restoration step and a block extraction step.

【0063】抽出ステップでは、画面上の水平方向の1
ライン分のブロックについて、各ブロックごとに第1の
成分の各段階の符号化データおよび第2の成分の各段階
の符号化データを圧縮画像データから抽出する。エント
ロピー復号化ステップでは、抽出ステップによって抽出
された第1の成分の各段階の符号化データおよび第2の
成分の各段階の符号化データをエントロピー復号化す
る。記憶ステップでは、エントロピー復号化ステップに
よって得られた第2の成分の各段階の符号化データをバ
ッファメモリに記憶する。組み合わせステップでは、エ
ントロピー復号化ステップによって得られた第1の成分
の各段階の係数データを組み合わせて第1の成分の各ブ
ロックの係数データを得、かつ、エントロピー復号化手
段によって得られた第2の成分の各段階の係数データを
組み合わせて第2の成分の各ブロックの係数データを得
る。逆直交変換ステップでは、組み合わせステップによ
って得られた第1の成分の各ブロックの係数データおよ
び第2の成分の各ブロックの係数データに対して逆直交
変換を施す。復元ステップでは、逆直交変換ステップに
よって得られた第2の成分の各ブロックの伸長画像デー
タを画面上の垂直方向にアップサンプリングする。ブロ
ック抽出ステップでは、復元ステップによってアップサ
ンプリングされた後の第2の成分の伸長画像データのう
ち、逆直交変換ステップによって得られた第1の成分の
各ブロックの伸長画像データに対応する部分を抽出す
る。
In the extraction step, the horizontal 1
For each block of lines, encoded data of each stage of the first component and encoded data of each stage of the second component are extracted from the compressed image data for each block. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the storage step, the encoded data of each stage of the second component obtained in the entropy decoding step is stored in the buffer memory. In the combining step, the coefficient data of each block of the first component obtained by the entropy decoding step is combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. In the inverse orthogonal transform step, inverse orthogonal transform is performed on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained in the combining step. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen. In the block extraction step, a portion corresponding to the decompressed image data of each block of the first component obtained in the inverse orthogonal transformation step is extracted from the decompressed image data of the second component after being upsampled in the restoration step. I do.

【0064】そして、画面上の水平方向の1ライン分の
すべてのブロックについて各段階の符号化データを抽出
した後、第1の成分について、上記1ラインの次の1ラ
イン分のブロックについて各ブロックごとに各段階の符
号化データを抽出する。また、画面上の水平方向の1ラ
イン分のすべてのブロックについて係数データを得た
後、第2の成分について、バッファメモリに記憶された
各ブロックの各段階の符号化データを組み合わせて当該
各ブロックの係数データを得る。
After extracting the coded data of each stage for all the blocks of one line in the horizontal direction on the screen, for the first component, each block for the block of one line next to the one line is extracted. The encoded data of each stage is extracted every time. Also, after obtaining coefficient data for all blocks for one line in the horizontal direction on the screen, the second component is combined with the encoded data of each stage of each block stored in the buffer memory, and Is obtained.

【0065】上記画像処理方法では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された各ブロックの符
号化データが読み出され、組み合わせ処理、逆直交変換
処理、アップサンプリング、ブロック抽出処理が行われ
る。これにより、上記1ラインの次の1ライン分の第1
の成分の伸長画像データに対応する第2の成分の伸長画
像データが得られる。このように、上記画像処理方法に
よれば、プログレッシブ符号化された圧縮画像データを
ブロック単位で伸長することができる。
In the above-described image processing method, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component for each block of one horizontal line on the screen are first obtained. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the encoded data of each block stored in the buffer memory is read, and combination processing, inverse orthogonal transformation processing, upsampling, and block extraction processing are performed. As a result, the first line for the next one line after the one line
The expanded image data of the second component corresponding to the expanded image data of the component is obtained. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded in units of blocks.

【0066】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、エン
トロピー復号化ステップと、組み合わせステップと、逆
直交変換ステップと、記憶ステップと、復元ステップ
と、ブロック抽出ステップとを備える。
According to yet another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen from an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes an extraction step, an entropy decoding step, a combination step, an inverse orthogonal transformation step, a storage step, It includes a restoration step and a block extraction step.

【0067】抽出ステップでは、画面上の水平方向の1
ライン分のブロックについて、各ブロックごとに第1の
成分の各段階の符号化データおよび第2の成分の各段階
の符号化データを圧縮画像データから抽出する。エント
ロピー復号化ステップでは、抽出ステップによって抽出
された第1の成分の各段階の符号化データおよび第2の
成分の各段階の符号化データをエントロピー復号化す
る。組み合わせステップでは、エントロピー復号化ステ
ップによって得られた第1の成分の各段階の係数データ
を組み合わせて第1の成分の各ブロックの係数データを
得、かつ、エントロピー復号化手段によって得られた第
2の成分の各段階の係数データを組み合わせて第2の成
分の各ブロックの係数データを得る。逆直交変換ステッ
プでは、組み合わせステップによって得られた第1の成
分の各ブロックの係数データおよび第2の成分の各ブロ
ックの係数データに対して逆直交変換を施す。記憶ステ
ップでは、逆直交変換ステップによって得られた第2の
成分の各ブロックの伸長画像データをバッファメモリに
記憶する。復元ステップでは、逆直交変換ステップによ
って得られた第2の成分の各ブロックの伸長画像データ
を画面上の垂直方向にアップサンプリングする。ブロッ
ク抽出ステップでは、復元ステップによってアップサン
プリングされた後の第2の成分の伸長画像データのう
ち、逆直交変換ステップによって得られた第1の成分の
各ブロックの伸長画像データに対応する部分を抽出す
る。
In the extraction step, one of the horizontal
For each block of lines, encoded data of each stage of the first component and encoded data of each stage of the second component are extracted from the compressed image data for each block. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the combining step, the coefficient data of each block of the first component obtained by the entropy decoding step is combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. In the inverse orthogonal transform step, inverse orthogonal transform is performed on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained in the combining step. In the storage step, the decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is stored in the buffer memory. In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen. In the block extraction step, a portion corresponding to the decompressed image data of each block of the first component obtained in the inverse orthogonal transformation step is extracted from the decompressed image data of the second component after being upsampled in the restoration step. I do.

【0068】そして、画面上の水平方向の1ライン分の
すべてのブロックについて各段階の符号化データを抽出
した後、第1の成分について、上記1ラインの次の1ラ
イン分のブロックについて各ブロックごとに各段階の符
号化データを抽出する。
After extracting the encoded data at each stage for all the blocks of one line in the horizontal direction on the screen, the first component is converted to the blocks of the next one line after the one line. The encoded data of each stage is extracted every time.

【0069】また、画面上の水平方向の1ライン分の第
2の成分のすべてのブロックについて伸長画像データを
アップサンプリングした後、バッファメモリに記憶され
た第2の成分の各ブロックの伸長画像データを画面上の
垂直方向にアップサンプリングする。
After up-sampling the decompressed image data for all the blocks of the second component for one horizontal line on the screen, the decompressed image data of each block of the second component stored in the buffer memory is obtained. Is up-sampled in the vertical direction on the screen.

【0070】上記画像処理方法では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された第2の成分の各
ブロックの伸長画像データが読み出され、アップサンプ
リング、ブロック抽出処理が行われる。これにより、上
記1ラインの次の1ライン分の第1の成分の伸長画像デ
ータに対応する第2の成分の伸長画像データが得られ
る。このように、上記画像処理方法によれば、プログレ
ッシブ符号化された圧縮画像データをブロック単位で伸
長することができる。
In the above-mentioned image processing method, first, for each block of one line in the horizontal direction on the screen, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component are obtained. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the decompressed image data of each block of the second component stored in the buffer memory is read, and upsampling and block extraction processing are performed. As a result, decompressed image data of the second component corresponding to decompressed image data of the first component for one line following the one line is obtained. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded in units of blocks.

【0071】この発明のさらにもう1つの局面に従う
と、画像処理方法は、第1の成分および第2の成分を含
む原画像に対して、第2の成分を画面上の垂直方向にダ
ウンサンプリングし、第1の成分およびダウンサンプリ
ング後の第2の成分に対して、所定の数の画素で構成さ
れるブロックごとに、直交変換を施して得られた係数デ
ータを複数の段階に分割し、各段階ごとに係数データを
エントロピー符号化することによって得られた圧縮画像
データを伸長するものであって、抽出ステップと、記憶
ステップと、エントロピー復号化ステップと、組み合わ
せステップと、逆直交変換ステップと、復元ステップ
と、ブロック抽出ステップとを備える。
According to yet another aspect of the present invention, an image processing method downsamples a second component in a vertical direction on a screen with respect to an original image including a first component and a second component. , The first component and the second component after down-sampling, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages for each block composed of a predetermined number of pixels. Expands the compressed image data obtained by entropy-encoding the coefficient data for each stage, and includes an extraction step, a storage step, an entropy decoding step, a combination step, an inverse orthogonal transformation step, It includes a restoration step and a block extraction step.

【0072】抽出ステップでは、画面上の水平方向の1
ライン分のブロックについて、各ブロックごとに第1の
成分の各段階の符号化データおよび第2の成分の各段階
の符号化データを圧縮画像データから抽出する。記憶ス
テップでは、抽出ステップによって抽出された第2の成
分の各段階の符号化データをバッファメモリに記憶す
る。エントロピー復号化ステップでは、抽出ステップに
よって抽出された第1の成分の各段階の符号化データお
よび第2の成分の各段階の符号化データをエントロピー
復号化する。組み合わせステップでは、エントロピー復
号化ステップによって得られた第1の成分の各段階の係
数データを組み合わせて第1の成分の各ブロックの係数
データを得、かつ、エントロピー復号化手段によって得
られた第2の成分の各段階の係数データを組み合わせて
第2の成分の各ブロックの係数データを得る。逆直交変
換ステップでは、組み合わせステップによって得られた
第1の成分の各ブロックの係数データおよび第2の成分
の各ブロックの係数データに対して逆直交変換を施す。
復元ステップでは、逆直交変換ステップによって得られ
た第2の成分の各ブロックの伸長画像データを画面上の
垂直方向にアップサンプリングする。ブロック抽出ステ
ップでは、復元ステップによってアップサンプリングさ
れた後の第2の成分の伸長画像データのうち、逆直交変
換ステップによって得られた第1の成分の各ブロックの
伸長画像データに対応する部分を抽出する。
In the extraction step, the horizontal 1
For each block of lines, encoded data of each stage of the first component and encoded data of each stage of the second component are extracted from the compressed image data for each block. In the storing step, the encoded data of each stage of the second component extracted in the extracting step is stored in the buffer memory. In the entropy decoding step, the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extraction step are entropy-decoded. In the combining step, the coefficient data of each block of the first component obtained by the entropy decoding step is combined to obtain coefficient data of each block of the first component, and the second data obtained by the entropy decoding means is obtained. The coefficient data of each block of the second component is obtained by combining the coefficient data of each stage of the component. In the inverse orthogonal transform step, inverse orthogonal transform is performed on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained in the combining step.
In the restoration step, decompressed image data of each block of the second component obtained in the inverse orthogonal transformation step is up-sampled in the vertical direction on the screen. In the block extraction step, a portion corresponding to the decompressed image data of each block of the first component obtained in the inverse orthogonal transformation step is extracted from the decompressed image data of the second component after being upsampled in the restoration step. I do.

【0073】そして、画面上の水平方向の1ライン分の
すべてのブロックについて各段階の符号化データを抽出
した後、第1の成分について、上記1ラインの次の1ラ
イン分のブロックについて各ブロックごとに各段階の符
号化データを抽出する。
After extracting the coded data at each stage for all the blocks for one line in the horizontal direction on the screen, for the first component, each block for the block for one line following the one line The encoded data of each stage is extracted every time.

【0074】また、画面上の水平方向の1ライン分のす
べてのブロックについて各段階の符号化データをエント
ロピー復号化した後、第2の成分について、バッファメ
モリに記憶された各ブロックの各段階の符号化データを
エントロピー復号化する。
After the entropy decoding of the encoded data at each stage for all the blocks for one line in the horizontal direction on the screen, the second component is obtained at each stage of each block stored in the buffer memory. Entropy decode the encoded data.

【0075】上記画像処理方法では、まず、画面上の水
平方向のある1ライン分の各ブロックについて第1の成
分の伸長画像データおよび当該第1の成分の伸長画像デ
ータに対応する部分の第2の成分の伸長画像データが得
られる。次いで、上記1ラインの次の1ライン分の各ブ
ロックについて第1の成分の伸長画像データが得られ
る。一方、バッファメモリに記憶された各ブロックの符
号化データが読み出され、エントロピー復号化、組み合
わせ処理、逆直交変換処理、アップサンプリング、ブロ
ック抽出処理が行われる。これにより、上記1ラインの
次の1ライン分の第1の成分の伸長画像データに対応す
る第2の成分の伸長画像データが得られる。このよう
に、上記画像処理方法によれば、プログレッシブ符号化
された圧縮画像データをブロック単位で伸長することが
できる。
In the above-described image processing method, first, the expanded image data of the first component and the second image of the portion corresponding to the expanded image data of the first component for each block of one horizontal line on the screen are first obtained. The expanded image data of the component is obtained. Next, decompressed image data of the first component is obtained for each block of one line following the one line. On the other hand, the encoded data of each block stored in the buffer memory is read, and entropy decoding, combination processing, inverse orthogonal transformation processing, upsampling, and block extraction processing are performed. As a result, decompressed image data of the second component corresponding to decompressed image data of the first component for one line following the one line is obtained. As described above, according to the image processing method, the progressively encoded compressed image data can be expanded in units of blocks.

【0076】この発明のさらにもう1つの局面に従う
と、画像データ転送方法は、第1の成分と画面上の垂直
方向にダウンサンプリングされた第2の成分とを含む画
像データを、所定の数の画素で構成されるブロック単位
で転送するものである。そして、画面上の水平方向の1
ライン分の画像データを転送した後、第1の成分につい
ては、水平方向の上記1ラインの次の1ライン分のデー
タを転送し、第2の成分については、水平方向の上記1
ライン分のデータを再度転送する。
According to still another aspect of the present invention, an image data transfer method comprises the steps of: converting image data including a first component and a second component vertically down-sampled on a screen into a predetermined number of image data; The transfer is performed in units of blocks composed of pixels. And the horizontal one on the screen
After transferring the image data for one line, for the first component, the data for one line following the one line in the horizontal direction is transferred, and for the second component, the data for one line in the horizontal direction is transferred.
Transfer the data for the line again.

【0077】上記画像データ転送方法では、まず、画面
上の水平方向の1ライン分の画像データが転送される。
この画像データの第2の成分には、画面上の水平方向の
上記1ライン分の第1の成分のデータに対応する部分だ
けでなく次の1ライン分の第1の成分のデータに対応す
る部分も含まれている。そこで、第1の成分について
は、水平方向の上記1ラインの次の1ライン分のデータ
を転送する一方、第2の成分については、水平方向の上
記1ライン分のデータを再度転送する。これにより、水
平方向の上記1ラインの次の1ライン分の第1の成分の
データと、これに対応した部分を含んだ第2の成分のデ
ータとが転送される。
In the image data transfer method, first, image data for one line in the horizontal direction on the screen is transferred.
The second component of the image data corresponds not only to the portion corresponding to the data of the first component for the one line in the horizontal direction on the screen but also to the data of the first component for the next one line. Part is also included. Thus, for the first component, the data for one line following the one line in the horizontal direction is transferred, while for the second component, the data for one line in the horizontal direction is transferred again. As a result, the data of the first component for the next one line of the one line in the horizontal direction and the data of the second component including the corresponding portion are transferred.

【0078】以上のように、上記画像データ転送方法で
は、第1の成分については、水平方向の上記1ラインの
次の1ライン分のデータを転送する一方、第2の成分に
ついては、水平方向の上記1ライン分のデータを再度転
送するため、第1の成分とこれに対応する部分を含んだ
第2の成分とを含む画像データを転送することができ
る。
As described above, in the above-described image data transfer method, the first component is to transfer the data of one line following the one line in the horizontal direction, while the second component is to be transferred in the horizontal direction. The image data including the first component and the second component including the portion corresponding to the first component can be transferred in order to transfer the one line of data again.

【0079】好ましくは、転送すべき第2の成分を画面
上の垂直方向にアップサンプリングし、アップサンプリ
ングした第2の成分のうち上記第1の成分に対応する部
分を抽出し、当該抽出した部分を転送する。
Preferably, the second component to be transferred is up-sampled in the vertical direction on the screen, a portion corresponding to the first component is extracted from the up-sampled second component, and the extracted portion is extracted. To transfer.

【0080】上記画像データ転送方法によれば、第1の
成分と第2の成分とが対応した画像データを転送するこ
とができる。
According to the above-described image data transfer method, image data corresponding to the first component and the second component can be transferred.

【0081】この発明のさらにもう1つの局面に従う
と、画像データ転送方法は、第1の成分と画面上の垂直
方向にダウンサンプリングされた第2の成分とを含む画
像データを、所定の数の画素で構成されるブロック単位
で転送するものである。そして、第1の成分について、
画面上の水平方向の所定数のライン分のデータをバッフ
ァメモリに蓄積する。次いで、第2の成分と、バッファ
メモリに蓄積された第1の成分に対して画面上の水平方
向の次の1ライン上にある第1の成分と、バッファメモ
リに蓄積された第1の成分のうち上記次の1ライン上に
ある第1の成分と画面上の垂直方向の同じライン上にあ
る第1の成分とを転送する。
According to still another aspect of the present invention, an image data transfer method comprises the steps of: converting image data including a first component and a second component vertically down-sampled on a screen into a predetermined number of image data; The transfer is performed in units of blocks composed of pixels. And for the first component,
Data of a predetermined number of lines in the horizontal direction on the screen is accumulated in the buffer memory. Next, a second component, a first component on the next horizontal line on the screen with respect to the first component stored in the buffer memory, and a first component stored in the buffer memory. The first component on the next one line and the first component on the same vertical line on the screen are transferred.

【0082】好ましくは、上記バッファメモリに蓄積さ
れる第1の成分の画面上の水平方向のラインの数(所定
数)は、1ブロック分の第2の成分がダウンサンプリン
グされる前の状態において含んでいた画面上の垂直方向
のブロックの数より1少ない数である。
Preferably, the number (predetermined number) of horizontal lines on the screen of the first component stored in the buffer memory is determined in a state before the second component of one block is down-sampled. The number is one less than the number of vertical blocks on the screen included.

【0083】上記画像データ転送方法では、第1の成分
について、画面上の水平方向の所定数のライン分のデー
タをバッファメモリに蓄積し、次いで、第2の成分と、
バッファメモリに蓄積された第1の成分に対して画面上
の水平方向の次の1ライン上にある第1の成分と、バッ
ファメモリに蓄積された第1の成分のうち上記次の1ラ
イン上にある第1の成分と画面上の垂直方向の同じライ
ン上にある第1の成分とを転送するため、第1の成分と
第2の成分とが対応した画像データを転送することがで
きる。
In the above image data transfer method, for the first component, data for a predetermined number of horizontal lines on the screen is stored in the buffer memory, and then the second component is
A first component on the next one horizontal line on the screen with respect to the first component stored in the buffer memory; and a first component on the next one of the first components stored in the buffer memory. , And the first component on the same vertical line on the screen, so that image data corresponding to the first component and the second component can be transferred.

【0084】この発明のさらにもう1つの局面に従う
と、画像データ転送方法は、第1の成分と画面上の垂直
方向にダウンサンプリングされた第2の成分とを含む画
像データを、所定の数の画素で構成されるブロック単位
で転送するものである。そして、まず、画面上の水平方
向の1ライン分の画像データを転送するとともに、第2
の成分のデータをバッファメモリに蓄積する。次いで、
第1の成分については、水平方向の上記1ラインの次の
1ライン分のデータを転送する。一方、第2の成分につ
いては、バッファメモリに蓄積されたデータを転送す
る。
According to yet another aspect of the present invention, an image data transfer method comprises the steps of: converting image data including a first component and a second component vertically down-sampled on a screen into a predetermined number of images; The transfer is performed in units of blocks composed of pixels. First, the image data for one line in the horizontal direction on the screen is transferred, and the second
Is stored in the buffer memory. Then
As for the first component, data for one line following the one line in the horizontal direction is transferred. On the other hand, for the second component, the data stored in the buffer memory is transferred.

【0085】好ましくは、上記第2の成分については、
バッファメモリに蓄積されたデータのうち上記次の1ラ
イン分の第1の成分と画面上の垂直方向の同じライン上
にあるものを転送する。
Preferably, for the second component,
Among the data stored in the buffer memory, the data on the same vertical line on the screen as the first component of the next one line is transferred.

【0086】上記画像データ転送方法では、まず、画面
上の水平方向の1ライン分の画像データが転送されると
もに、第2の成分のデータがバッファメモリに蓄積され
る。バッファメモリに蓄積された第2の成分には、画面
上の水平方向の上記1ライン分の第1の成分のデータに
対応する部分だけでなく次の1ライン分の第1の成分の
データに対応する部分も含まれている。そこで、第1の
成分については、水平方向の上記1ラインの次の1ライ
ン分のデータを転送する一方、第2の成分については、
バッファメモリに蓄積されたデータを転送する。これに
より、水平方向の上記1ラインの次の1ライン分の第1
の成分のデータと、これに対応した部分を含んだ第2の
成分のデータとが転送される。
In the above-described image data transfer method, first, one line of image data in the horizontal direction on the screen is transferred, and the data of the second component is stored in the buffer memory. The second component stored in the buffer memory includes not only a portion corresponding to the data of the first component for one line in the horizontal direction on the screen but also data of the first component for the next one line. Corresponding parts are also included. Therefore, for the first component, data for one line following the one line in the horizontal direction is transferred, while for the second component,
Transfer the data stored in the buffer memory. As a result, the first line for the next line following the one line in the horizontal direction is obtained.
The data of the component and the data of the second component including the corresponding part are transferred.

【0087】以上のように、上記画像データ転送方法で
は、画面上の水平方向の1ライン分の第2の成分のデー
タをバッファメモリに蓄積し、第1の成分については、
水平方向の上記1ラインの次の1ライン分のデータを転
送する一方、第2の成分については、バッファメモリに
蓄積されたデータを転送するため、第1の成分とこれに
対応する部分を含んだ第2の成分とを含む画像データを
転送することができる。
As described above, in the image data transfer method, the data of the second component for one line in the horizontal direction on the screen is stored in the buffer memory, and the first component is
While the data of one line following the one line in the horizontal direction is transferred, the second component includes the first component and a corresponding part to transfer the data stored in the buffer memory. The image data including the second component can be transferred.

【0088】好ましくは、転送すべき第2の成分を画面
上の垂直方向にアップサンプリングし、アップサンプリ
ングした第2の成分のうち、転送する第1の成分に対応
する部分を抽出し、当該抽出した部分を転送する。
Preferably, the second component to be transferred is up-sampled in the vertical direction on the screen, and a portion corresponding to the first component to be transferred is extracted from the up-sampled second component. Transfer the part you did.

【0089】上記画像データ転送方法によれば、第1の
成分と第2の成分とが対応した画像データを転送するこ
とができる。
According to the above-described image data transfer method, image data corresponding to the first component and the second component can be transferred.

【0090】[0090]

【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して詳しく説明する。なお、図中同一または相
当部分には同一符号を付し、その説明は繰り返さない。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the drawings, the same or corresponding portions have the same reference characters allotted, and description thereof will not be repeated.

【0091】(第1の実施形態) <全体構成>図1は、この発明の第1の実施形態による
画像処理装置の全体構成を示すブロック図である。図1
を参照して、この画像処理装置は、解析器101と、ハ
フマン復号化器102と、セレクタ103y,103
u,103vと、組み合わせ器104y,104u,1
04vと、逆量子化器105と、逆DCT変換器106
と、色空間変換器107と、色数削減器108と、復元
器110u,110vと、水平開始制御器114と、ブ
ロック抽出器111u,111vと、入力手段iy1−
iy3,iu1−iu3,iv1−iv3と、符号化テ
ーブルTB1と、量子化テーブルTB2と、圧縮画像用
メモリM1と、伸長画像用メモリM2と、開始位置用メ
モリM3とを備える。
(First Embodiment) <Overall Configuration> FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus according to a first embodiment of the present invention. FIG.
, The image processing apparatus includes an analyzer 101, a Huffman decoder 102, and selectors 103y and 103
u, 103v and combiners 104y, 104u, 1
04v, the inverse quantizer 105, and the inverse DCT transformer 106
, A color space converter 107, a color number reducer 108, decompressors 110u and 110v, a horizontal start controller 114, block extractors 111u and 111v, and input means iy1-
iy3, iu1-iu3, iv1-iv3, an encoding table TB1, a quantization table TB2, a compressed image memory M1, an expanded image memory M2, and a start position memory M3.

【0092】圧縮画像用メモリM1は、圧縮画像データ
を記憶するためのメモリである。
The compressed image memory M1 is a memory for storing compressed image data.

【0093】解析器101は、圧縮画像用メモリM1に
記憶された圧縮画像データのヘッダを解析し、符号化方
式、量子化値、ハフマンテーブルなど、伸長処理に必要
な情報を獲得する。また、解析器101は、ハフマンテ
ーブルを符号化テーブルTB1へ、量子化値を量子化テ
ーブルTB2へ転送する。また、解析器101は、圧縮
画像用メモリM1に記憶された圧縮画像データがプログ
レッシブ符号化されているときは、輝度成分Yおよび色
差成分U,Vのそれぞれについて、各段階の符号化デー
タが格納されている位置を検出する。そして、輝度成分
Yの各段階の符号化データが格納されている位置の情報
を入力手段iy1−iy3に、色差成分U,Vの各段階
の符号化データが格納されている位置の情報を入力手段
iu1−iu3,iv1−iv3に出力する。一方、解
析器101は、圧縮画像用メモリM1に記憶された圧縮
画像データがシーケンシャル符号化されているときは、
符号化データをハフマン復号化器102に転送する。
The analyzer 101 analyzes the header of the compressed image data stored in the compressed image memory M1, and obtains information necessary for the decompression processing, such as the encoding method, the quantization value, and the Huffman table. In addition, the analyzer 101 transfers the Huffman table to the encoding table TB1 and the quantization value to the quantization table TB2. When the compressed image data stored in the compressed image memory M1 is progressively coded, the analyzer 101 stores the coded data of each stage for each of the luminance component Y and the color difference components U and V. Detect the position that is being performed. Then, information on the position where the encoded data of each stage of the luminance component Y is stored is input to the input means iy1-iy3, and information on the position where the encoded data of each stage of the color difference components U and V is stored is input. Output to means iu1-iu3, iv1-iv3. On the other hand, when the compressed image data stored in the compressed image memory M1 is sequentially encoded,
The encoded data is transferred to the Huffman decoder 102.

【0094】開始位置用メモリM3は、画面上の水平方
向の最初(左端)のブロックの色差成分U,Vの各段階
の符号化データが格納されている位置の情報、当該ブロ
ックの輝度成分Yの第1段階(DC成分)の符号化デー
タが格納されている位置の情報を記憶するためのメモリ
である。
The start position memory M3 stores information on the position where the coded data of each stage of the color difference components U and V of the first (left end) block in the horizontal direction on the screen is stored, and the luminance component Y of the block. Is a memory for storing information on the position where the encoded data of the first stage (DC component) is stored.

【0095】入力手段iy1−iy3は、圧縮画像用メ
モリM1に記憶された圧縮画像データの輝度成分Yの各
段階の符号化データを解析器101からの位置情報に基
づいて抽出してセレクタ103yに供給する。入力手段
iu1−iu3,iv1−iv3は、圧縮画像用メモリ
M1に記憶された圧縮画像データの色差成分U,Vの各
段階の符号化データを解析器101からの位置情報に基
づいて抽出してセレクタ103u,103vに供給す
る。
The input means iy1-iy3 extract the coded data of each stage of the luminance component Y of the compressed image data stored in the compressed image memory M1 based on the position information from the analyzer 101, and provide it to the selector 103y. Supply. The input means iu1-iu3 and iv1-iv3 extract encoded data of each stage of the color difference components U and V of the compressed image data stored in the compressed image memory M1 based on the position information from the analyzer 101. The signals are supplied to the selectors 103u and 103v.

【0096】セレクタ103y,103u,103v
は、それぞれ入力手段iy1−iy3,iu1−iu
3,iv1−iv3からの各段階の符号化データを選択
的にハフマン復号化器102に供給する。
The selectors 103y, 103u, 103v
Are input means iy1-iy3, iu1-iu, respectively.
3, iv1-iv3, and selectively supplies the coded data of each stage to the Huffman decoder 102.

【0097】ハフマン復号化器102は、符号化テーブ
ルTB1に格納されたハフマンテーブルを参照して、解
析器101またはセレクタ103y,103u,103
vによって供給される符号化データをハフマン復号化す
る。
The Huffman decoder 102 refers to the Huffman table stored in the encoding table TB1 and refers to the analyzer 101 or the selectors 103y, 103u, 103
Huffman decode the encoded data supplied by v.

【0098】組み合わせ器104yは、セレクタ109
と、係数メモリM4とを含む。係数メモリM4は、記憶
領域d1−d3を含む。セレクタ109は、ハフマン復
号化器102からの輝度成分YのDCT係数データを係
数メモリM4の記憶領域d1−d3に選択的に転送す
る。係数メモリM4の記憶領域d1−d3に格納された
輝度成分YのDCT係数データは、逆量子化器105へ
出力される。組み合わせ器104u,104yは、組み
合わせ器104yと同様に、セレクタ109(図示せ
ず)と、係数メモリM4(図示せず)とを含む。組み合
わせ器104u,104vに含まれるセレクタは、ハフ
マン復号化器102からの色差成分U,VのDCT係数
データを係数メモリM4(図示せず)の記憶領域d1−
d3(図示せず)に選択的に転送する。
The combiner 104y includes a selector 109
And a coefficient memory M4. The coefficient memory M4 includes storage areas d1-d3. The selector 109 selectively transfers the DCT coefficient data of the luminance component Y from the Huffman decoder 102 to the storage areas d1 to d3 of the coefficient memory M4. The DCT coefficient data of the luminance component Y stored in the storage areas d1 to d3 of the coefficient memory M4 is output to the inverse quantizer 105. Combiners 104u and 104y include selector 109 (not shown) and coefficient memory M4 (not shown), similarly to combiner 104y. The selectors included in the combiners 104u and 104v store the DCT coefficient data of the color difference components U and V from the Huffman decoder 102 in a storage area d1- of a coefficient memory M4 (not shown).
d3 (not shown).

【0099】逆量子化器105は、量子化テーブルTB
2に格納された量子化値を参照して、組み合わせ器10
4y,104u,104vの係数メモリM4からの輝度
成分YのDCT係数データおよび色差成分U,VのDC
T係数データを逆量子化する。
The inverse quantizer 105 calculates the quantization table TB
2 with reference to the quantized value stored in
4y, 104u, and 104v, the DCT coefficient data of the luminance component Y and the DC of the color difference components U and V from the coefficient memory M4.
Dequantize the T coefficient data.

【0100】逆DCT変換器106は、逆量子化器10
5によって逆量子化された輝度成分YのDCT係数デー
タおよび色差成分U,VのDCT係数データに対して逆
DCT変換を施す。
The inverse DCT transformer 106 has the inverse quantizer 10
5, the inverse DCT transform is performed on the DCT coefficient data of the luminance component Y and the DCT coefficient data of the color difference components U and V, which have been inversely quantized by 5.

【0101】復元器110u,110vは、逆DCT変
換器106によって得られた色差成分U,Vの伸長画像
データを画面上の垂直方向に2倍にアップサンプリング
する。すなわち、画面上の垂直方向の色差成分U,Vの
画素数を復元する。
The decompressors 110u and 110v upsample the expanded image data of the color difference components U and V obtained by the inverse DCT converter 106 twice in the vertical direction on the screen. That is, the number of pixels of the color difference components U and V in the vertical direction on the screen is restored.

【0102】水平開始制御器114は、画面上の水平方
向の最後(右端)のブロックの伸長処理が終了すると、
ブロック抽出器111u,111vおよび解析器101
に対して制御信号CTを出力する。この制御信号CTに
応答して、解析器101は、開始位置用メモリM3に記
憶された位置の情報を読み出して、対応する入力手段i
y1,iu1−iu3,iv1−iv3に出力する。
When the horizontal start controller 114 completes the expansion processing of the last (right end) block in the horizontal direction on the screen,
Block extractors 111u and 111v and analyzer 101
Outputs a control signal CT. In response to the control signal CT, the analyzer 101 reads out the position information stored in the start position memory M3, and reads the corresponding input means i.
Output to y1, iu1-iu3, iv1-iv3.

【0103】ブロック抽出器111u,111vは、水
平開始制御器114からの制御信号CTに応答して、復
元器110u,110vによってアップサンプリングさ
れた色差成分U,Vの伸長画像のうち、輝度成分Yの伸
長画像データに対応する部分(ブロック)を抽出して出
力する。
The block extractors 111u and 111v respond to the control signal CT from the horizontal start controller 114, and the luminance component Y of the expanded image of the color difference components U and V upsampled by the decompressors 110u and 110v. The portion (block) corresponding to the decompressed image data is extracted and output.

【0104】色空間変換器107は、逆DCT変換器1
06によって得られた輝度成分Yの伸長画像データおよ
びブロック抽出器111u,111vによって得られた
色差成分U,Vの伸長画像データで構成されるYUV画
像データを、3原色成分(R,G,B)で構成されるR
GB画像データに変換する。
The color space converter 107 is the inverse DCT converter 1
The YUV image data composed of the expanded image data of the luminance component Y obtained in step S06 and the expanded image data of the color difference components U and V obtained in the block extractors 111u and 111v is converted into three primary color components (R, G, and B). R)
Convert to GB image data.

【0105】色数削減器108は、色空間変換器107
からの伸長画像データ(RGB画像データ)の色数を削
減する。
The color number reducer 108 is a color space converter 107
, The number of colors of the decompressed image data (RGB image data) is reduced.

【0106】伸長画像用メモリM2は、色数削減器10
8によって色数が削減された伸長画像データを記憶する
ためのメモリである。
The expanded image memory M2 is provided with a color number reducer 10
A memory for storing decompressed image data whose number of colors has been reduced by eight.

【0107】<圧縮画像データ>次に、図1に示した圧
縮画像用メモリM1に記憶される圧縮画像データについ
て、図2および図3を参照しつつ説明する。
<Compressed Image Data> Next, the compressed image data stored in the compressed image memory M1 shown in FIG. 1 will be described with reference to FIGS.

【0108】図2を参照して、原画像データは、3原色
成分(R,G,B)で表される。各成分R,G,Bは、
16個(4×4)の画素で構成される。なお、図中のま
す目は画素を、符号は画素データを表している。そし
て、各成分R,G,Bは4個(2×2)のブロックに分
割される。1つのブロックは、4個の画素(2×2)で
構成される。例えば、成分Rは、画素データR11,R
12,R21,R22で構成されるブロック、画素デー
タR13,R14,R23,R24で構成されるブロッ
ク、画素データR31,R32,R41,R42で構成
されるブロック、および画素データR33,R34,R
43,R44で構成されるブロックに分割される。この
ように3原色成分(R,G,B)で表される原画像デー
タに対して以下の(1)−(4)に示すような処理が行
われる。
Referring to FIG. 2, original image data is represented by three primary color components (R, G, B). Each component R, G, B is
It is composed of 16 (4 × 4) pixels. The squares in the figure represent pixels, and the symbols represent pixel data. Then, each of the components R, G, and B is divided into four (2 × 2) blocks. One block is composed of four pixels (2 × 2). For example, the component R is composed of pixel data R11, R
12, R21, R22, a block composed of pixel data R13, R14, R23, R24, a block composed of pixel data R31, R32, R41, R42, and pixel data R33, R34, R
43 and R44. The following processing (1)-(4) is performed on the original image data represented by the three primary color components (R, G, B).

【0109】(1)色空間変換 原画像データの色空間を3原色成分(R,G,B)から
輝度成分Yおよび色差成分U,Vに変換する。
(1) Color Space Conversion The color space of the original image data is converted from the three primary color components (R, G, B) into a luminance component Y and color difference components U, V.

【0110】(2)ダウンサンプリング 色差成分U,Vを画面上の垂直方向に1/2にダウンサ
ンプリングする。すなわち、色差成分U,Vの画素数を
画面上の垂直方向に1/2に減らす処理を行う。
(2) Downsampling The chrominance components U and V are downsampled in the vertical direction on the screen by half. That is, a process of reducing the number of pixels of the color difference components U and V to 1 / in the vertical direction on the screen is performed.

【0111】これにより、色差成分Uは、画素データU
11,U12,U21,U22で構成されるブロック、
画素データU31,U32,U41,U42で構成され
るブロック、画素データU13,U14,U23,U2
4で構成されるブロック、および画素データU33,U
34,U43,U44で構成されるブロックで表されて
いたものが、画素データU11,U12,U32,U3
2で構成されるブロックおよび画素データU13,U1
4,U33,U34で構成されるブロックで表されるこ
とになる。
As a result, the color difference component U is
A block composed of 11, U12, U21, and U22;
A block composed of pixel data U31, U32, U41, U42, pixel data U13, U14, U23, U2
4 and pixel data U33, U
What was represented by blocks composed of U, U43, U43, U43, U44 is changed to pixel data U11, U12, U32, U3.
2 and pixel data U13, U1
4, U33, and U34.

【0112】同様に、色差成分Vは、画素データV1
1,V12,V32,V32で構成されるブロックおよ
び画素データV13,V14,V33,V34で構成さ
れるブロックで表されることになる。
Similarly, the color difference component V is the pixel data V1
1, V12, V32, V32 and a block composed of pixel data V13, V14, V33, V34.

【0113】ここでは、輝度成分Yの画素データY1
1,Y12,Y21,Y22で構成されるブロック、画
素データY31,Y32,Y41,Y42で構成される
ブロック、色差成分Uの画素データU11,U12,U
31,U32で構成されるブロック、および色差成分V
の画素データV11,V12,V31,V32で構成さ
れるブロックで1つのMCU(Minimum Cod
ed Unit)が構成される。また、輝度成分Yの画
素データY13,Y14,Y23,Y24で構成される
ブロック、画素データY33,Y34,Y43,Y44
で構成されるブロック、色差成分Uの画素データU1
3,U14,U33,U34で構成されるブロック、お
よび色差成分Vの画素データV13,V14,V33,
V34で構成されるブロックで1つのMCUが構成され
る。すなわち、輝度成分Yの2つのブロック(画面上の
水平方向1つ×垂直方向2つ)、ダウンサンプリング後
の色差成分U,Vの1つのブロック(画面上の水平方向
1つ×垂直方向1つ)で1つのMCUが構成される。
Here, the pixel data Y1 of the luminance component Y
1, a block composed of Y12, Y21, Y22, a block composed of pixel data Y31, Y32, Y41, Y42, and pixel data U11, U12, U of a color difference component U.
31, U32, and a color difference component V
Of one pixel (Minum Code) in a block composed of the pixel data V11, V12, V31, and V32.
ed Unit). A block composed of pixel data Y13, Y14, Y23, and Y24 of the luminance component Y, pixel data Y33, Y34, Y43, and Y44.
, The pixel data U1 of the color difference component U
3, U14, U33, U34, and pixel data V13, V14, V33,
One MCU is composed of blocks composed of V34. That is, two blocks of the luminance component Y (one horizontal direction × two vertical directions on the screen) and one block of the color difference components U and V after down sampling (one horizontal direction × one vertical direction on the screen) ) Constitute one MCU.

【0114】(3)DCT変換 輝度成分Yおよびダウンサンプリング後の色差成分U,
Vの画像データをDCT変換する。これにより、輝度成
分YのDCT係数データya11−ya14,ya21
−ya24,yb11−yb14,yb21−yb2
4、色差成分U,VのDCT係数データu11−u1
4,u21−u24,v11−v14,v21−v24
が得られる。そして、得られたDCT係数を、量子化テ
ーブルに格納された量子化値に基づいて量子化する。
(3) DCT transformation The luminance component Y and the down-sampled color difference components U,
DCT transforms the V image data. Thereby, the DCT coefficient data ya11-ya14, ya21 of the luminance component Y
-Ya24, yb11-yb14, yb21-yb2
4. DCT coefficient data u11-u1 of color difference components U and V
4, u21-u24, v11-v14, v21-v24
Is obtained. Then, the obtained DCT coefficient is quantized based on the quantization value stored in the quantization table.

【0115】次いで、量子化されたDCT係数データを
周波数に基づいて複数の段階(第1−第3段階)に分割
する。ここでは、第1段階(DC)のDCT係数データ
は、各ブロックのDC成分のDCT係数データya1
1,ya21,yb11,yb21,u11,u21,
v11,v21である。第2段階(AC1)のDCT係
数データは、各ブロックのDCT係数データ(ya1
2,ya13),(ya22,ya23),(yb1
2,yb13),(yb22,yb23),(u12,
u13),(u22,u23),(v12,v13),
(v22,v23)である。第3段階(AC2)のDC
T係数データは、各ブロックのDCT係数データya1
4,ya24,yb14,yb24,u14,u24,
v14,v24である。
Next, the quantized DCT coefficient data is divided into a plurality of stages (first to third stages) based on the frequency. Here, the DCT coefficient data of the first stage (DC) is the DCT coefficient data ya1 of the DC component of each block.
1, ya21, yb11, yb21, u11, u21,
v11 and v21. The DCT coefficient data of the second stage (AC1) is the DCT coefficient data (ya1) of each block.
2, ya13), (ya22, ya23), (yb1
2, yb13), (yb22, yb23), (u12,
u13), (u22, u23), (v12, v13),
(V22, v23). DC of the third stage (AC2)
The T coefficient data is DCT coefficient data ya1 of each block.
4, ya24, yb14, yb24, u14, u24,
v14 and v24.

【0116】(4)ハフマン符号化 量子化されたDCT係数データを各段階ごとにハフマン
符号化する。具体的には、図3に示すように、輝度成分
Yの第1段階(DC)のDCT係数データは、MCUご
とに、すなわち、DCT係数データ(ya11,yb1
1),(ya21,yb21)の順にハフマン符号化さ
れる。輝度成分の第2段階(AC1)のDCT係数デー
タは、画面上の水平方向にブロック順に、すなわち、D
CT係数データ(ya12,ya13),(ya22,
ya23),(yb12,yb13),(yb22,y
b23)の順にハフマン符号化される。輝度成分Yの第
3段階(AC2)のDCT係数データは、画面上の水平
方向にブロック順に、すなわち、DCT係数データya
14,ya24,yb14,yb24の順にハフマン符
号化される。
(4) Huffman coding The quantized DCT coefficient data is Huffman-coded for each stage. Specifically, as shown in FIG. 3, the DCT coefficient data of the first stage (DC) of the luminance component Y is for each MCU, that is, the DCT coefficient data (ya11, yb1
1) Huffman coding is performed in the order of (ya21, yb21). The DCT coefficient data of the second stage (AC1) of the luminance component is in the block order in the horizontal direction on the screen, ie, D
CT coefficient data (ya12, ya13), (ya22,
ya23), (yb12, yb13), (yb22, y
b23) is performed in the order of Huffman coding. The DCT coefficient data of the third stage (AC2) of the luminance component Y is arranged in the block order in the horizontal direction on the screen, that is, the DCT coefficient data ya
Huffman coding is performed in the order of 14, ya24, yb14, yb24.

【0117】色差成分Uの第1段階(DC)のDCT係
数データは、MCUごとに、すなわち、DCT係数デー
タu11,u21の順にハフマン符号化される。色差成
分Uの第2段階(AC1)のDCT係数データは、画面
上の水平方向にブロック順に、すなわち、DCT係数デ
ータ(u12,u13),(u22,u23)の順にハ
フマン符号化される。色差成分Uの第3段階(AC2)
のDCT係数データは、画面上の水平方向にブロック順
に、すなわち、DCT係数データu14,u24の順に
ハフマン符号化される。
The DCT coefficient data of the first stage (DC) of the color difference component U is Huffman-coded for each MCU, that is, in the order of the DCT coefficient data u11 and u21. The DCT coefficient data of the second stage (AC1) of the color difference component U is Huffman-coded in block order in the horizontal direction on the screen, that is, in the order of DCT coefficient data (u12, u13), (u22, u23). Third stage of color difference component U (AC2)
Are subjected to Huffman coding in the block order in the horizontal direction on the screen, that is, in the order of DCT coefficient data u14 and u24.

【0118】色差成分Vの第1段階(DC)のDCT係
数データは、MCUごとに、すなわち、DCT係数デー
タv11,v21の順にハフマン符号化される。色差成
分Vの第2段階(AC1)のDCT係数データは、画面
上の水平方向にブロック順に、すなわち、DCT係数デ
ータ(v12,v13),(v22,v23)の順にハ
フマン符号化される。色差成分Vの第3段階(AC2)
のDCT係数データは、画面上の水平方向にブロック順
に、すなわち、DCT係数データv14,v24の順に
ハフマン符号化される。
The DCT coefficient data of the first stage (DC) of the color difference component V is Huffman-coded for each MCU, that is, in the order of DCT coefficient data v11 and v21. The DCT coefficient data of the second stage (AC1) of the color difference component V is Huffman-coded in the block order in the horizontal direction on the screen, that is, in the order of DCT coefficient data (v12, v13), (v22, v23). Third stage of color difference component V (AC2)
Are subjected to Huffman coding in the block order in the horizontal direction on the screen, that is, in the order of DCT coefficient data v14 and v24.

【0119】このようにして、図3に示すようなプログ
レッシブ符号化された圧縮画像データが得られる。な
お、図3中には示していないが、圧縮画像データには、
テーブルデータ(ハフマンテーブル、量子化値)、フレ
ームヘッダなどの伸長処理に必要なデータが含まれてい
る。フレームヘッダには、圧縮画像データの符号化方式
(シーケンシャル符号化されたデータであるか、プログ
レッシブ符号化されたデータであるか)を示す情報が含
まれている。
In this way, the progressively encoded compressed image data as shown in FIG. 3 is obtained. Although not shown in FIG. 3, the compressed image data includes
Table data (Huffman table, quantization value), frame header, and other data necessary for decompression processing are included. The frame header includes information indicating an encoding method of the compressed image data (whether the data is sequentially encoded data or progressively encoded data).

【0120】<伸長処理>次に、図1に示した画像処理
装置による伸長処理について説明する。図4は、図1に
示した画像処理装置による伸長処理の手順を示すフロー
チャートである。以下、図4および図1を参照しつつ説
明する。なお、以下の説明では、2×2個のブロックで
構成される伸長画像について、(1)画面上の左上のブ
ロックの伸長処理、(2)画面上の右上のブロックの伸
長処理、(3)画面上の左下のブロックの伸長処理、
(4)画面上の右下のブロックの伸長処理、に分けて説
明する。
<Decompression Processing> Next, the decompression processing by the image processing apparatus shown in FIG. 1 will be described. FIG. 4 is a flowchart illustrating a procedure of a decompression process performed by the image processing apparatus illustrated in FIG. Hereinafter, description will be made with reference to FIG. 4 and FIG. In the following description, for an expanded image composed of 2 × 2 blocks, (1) an upper left block expansion process on the screen, (2) an upper right block expansion process on the screen, (3) Decompression processing of the lower left block on the screen,
(4) Decompression processing of the lower right block on the screen will be described separately.

【0121】(1)画面上の左上のブロックの伸長処理 まず、ステップST701において、解析器101は、
圧縮画像用メモリM1に格納された圧縮画像データのフ
レームヘッダを解析して、符号化方式(プログレッシブ
符号化、シーケンシャル符号化)、画像サイズなどの情
報を得る。これにより、この圧縮画像データがプログレ
ッシブ符号化されたデータであることが認識される。ま
た、解析器101は、圧縮画像データのテーブルデータ
から量子化値を抽出して量子化テーブルTB2に転送
し、ハフマンテーブルを抽出して符号化テーブルTB1
に転送する。
(1) Decompression processing of upper left block on screen First, in step ST701, the analyzer 101
The frame header of the compressed image data stored in the compressed image memory M1 is analyzed to obtain information such as an encoding method (progressive encoding or sequential encoding) and an image size. As a result, it is recognized that the compressed image data is progressively encoded data. Further, the analyzer 101 extracts a quantization value from the table data of the compressed image data, transfers the quantization value to the quantization table TB2, extracts a Huffman table, and encodes the encoding table TB1.
Transfer to

【0122】次いで、ステップST702において、解
析器101は、圧縮画像データの各段階のスキャンヘッ
ダを識別し、輝度成分Yおよび色差成分U,Vの各段階
の符号化データが格納されている先頭の位置を検出す
る。
Next, in step ST702, the analyzer 101 identifies the scan header of each stage of the compressed image data, and stores the leading encoded data of each stage of the luminance component Y and the color difference components U and V. Detect the position.

【0123】具体的には、解析器101は、輝度成分Y
の第1段階(DC)の符号化データhya11,hyb
11(図3参照)の先頭は圧縮画像データの輝度成分Y
の先頭から何バイト目であるか、第2段階(AC1)の
符号化データhya12,hya13(図3参照)の先
頭は圧縮画像データの輝度成分Yの先頭から何バイト目
であるか、第3段階(AC2)の符号化データhya1
4(図3参照)の先頭は圧縮画像データの輝度成分Yの
先頭から何バイト目であるか、色差成分Uの第1段階
(DC)の符号化データhu11(図3参照)の先頭は
圧縮画像データの色差成分Uの先頭から何バイト目であ
るか、色差成分Uの第2段階(AC1)の符号化データ
hu12,hu13(図3参照)の先頭は圧縮画像デー
タの色差成分Uの先頭から何バイト目であるか、色差成
分Uの第3段階(AC2)の符号化データhu14(図
3参照)の先頭は圧縮画像データの色差成分Uの先頭か
ら何バイト目であるか、色差成分Vの第1段階(DC)
の符号化データhv11(図3参照)の先頭は圧縮画像
データの色差成分Vの先頭から何バイト目であるか、色
差成分Vの第2段階(AC1)の符号化データhv1
2,hv13(図3参照)の先頭は圧縮画像データの色
差成分Vの先頭から何バイト目であるか、色差成分vの
第3段階(AC2)の符号化データhv14(図3参
照)の先頭は圧縮画像データの色差成分Vの先頭から何
バイト目であるか、という位置情報を検出する。
Specifically, the analyzer 101 calculates the luminance component Y
Of the first stage (DC) of the encoded data hya11, hyb
11 (see FIG. 3) is a luminance component Y of the compressed image data.
The first byte of the coded data hya12, hya13 (see FIG. 3) of the second stage (AC1) is the first byte of the luminance component Y of the compressed image data; Step (AC2) encoded data hya1
4 (see FIG. 3) is the number of bytes from the beginning of the luminance component Y of the compressed image data, and the first stage (DC) encoded data hu11 (see FIG. 3) of the color difference component U is compressed. The number of the byte from the head of the color difference component U of the image data, the head of the encoded data hu12, hu13 (see FIG. 3) of the second stage (AC1) of the color difference component U is the head of the color difference component U of the compressed image data. The first byte of the coded data hu14 (see FIG. 3) of the third stage (AC2) of the color difference component U is the number byte from the top of the color difference component U of the compressed image data, and the color difference component The first stage of DC (DC)
The head of the encoded data hv11 (see FIG. 3) is the number of bytes from the beginning of the color difference component V of the compressed image data, and the encoded data hv1 of the second stage (AC1) of the color difference component V
2, the head of hv13 (see FIG. 3) is the number of bytes from the head of the chrominance component V of the compressed image data, and the head of the coded data hv14 (see FIG. 3) of the third stage (AC2) of the chrominance component v Detects position information indicating the number of the byte from the head of the color difference component V of the compressed image data.

【0124】そして、解析器101は、輝度成分Yの第
1段階−第3段階の符号化データの位置情報をそれぞれ
入力手段iy1−iy3に、色差成分Uの第1段階−第
3段階の符号化データの位置情報をそれぞれ入力手段i
u1−iu3に、色差成分Vの第1段階−第3段階の符
号化データの位置情報をそれぞれ入力手段iv1−iv
3に出力する。
The analyzer 101 inputs the position information of the coded data of the first to third stages of the luminance component Y to the input means iy1 to iy3, respectively, and inputs the position information of the first to third stages of the color difference component U. Means for inputting the position information of the
u1-iu3 is provided with the position information of the coded data of the first to third stages of the color difference component V, respectively, as input means iv1-iv.
Output to 3.

【0125】次いで、ステップST401において、図
5に示すように、色差成分U,Vの現在の読み出し位
置、すなわち、ステップST702において検出された
色差成分U,Vの第1段階−第3段階の符号化データの
位置情報と、輝度成分Yの第1段階(DC)の現在の読
み出し位置、すなわち、ステップST702において検
出された輝度成分Yの第1段階の符号化データの位置情
報とが開始位置用メモリM3に格納される。
Next, in step ST401, as shown in FIG. 5, the current reading position of the color difference components U and V, that is, the first to third code of the color difference components U and V detected in step ST702. The position information of the encoded data and the current read position of the first stage (DC) of the luminance component Y, that is, the position information of the encoded data of the first stage of the luminance component Y detected in step ST702 are used for the start position. It is stored in the memory M3.

【0126】次いで、ステップST703において、入
力手段iy1−iy3は、解析器101からの位置情報
に基づいて、輝度成分Yの第1段階−第3段階の符号化
データhya11,(hya12,hya13),hy
a14(図5参照)を圧縮画像用メモリM1から抽出し
てセレクタ103yに転送する。なお、このとき、入力
手段iy1は、第1段階の符号化データhyb11は読
み飛ばして、符号化データhya11のみをセレクタ1
03yに転送する。また、入力手段iu1−iu3は、
解析器101からの位置情報に基づいて、色差成分Uの
第1段階−第3段階の符号化データhu11,(hu1
2,hu13),hu14(図5参照)を圧縮画像用メ
モリM1から抽出してセレクタ103uに転送する。入
力手段iv1−iv3は、解析器101からの位置情報
に基づいて、色差成分Vの第1段階−第3段階の符号化
データhv11,(hv12,hv13),hv14
(図5参照)を圧縮画像用メモリM1から抽出してセレ
クタ103vに転送する。
Next, in step ST703, the input means iy1-iy3, based on the position information from the analyzer 101, encode the encoded data hya11, (hya12, hya13) of the first to third stages of the luminance component Y. hy
a14 (see FIG. 5) is extracted from the compressed image memory M1 and transferred to the selector 103y. At this time, the input means iy1 skips the encoded data hyb11 of the first stage and skips only the encoded data hya11 to the selector 1
03y. Also, the input means iu1-iu3 is
Based on the position information from the analyzer 101, the encoded data hu11, (hu1) of the first to third stages of the color difference component U
2, hu13) and hu14 (see FIG. 5) are extracted from the compressed image memory M1 and transferred to the selector 103u. The input means iv1-iv3, based on the position information from the analyzer 101, encode the first-third stage encoded data hv11, (hv12, hv13), hv14 of the color difference component V.
(See FIG. 5) is extracted from the compressed image memory M1 and transferred to the selector 103v.

【0127】そして、解析器101は、セレクタ103
y,103u,103vに転送された符号化データのバ
イト数だけ位置情報をインクリメントする。これによ
り、入力手段iy1−iy3,iu1−iu3,iv1
−iv3に与えられる位置情報は、次のブロックの各段
階の符号化データの先頭が圧縮画像データの先頭から何
バイト目であるかを示すことになる。
The analyzer 101 is provided with a selector 103
The position information is incremented by the number of bytes of the encoded data transferred to y, 103u, and 103v. Thereby, the input means iy1-iy3, iu1-iu3, iv1
The position information given to -iv3 indicates the number of bytes from the beginning of the compressed image data at the beginning of the encoded data at each stage of the next block.

【0128】次いで、ステップST704において、セ
レクタ103y,103u,103vは、入力手段iy
1,iu1,iv1から供給される輝度成分Yおよび色
差成分U,Vの第1段階の符号化データhya11,h
u11,hv11(図5参照)をハフマン復号化器10
2に供給する。そして、ハフマン復号化器102は、符
号化テーブルTB1に格納されたハフマンテーブルを参
照して、輝度成分Yおよび色差成分U,Vの第1段階の
符号化データhya11,hu11,hv11をハフマ
ン復号化する。これにより輝度成分Yおよび色差成分
U,Vの第1段階のDCT係数データya11,u1
1,v11が得られる。
Next, in step ST704, the selectors 103y, 103u, and 103v enter the input means iy
, Iu1, iv1, the first-stage encoded data hya11, hya of the luminance component Y and the chrominance components U, V
u11, hv11 (see FIG. 5)
Feed to 2. The Huffman decoder 102 refers to the Huffman table stored in the encoding table TB1, and performs Huffman decoding of the first-stage encoded data hya11, hu11, hv11 of the luminance component Y and the color difference components U, V. I do. Thus, the first-stage DCT coefficient data ya11, u1 of the luminance component Y and the color difference components U, V
1, v11 are obtained.

【0129】次いで、ステップST705において、組
み合わせ器104y,104u,104vのセレクタ1
09は、それぞれハフマン復号化器102によって得ら
れた輝度成分Yおよび色差成分U,Vの第1段階のDC
T係数データya11,u11,v11を係数メモリM
4の記憶領域d1に転送する。係数メモリM4は、2×
2個のDCT係数データを格納できる容量を有してい
る。そして、記憶領域d1には第1段階のDCT係数デ
ータが、記憶領域d2には第2段階のDCT係数データ
が、記憶領域d3には第3段階のDCT係数データがそ
れぞれ格納される。
Next, in step ST705, the selector 1 of the combiners 104y, 104u, 104v
09 is a first-stage DC component of the luminance component Y and the color difference components U and V obtained by the Huffman decoder 102, respectively.
T coefficient data ya11, u11, v11 are stored in a coefficient memory M
4 to the storage area d1. The coefficient memory M4 is 2 ×
It has a capacity to store two DCT coefficient data. The storage area d1 stores the first-stage DCT coefficient data, the storage area d2 stores the second-stage DCT coefficient data, and the storage area d3 stores the third-stage DCT coefficient data.

【0130】次いで、ステップST706において、全
段階のDCT係数データが係数メモリM4に格納された
か否かが判定される。全段階のDCT係数データが格納
された場合にはステップST707に進む。全段階のD
CT係数データが格納されていない場合にはステップS
T704に戻る。ここでは、未だ全段階のDCT係数デ
ータが格納されていないのでステップST704に戻
る。
Then, in step ST706, it is determined whether or not the DCT coefficient data of all stages has been stored in coefficient memory M4. If DCT coefficient data of all stages has been stored, the process proceeds to step ST707. D for all stages
If the CT coefficient data is not stored, step S
It returns to T704. Here, since the DCT coefficient data of all the stages has not been stored yet, the process returns to step ST704.

【0131】そしてステップST704において、セレ
クタ103y,103u,103vは、入力手段iy
2,iu2,iv2から供給される輝度成分Yおよび色
差成分U,Vの第2段階の符号化データ(hya12,
hya13),(hu12,hu13),(hv12,
hv13)(図5参照)をハフマン復号化器102に供
給する。そして、ハフマン復号化器102は、符号化テ
ーブルTB1に格納されたハフマンテーブルを参照し
て、輝度成分Yおよび色差成分U,Vの第2段階の符号
化データ(hya12,hya13),(hu12,h
u13),(hv12,hv13)をハフマン復号化す
る。これにより輝度成分Yおよび色差成分U,Vの第2
段階のDCT係数データ(ya12,ya13),(u
12,u13),(v12,v13)が得られる。
Then, in step ST704, the selectors 103y, 103u, 103v provide the input means iy
, Iu2, iv2, the second stage of encoded data (hya12, hya12,
hya13), (hu12, hu13), (hv12,
hv13) (see FIG. 5) to the Huffman decoder 102. Then, the Huffman decoder 102 refers to the Huffman table stored in the encoding table TB1, and encodes the second-stage encoded data (hya12, hya13), (hu12, hya13, lu) of the luminance component Y and the color difference components U, V. h
u13) and (hv12, hv13) are Huffman-decoded. As a result, the second component of the luminance component Y and the color
Stage DCT coefficient data (ya12, ya13), (u
12, u13) and (v12, v13) are obtained.

【0132】次いで、ステップST705において、組
み合わせ器104y,104u,104vのセレクタ1
09は、それぞれハフマン復号化器102によって得ら
れた輝度成分Yおよび色差成分U,Vの第2段階のDC
T係数データ(ya12,ya13),(u12,u1
3),(v12,v13)を、係数メモリM4の記憶領
域d2に転送する。輝度成分Yおよび色差成分U,Vの
第2段階のDCT係数データ(ya12,ya13),
(u12,u13),(v12,v13)は、ジグザグ
スキャン順に記憶領域d2に格納される。
Next, in step ST705, the selector 1 of the combiners 104y, 104u, 104v
09 is the DC component of the second stage of the luminance component Y and the color difference components U and V obtained by the Huffman decoder 102, respectively.
T coefficient data (ya12, ya13), (u12, u1)
3), (v12, v13) are transferred to the storage area d2 of the coefficient memory M4. DCT coefficient data (ya12, ya13) of the second stage of the luminance component Y and the color difference components U, V,
(U12, u13) and (v12, v13) are stored in the storage area d2 in zigzag scan order.

【0133】そして、ステップST706における判定
により、再度ステップST704に戻る。
Then, the process returns to step ST704 again according to the determination in step ST706.

【0134】ステップST704において、セレクタ1
03y,103u,103vは、入力手段iy3,iu
3,iv3から供給される輝度成分Yおよび色差成分
U,Vの第3段階の符号化データhya14,hu1
4,hv14(図5参照)をハフマン復号化器102に
供給する。そして、ハフマン復号化器102は、符号化
テーブルTB1に格納されたハフマンテーブルを参照し
て、輝度成分Yおよび色差成分U,Vの第3段階の符号
化データhya14,hu14,hv14をハフマン復
号化する。これにより輝度成分Yおよび色差成分U,V
の第3段階のDCT係数データya14,u14,v1
4が得られる。
In step ST704, the selector 1
03y, 103u, 103v are input means iy3, iu
3 and iv3, the encoded data hya14 and hu1 of the third stage of the luminance component Y and the color difference components U and V
4 and hv14 (see FIG. 5) to the Huffman decoder 102. Then, the Huffman decoder 102 performs the Huffman decoding on the third-stage encoded data hya14, hu14, hv14 of the luminance component Y and the color difference components U, V with reference to the Huffman table stored in the encoding table TB1. I do. Thereby, the luminance component Y and the color difference components U, V
DCT coefficient data ya14, u14, v1 of the third stage
4 is obtained.

【0135】次いで、ステップST705において、組
み合わせ器104y,104u,104vのセレクタ1
09は、それぞれハフマン復号化器102によって得ら
れた輝度成分Yおよび色差成分U,Vの第3段階のDC
T係数データya14,u14,v14を、係数メモリ
M4の記憶領域d3に転送する。これにより、図5に示
すように、輝度成分Yおよび色差成分U,Vについて、
ジグザグスキャン順に配置された2×2個のDCT係数
データya11−ya14,u11−u14,v11−
v14が得られる。
Next, in step ST705, the selector 1 of the combiners 104y, 104u, 104v
09 is the third-stage DC of the luminance component Y and the color difference components U and V obtained by the Huffman decoder 102, respectively.
The T coefficient data ya14, u14, and v14 are transferred to the storage area d3 of the coefficient memory M4. Thereby, as shown in FIG. 5, for the luminance component Y and the color difference components U and V,
2 × 2 DCT coefficient data ya11-ya14, u11-u14, v11- arranged in zigzag scan order
v14 is obtained.

【0136】以上のようにして、輝度成分Yおよび色差
成分U,VのDCT係数データya11−ya14,u
11−u14,v11−v14が得られる。そして、ス
テップST706の判定によってステップST707に
進む。
As described above, the DCT coefficient data ya11-ya14, u of the luminance component Y and the color difference components U, V
11-u14 and v11-v14 are obtained. Then, the process proceeds to step ST707 according to the determination in step ST706.

【0137】次いで、ステップST707において、逆
量子化器105は、組み合わせ器104y,104u,
104vによって得られた輝度成分Yおよび色差成分
U,VのDCT係数データya11−ya14,u11
−u14,v11−v14を、量子化テーブルTB2に
格納された量子化値に基づいて逆量子化する。
Next, in step ST707, the inverse quantizer 105 sets the combination units 104y, 104u,
DCT coefficient data ya11-ya14, u11 of the luminance component Y and the color difference components U, V obtained by 104v
-U14, v11-v14 are inversely quantized based on the quantization values stored in the quantization table TB2.

【0138】次いで、ステップST708において、逆
DCT変換器106は、逆量子化器105によって逆量
子化された輝度成分Yおよび色差成分U,VのDCT係
数データya11−ya14,u11−u14,v11
−v14に対して逆DCT変換を施す。これにより、図
6に示すように、輝度成分Yおよび色差成分U,Vの伸
長画像データ(Y11,Y12,Y21,Y22),
(U11,U12,U31,U32),(V11,V1
2,V31,V32)が得られる。
Next, in step ST708, the inverse DCT transformer 106 performs DCT coefficient data ya11-ya14, u11-u14, v11 of the luminance component Y and the chrominance components U, V dequantized by the dequantizer 105.
-V14 is subjected to inverse DCT transform. Thereby, as shown in FIG. 6, expanded image data (Y11, Y12, Y21, Y22) of the luminance component Y and the color difference components U, V,
(U11, U12, U31, U32), (V11, V1
2, V31, V32) are obtained.

【0139】次いで、ステップST402において、復
元器110u,110vは、図6に示すように、色差成
分U,Vの伸長画像データ(U11,U12,U31,
U32),(V11,V12,V31,V32)を画面
上の垂直方向に2倍にアップサンプリングする。すなわ
ち、画面上の垂直方向の色差成分U,Vの伸長画像デー
タの画素数を復元する。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 6, expand the image data (U11, U12, U31, U31, U31) of the color difference components U and V.
U32) and (V11, V12, V31, V32) are up-sampled twice in the vertical direction on the screen. That is, the number of pixels of the expanded image data of the color difference components U and V in the vertical direction on the screen is restored.

【0140】これにより、色差成分Uの伸長画像データ
は、画素データU11,U12,U31,U32で構成
されるブロックで表されていたものが、画素データU1
1,U12,U11,U12で構成されるブロックおよ
び画素データU31,U32,U31,U32で構成さ
れるブロックで表されることになる。
As a result, the expanded image data of the color difference component U is represented by a block composed of the pixel data U11, U12, U31, and U32.
1, U12, U11, and U12, and a block composed of pixel data U31, U32, U31, and U32.

【0141】同様に、色差成分Vの伸長画像データは、
画素データV11,V12,V31,V32で構成され
るブロックで表されていたものが、画素データV11,
V12,V11,V12で構成されるブロックおよび画
素データV31,V32,V31,V32で構成される
ブロックで表されることになる。
Similarly, the expanded image data of the color difference component V is
What was represented by a block composed of the pixel data V11, V12, V31, and V32 has been changed to pixel data V11,
It is represented by a block composed of V12, V11, V12 and a block composed of pixel data V31, V32, V31, V32.

【0142】次いで、ステップST403において、ブ
ロック抽出器111uは、図6に示すように、復元器1
10uによってアップサンプリングされた色差成分Uの
伸長画像データのうち、画素データU11,U12,U
11,U12で構成されるブロックを抽出して出力す
る。また、ブロック抽出器111vは、図6に示すよう
に、復元器110vによってアップサンプリングされた
色差成分Vの伸長画像データのうち、画素データV1
1,V12,V11,V12で構成されるブロックを抽
出して出力する。
Next, in step ST403, the block extractor 111u, as shown in FIG.
Among the expanded image data of the color difference component U upsampled by 10u, the pixel data U11, U12, U
A block composed of U11 and U12 is extracted and output. As shown in FIG. 6, the block extractor 111v outputs the pixel data V1 out of the expanded image data of the color difference component V up-sampled by the decompressor 110v.
1, V12, V11, and V12 are extracted and output.

【0143】次いで、ステップST709において、色
空間変換器107は、図6に示すように、逆DCT変換
器106によって得られた輝度成分Yの伸長画像データ
(Y11,Y12,Y21,Y22)、およびブロック
抽出器111u,111vからの色差成分U,Vの伸長
画像データ(U11,U12,U11,U12),(V
11,V12,V11,V12)を、3原色成分(R,
G,B)の伸長画像データ(R11,R12,R21,
R22),(G11,G12,G21,G22),(B
11,B12,B21,B22)に変換する。
Next, in step ST709, the color space converter 107, as shown in FIG. 6, expands the image data (Y11, Y12, Y21, Y22) of the luminance component Y obtained by the inverse DCT converter 106, and Decompressed image data (U11, U12, U11, U12) of color difference components U, V from block extractors 111u, 111v, (V
11, V12, V11, V12) to the three primary color components (R,
G, B) decompressed image data (R11, R12, R21,
R22), (G11, G12, G21, G22), (B
11, B12, B21, B22).

【0144】次いで、ステップST710において、色
数削減器108は、3原色成分の伸長画像データ(R1
1,R12,R21,R22),(G11,G12,G
21,G22),(B11,B12,B21,B22)
の色数を削減する。このとき、色数削減処理の前後で画
像の見栄えができるだけ相違しないように、誤差拡散手
法などの技術を用いて処理する。携帯電話などの小型端
末の表示装置では、解像度の低い、少ない色情報の表示
しかできないことが多い。このような小型端末に搭載さ
れる画像処理装置では、色数削減器108を設ける必要
がある。
Next, in step ST710, the color number reducer 108 expands the expanded image data (R1
1, R12, R21, R22), (G11, G12, G
21, G22), (B11, B12, B21, B22)
Reduce the number of colors. At this time, processing is performed using a technique such as an error diffusion method so that the appearance of the image does not differ as much as possible before and after the color number reduction processing. A display device of a small terminal such as a mobile phone can often display only a small amount of color information with low resolution. In an image processing apparatus mounted on such a small terminal, it is necessary to provide the color number reduction unit 108.

【0145】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ(R11,
R12,R21,R22),(G11,G12,G2
1,G22),(B11,B12,B21,B22)が
色数削減器108から伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち、画面上の左上のブロックの伸長画像データ
が得られる。
Next, in step ST711, the expanded image data of the three primary color components (R11,
R12, R21, R22), (G11, G12, G2
1, G22) and (B11, B12, B21, B22) are transferred from the color number reducer 108 to the expanded image memory M2. As a result, the expanded image data of the upper left block on the screen among the expanded images composed of 2 × 2 blocks is obtained.

【0146】次いで、ステップST404において、画
面上の水平方向の1ライン分のブロックの伸長処理が終
了したかどうかが判断される。終了したと判断される場
合はステップST405に進み、終了していないと判断
される場合はステップST703に戻る。ここでは、2
×2個のブロックで構成される伸長画像のうち画面上の
右上のブロックの伸長処理がまだ終了していないため、
ステップST703に戻る。
[0146] Next, in step ST404, it is determined whether or not the decompression processing of one horizontal line block on the screen has been completed. If it is determined that the processing has been completed, the process proceeds to step ST405. If it is determined that the processing has not been completed, the process returns to step ST703. Here, 2
Since the decompression process of the upper right block on the screen in the decompressed image composed of × 2 blocks has not been completed yet,
It returns to step ST703.

【0147】(2)画面上の右上のブロックの伸長処理 そして、ステップST703において、入力手段iy1
−iy3は、解析器101からの位置情報に基づいて、
輝度成分Yの第1段階−第3段階の符号化データhya
21,(hya22,hya23),hya24(図7
参照)を圧縮画像用メモリM1から抽出してセレクタ1
03yに転送する。なお、このとき、入力手段iy1
は、第1段階の符号化データhyb21は読み飛ばし
て、符号化データhya21のみをセレクタ103yに
転送する。また、入力手段iu1−iu3,iv1−i
v3は、解析器101からの位置情報に基づいて、色差
成分U,Vの第1段階−第3段階の符号化データ[hu
21,(hu22,hu23),hu24],[hv2
1,(hv22,hv23),hv24](図7参照)
を圧縮画像用メモリM1から抽出してセレクタ103
u,103vに転送する。
(2) Decompression processing of upper right block on screen Then, in step ST703, input means iy1
−iy3 is based on the position information from the analyzer 101,
First-third-stage encoded data hya of luminance component Y
21, (hya22, hya23), hya24 (FIG. 7)
Selector) extracted from the compressed image memory M1.
03y. At this time, the input means iy1
Transfers the first-stage encoded data hyb21 to the selector 103y, skipping the first-stage encoded data hyb21. Also, input means iu1-iu3, iv1-i
v3 is the encoded data [hu of the first to third stages of the color difference components U and V based on the position information from the analyzer 101.
21, (hu22, hu23), hu24], [hv2
1, (hv22, hv23), hv24] (see FIG. 7).
Is extracted from the compressed image memory M1 and the selector 103
u, 103v.

【0148】そして、解析器101は、セレクタ103
y,103u,103vに転送された符号化データのバ
イト数だけ位置情報をインクリメントする。
Then, the analyzer 101 is provided with a selector 103
The position information is incremented by the number of bytes of the encoded data transferred to y, 103u, and 103v.

【0149】次いで、ステップST704−ST706
において、上述したのと同様にしてハフマン復号化処理
およびDCT係数データの組み合わせ処理が行われる。
これにより、図7に示すように、輝度成分Yおよび色差
成分U,Vについて、ジグザグスキャン順に配置された
2×2個のDCT係数データya21−ya24,u2
1−u24,v21−v24が得られる。そして、ステ
ップST706の判定によってステップST707に進
む。
Next, steps ST704 to ST706
In the above, Huffman decoding processing and DCT coefficient data combination processing are performed in the same manner as described above.
Thereby, as shown in FIG. 7, for the luminance component Y and the color difference components U and V, 2 × 2 pieces of DCT coefficient data ya21-ya24, u2 arranged in zigzag scan order.
1-u24, v21-v24 are obtained. Then, the process proceeds to step ST707 according to the determination in step ST706.

【0150】次いで、ステップST707,ST708
において、上述したのと同様に、逆量子化および逆DC
T変換が行われる。これにより、図8に示すように、輝
度成分Yおよび色差成分U,Vの伸長画像データ(Y1
3,Y14,Y23,Y24),(U13,U14,U
33,U34),(V13,V14,V33,V34)
が得られる。
Next, steps ST707 and ST708
In the same manner as described above, inverse quantization and inverse DC
T conversion is performed. Thereby, as shown in FIG. 8, the expanded image data (Y1) of the luminance component Y and the color difference components U and V
3, Y14, Y23, Y24), (U13, U14, U
33, U34), (V13, V14, V33, V34)
Is obtained.

【0151】次いで、ステップST402において、復
元器110u,110vは、図8に示すように、色差成
分U,Vの伸長画像データ(U13,U14,U33,
U34),(V13,V14,V33,V34)を画面
上の垂直方向に2倍にアップサンプリングする。これに
より、色差成分Uの伸長画像データは、画素データU1
3,U14,U13,U14で構成されるブロックおよ
び画素データU33,U34,U33,U34で構成さ
れるブロックで表される。同様に、色差成分Vの伸長画
像データは、画素データV13,V14,V13,V1
4で構成されるブロックおよび画素データV33,V3
4,V33,V34で構成されるブロックで表される。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 8, decompressed image data (U13, U14, U33,
U34) and (V13, V14, V33, V34) are up-sampled twice in the vertical direction on the screen. As a result, the expanded image data of the color difference component U becomes the pixel data U1
3, U14, U13, and U14, and a block composed of pixel data U33, U34, U33, and U34. Similarly, the expanded image data of the color difference component V includes pixel data V13, V14, V13, and V1.
4 and pixel data V33, V3
4, V33, and V34.

【0152】次いで、ステップST403において、ブ
ロック抽出器111uは、図8に示すように、復元器1
10uによってアップサンプリングされた色差成分Uの
伸長画像データのうち、画素データU13,U14,U
13,U14で構成されるブロックを抽出して出力す
る。また、ブロック抽出器111vは、図8に示すよう
に、復元器110vによってアップサンプリングされた
色差成分Vの伸長画像データのうち、画素データV1
3,V14,V13,V14で構成されるブロックを抽
出して出力する。
Next, in step ST403, the block extractor 111u, as shown in FIG.
Among the expanded image data of the color difference component U upsampled by 10u, the pixel data U13, U14, U
13 and U14 are extracted and output. As shown in FIG. 8, the block extractor 111v outputs the pixel data V1 out of the expanded image data of the color difference component V upsampled by the decompressor 110v.
3, V14, V13, and V14 are extracted and output.

【0153】次いで、ステップST709において、色
空間変換器107は、逆DCT変換器106によって得
られた輝度成分Yの伸長画像データ(Y13,Y14,
Y23,Y24)、およびブロック抽出器111u,1
11vからの色差成分U,Vの伸長画像データ(U1
3,U14,U13,U14),(V13,V14,V
13,V14)を、3原色成分の伸長画像データ(R1
3,R14,R23,R24),(G13,G14,G
23,G24),(B13,B14,B23,B24)
に変換する。
Next, in step ST709, the color space converter 107 expands the image data (Y13, Y14, Y13) of the luminance component Y obtained by the inverse DCT converter 106.
Y23, Y24), and the block extractor 111u, 1
11v, the expanded image data of the color difference components U and V (U1
3, U14, U13, U14), (V13, V14, V
13, V14) with the expanded image data (R1
3, R14, R23, R24), (G13, G14, G
23, G24), (B13, B14, B23, B24)
Convert to

【0154】次いで、ステップST710において、色
数削減器108は、3原色成分の伸長画像データ(R1
3,R14,R23,R24),(G13,G14,G
23,G24),(B13,B14,B23,B24)
の色数を削減する。
Next, in step ST710, the color number reducer 108 expands the expanded image data (R1
3, R14, R23, R24), (G13, G14, G
23, G24), (B13, B14, B23, B24)
Reduce the number of colors.

【0155】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ(R13,
R14,R23,R24),(G13,G14,G2
3,G24),(B13,B14,B23,B24)が
色数削減器108から伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち、画面上の右上のブロックの伸長画像データ
が得られる。
Next, in step ST711, the decompressed image data (R13,
R14, R23, R24), (G13, G14, G2
3, G24) and (B13, B14, B23, B24) are transferred from the color number reducer 108 to the expanded image memory M2. As a result, of the expanded image composed of 2 × 2 blocks, expanded image data of the upper right block on the screen is obtained.

【0156】次いで、ステップST404において、画
面上の水平方向の1ライン分のブロックの伸長処理が終
了したかどうかが判断される。ここでは、2×2個のブ
ロックで構成される伸長画像のうち画面上の左上および
右上のブロックの伸長処理が終了したため、ステップS
T405に進む。
Next, in step ST404, it is determined whether or not the expansion processing of one horizontal line block on the screen is completed. Here, since the decompression processing of the upper left and upper right blocks on the screen of the decompressed image composed of 2 × 2 blocks has been completed, step S
Proceed to T405.

【0157】次いで、ステップST405において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについての伸長処理が終了したか
否かの判断が行われる。終了したと判断される場合には
ステップST712に進む。終了していないと判断され
る場合にはステップST406に進む。ここでは、画面
上の左下および右下のブロックの伸長処理が終了してい
ないため(図2参照)、ステップST406に進む。
Next, in step ST405,
It is determined whether or not decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen). If it is determined that the process has been completed, the process proceeds to step ST712. If it is determined that the processing has not been completed, the process proceeds to step ST406. Here, since the decompression processing of the lower left and lower right blocks on the screen has not been completed (see FIG. 2), the process proceeds to step ST406.

【0158】次いで、ステップST406において、水
平開始制御器114は、画面上の水平方向の1ライン分
のブロックの伸長処理が終了したことを示す制御信号C
Tを解析器101およびブロック抽出器111u,11
1vに出力する。これに応答して、解析器101は、開
始位置用メモリM3に記憶された位置の情報[色差成分
U,Vの各段階の符号化データhu11,(hu12,
hu13),hu14,hv11,(hv12,hv1
3),hv14の位置情報、輝度成分Yの第1段階の符
号化データ(hya11,hyb11)の位置情報]を
読み出して、対応する入力手段iy1,iu1−iu
3,iv1−iv3に出力する。また、制御信号CTに
応答して、ブロック抽出器111u,111vは、抽出
する対象となるブロックを切り替える。そして、ステッ
プST703に戻る。
[0158] Next, in step ST406, the horizontal start controller 114 controls the control signal C indicating that the decompression processing of one horizontal line block on the screen is completed.
Let T be an analyzer 101 and block extractors 111u, 11
Output to 1v. In response to this, the analyzer 101 determines the position information stored in the start position memory M3 [the encoded data hu11, (hu12, hu12, hu12,
hu13), hu14, hv11, (hv12, hv1)
3), the position information of hv14, the position information of the encoded data (hya11, hyb11) of the first stage of the luminance component Y], and the corresponding input means iy1, iu1-iu
3, iv1-iv3. Further, in response to the control signal CT, the block extractors 111u and 111v switch blocks to be extracted. Then, the process returns to step ST703.

【0159】(3)画面上の左下のブロックの伸長処理 次いで、ステップST703において、入力手段iy1
−iy3は、解析器101からの位置情報に基づいて、
輝度成分Yの第1段階−第3段階の符号化データhyb
11,(hyb12,hyb13),hyb14(図9
参照)を圧縮画像用メモリM1から抽出してセレクタ1
03yに転送する。なお、このとき、入力手段iy1
は、第1段階の符号化データhya11は読み飛ばし
て、符号化データhyb11のみをセレクタ103yに
転送する。また、入力手段iu1−iu3,iv1−i
v3は、解析器101からの位置情報に基づいて、色差
成分U,Vの第1段階−第3段階の符号化データ[hu
11,(hu12,hu13),hu14],[hv1
1,(hv12,hv13),hv14](図9参照)
を圧縮画像用メモリM1から抽出してセレクタ103
u,103vに転送する。そして、解析器101は、セ
レクタ103y,103u,103vに転送された符号
化データのバイト数だけ位置情報をインクリメントす
る。
(3) Decompression processing of lower left block on screen Next, in step ST703, input means iy1
−iy3 is based on the position information from the analyzer 101,
First stage to third stage encoded data hyb of luminance component Y
11, (hyb12, hyb13), hyb14 (FIG. 9)
Selector) extracted from the compressed image memory M1.
03y. At this time, the input means iy1
Transfers the first-stage encoded data hya11 to the selector 103y, skipping the first-stage encoded data hya11. Also, input means iu1-iu3, iv1-i
v3 is the encoded data [hu of the first to third stages of the color difference components U and V based on the position information from the analyzer 101.
11, (hu12, hu13), hu14], [hv1
1, (hv12, hv13), hv14] (see FIG. 9).
Is extracted from the compressed image memory M1 and the selector 103
u, 103v. Then, the analyzer 101 increments the position information by the number of bytes of the encoded data transferred to the selectors 103y, 103u, and 103v.

【0160】次いで、ステップST704−ST706
において、上述したのと同様に、ハフマン復号化処理お
よびDCT係数データの組み合わせ処理が行われる。こ
れにより、図9に示すように、輝度成分Yおよび色差成
分U,Vについて、ジグザグスキャン順に配置された2
×2個のDCT係数データyb11−yb14,u11
−u14,v11−v14が得られる。そして、ステッ
プST706の判定によってステップST707に進
む。
Next, steps ST704 to ST706
In the same manner as described above, Huffman decoding processing and DCT coefficient data combination processing are performed. Thereby, as shown in FIG. 9, the luminance component Y and the color difference components U and V are arranged in a zigzag scan order.
× 2 DCT coefficient data yb11−yb14, u11
-U14, v11-v14 are obtained. Then, the process proceeds to step ST707 according to the determination in step ST706.

【0161】次いで、ステップST707,ST708
において、上述したのと同様に、逆量子化および逆DC
T変換が行われる。これにより、図10に示すように、
輝度成分Yおよび色差成分U,Vの伸長画像データ(Y
31,Y32,Y41,Y42),(U11,U12,
U31,U32),(V11,V12,V31,V3
2)が得られる。
Next, steps ST707 and ST708
In the same manner as described above, inverse quantization and inverse DC
T conversion is performed. Thereby, as shown in FIG.
Decompressed image data of the luminance component Y and the color difference components U and V (Y
31, Y32, Y41, Y42), (U11, U12,
U31, U32), (V11, V12, V31, V3
2) is obtained.

【0162】次いで、ステップST402において、復
元器110u,110vは、図10に示すように、色差
成分U,Vの伸長画像データ(U11,U12,U3
1,U32),(V11,V12,V31,V32)を
画面上の垂直方向に2倍にアップサンプリングする。こ
れにより、色差成分Uの伸長画像データは、画素データ
U11,U12,U11,U12で構成されるブロック
および画素データU31,U32,U31,U32で構
成されるブロックで表される。同様に、色差成分Vの伸
長画像データは、画素データV11,V12,V11,
V12で構成されるブロックおよび画素データV31,
V32,V31,V32で構成されるブロックで表され
る。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 10, expand the image data (U11, U12, U3) of the color difference components U and V.
1, U32) and (V11, V12, V31, V32) are up-sampled twice in the vertical direction on the screen. Thus, the expanded image data of the color difference component U is represented by a block composed of the pixel data U11, U12, U11, U12 and a block composed of the pixel data U31, U32, U31, U32. Similarly, the expanded image data of the color difference component V includes pixel data V11, V12, V11,
V12 and the pixel data V31,
It is represented by a block composed of V32, V31, and V32.

【0163】次いで、ステップST403において、ブ
ロック抽出器111uは、図10に示すように、復元器
110uによってアップサンプリングされた色差成分U
の伸長画像データのうち、画素データU31,U32,
U31,U32で構成されるブロックを抽出して出力す
る。また、ブロック抽出器111vは、図10に示すよ
うに、復元器110vによってアップサンプリングされ
た色差成分Vの伸長画像データのうち、画素データV3
1,V32,V31,V32で構成されるブロックを抽
出して出力する。
Next, in step ST403, the block extractor 111u outputs the chrominance component U upsampled by the reconstructor 110u as shown in FIG.
Pixel data U31, U32,
A block composed of U31 and U32 is extracted and output. Further, as shown in FIG. 10, the block extractor 111v outputs the pixel data V3 out of the expanded image data of the color difference component V upsampled by the decompressor 110v.
1, V32, V31, and V32 are extracted and output.

【0164】次いで、ステップST709において、色
空間変換器107は、逆DCT変換器106によって得
られた輝度成分Yの伸長画像データ(Y31,Y32,
Y41,Y42)、およびブロック抽出器111u,1
11vからの色差成分U,Vの伸長画像データ(U3
1,U32,U31,U32),(V31,V32,V
31,V32)を、3原色成分の伸長画像データ(R3
1,R32,R41,R42),(G31,G32,G
41,G42),(B31,B32,B41,B42)
に変換する。
Next, in step ST 709, the color space converter 107 expands the expanded image data (Y 31, Y 32, Y 32) of the luminance component Y obtained by the inverse DCT converter 106.
Y41, Y42), and the block extractor 111u, 1
11v, the expanded image data of the color difference components U and V (U3
1, U32, U31, U32), (V31, V32, V
31, V32) with the expanded image data (R3
1, R32, R41, R42), (G31, G32, G
41, G42), (B31, B32, B41, B42)
Convert to

【0165】次いで、ステップST710において、色
数削減器108は、3原色成分の伸長画像データ(R3
1,R32,R41,R42),(G31,G32,G
41,G42),(B31,B32,B41,B42)
の色数を削減する。
Next, in step ST710, the number-of-colors reducer 108 expands the expanded image data (R3
1, R32, R41, R42), (G31, G32, G
41, G42), (B31, B32, B41, B42)
Reduce the number of colors.

【0166】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ(R31,
R32,R41,R42),(G31,G32,G4
1,G42),(B31,B32,B41,B42)が
色数削減器108から伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち、画面上の左下のブロックの伸長画像データ
が得られる。
Next, in step ST711, the expanded image data (R31,
R32, R41, R42), (G31, G32, G4
1, G42) and (B31, B32, B41, B42) are transferred from the color number reducer 108 to the expanded image memory M2. As a result, of the decompressed image composed of 2 × 2 blocks, the decompressed image data of the lower left block on the screen is obtained.

【0167】次いで、ステップST404において、画
面上の水平方向の1ライン分のブロックの伸長処理が終
了したかどうかが判断される。ここでは、2×2個のブ
ロックで構成される伸長画像のうち画面上の右下のブロ
ックの伸長処理がまだ終了していないため、ステップS
T703に戻る。
Next, in step ST404, it is determined whether or not the extension processing of one horizontal line block on the screen is completed. Here, since the decompression processing of the lower right block on the screen among the decompressed images composed of 2 × 2 blocks has not been completed, step S
It returns to T703.

【0168】(4)画面上の右下のブロックの伸長処理 そして、ステップST703において、入力手段iy1
−iy3は、解析器101からの位置情報に基づいて、
輝度成分Yの第1段階−第3段階の符号化データhyb
21,(hyb22,hyb23),hyb24(図1
1参照)を圧縮画像用メモリM1から抽出してセレクタ
103yに転送する。なお、このとき、入力手段iy1
は、第1段階の符号化データhya21は読み飛ばし
て、符号化データhyb21のみをセレクタ103yに
転送する。また、入力手段iu1−iu3,iv1−i
v3は、解析器101からの位置情報に基づいて、色差
成分U,Vの第1段階−第3段階の符号化データ[hu
21,(hu22,hu23),hu24],[hv2
1,(hv22,hv23),hv24](図11参
照)を圧縮画像用メモリM1から抽出してセレクタ10
3u,103vに転送する。そして、解析器101は、
セレクタ103y,103u,103vに転送された符
号化データのバイト数だけ位置情報をインクリメントす
る。
(4) Decompression processing of lower right block on screen Then, in step ST703, input means iy1
−iy3 is based on the position information from the analyzer 101,
First stage to third stage encoded data hyb of luminance component Y
21, (hyb22, hyb23), hyb24 (FIG. 1)
1) is extracted from the compressed image memory M1 and transferred to the selector 103y. At this time, the input means iy1
Transfers the first-stage encoded data hya21 to the selector 103y, skipping the first-stage encoded data hya21. Also, input means iu1-iu3, iv1-i
v3 is the encoded data [hu of the first to third stages of the color difference components U and V based on the position information from the analyzer 101.
21, (hu22, hu23), hu24], [hv2
1, (hv22, hv23), hv24] (see FIG. 11) from the compressed image memory M1 and extract the selector 10
3u, 103v. Then, the analyzer 101
The position information is incremented by the number of bytes of the encoded data transferred to the selectors 103y, 103u, and 103v.

【0169】次いで、ステップST704−ST706
において、上述したのと同様にしてハフマン復号化処理
およびDCT係数データの組み合わせ処理が行われる。
これにより、図11に示すように、輝度成分Yおよび色
差成分U,Vについて、ジグザグスキャン順に配置され
た2×2個のDCT係数データyb21−yb24,u
21−u24,v21−v24が得られる。そして、ス
テップST706の判定によってステップST707に
進む。
Next, steps ST704 to ST706
In the above, Huffman decoding processing and DCT coefficient data combination processing are performed in the same manner as described above.
Thereby, as shown in FIG. 11, 2 × 2 DCT coefficient data yb21-yb24, u arranged in zigzag scan order for the luminance component Y and the color difference components U, V
21-u24 and v21-v24 are obtained. Then, the process proceeds to step ST707 according to the determination in step ST706.

【0170】次いで、ステップST707,ST708
において、上述したのと同様に、逆量子化および逆DC
T変換が行われる。これにより、図12に示すように、
輝度成分Yおよび色差成分U,Vの伸長画像データ(Y
33,Y34,Y43,Y44),(U13,U14,
U33,U34),(V13,V14,V33,V3
4)が得られる。
Next, steps ST707 and ST708
In the same manner as described above, inverse quantization and inverse DC
T conversion is performed. Thereby, as shown in FIG.
Decompressed image data of the luminance component Y and the color difference components U and V (Y
33, Y34, Y43, Y44), (U13, U14,
U33, U34), (V13, V14, V33, V3
4) is obtained.

【0171】次いで、ステップST402において、復
元器110u,110vは、図12に示すように、色差
成分U,Vの伸長画像データ(U13,U14,U3
3,U34),(V13,V14,V33,V34)を
画面上の垂直方向に2倍にアップサンプリングする。こ
れにより、色差成分Uの伸長画像データは、画素データ
U13,U14,U13,U14で構成されるブロック
および画素データU33,U34,U33,U34で構
成されるブロックで表される。同様に、色差成分Vの伸
長画像データは、画素データV13,V14,V13,
V14で構成されるブロックおよび画素データV33,
V34,V33,V34で構成されるブロックで表され
る。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 12, expand the image data (U13, U14, U3) of the color difference components U and V.
3, U34) and (V13, V14, V33, V34) are upsampled twice in the vertical direction on the screen. Thus, the expanded image data of the color difference component U is represented by a block including the pixel data U13, U14, U13, and U14 and a block including the pixel data U33, U34, U33, and U34. Similarly, the expanded image data of the color difference component V includes pixel data V13, V14, V13,
V14 and the pixel data V33,
It is represented by a block composed of V34, V33, and V34.

【0172】次いで、ステップST403において、ブ
ロック抽出器111uは、図12に示すように、復元器
110uによってアップサンプリングされた色差成分U
の伸長画像データのうち、画素データU33,U34,
U33,U34で構成されるブロックを抽出して出力す
る。また、ブロック抽出器111vは、図12に示すよ
うに、復元器110vによってアップサンプリングされ
た色差成分Vの伸長画像データのうち、画素データV3
3,V34,V33,V34で構成されるブロックを抽
出して出力する。
Next, in step ST403, as shown in FIG. 12, the block extractor 111u performs the chrominance component U upsampled by the reconstructor 110u.
Pixel data U33, U34,
The block composed of U33 and U34 is extracted and output. As shown in FIG. 12, the block extractor 111v outputs the pixel data V3 of the expanded image data of the color difference component V upsampled by the decompressor 110v.
3, V34, V33, and V34 are extracted and output.

【0173】次いで、ステップST709において、色
空間変換器107は、逆DCT変換器106によって得
られた輝度成分Yの伸長画像データ(Y33,Y34,
Y43,Y44)、およびブロック抽出器111u,1
11vからの色差成分U,Vの伸長画像データ(U3
3,U34,U33,U34),(V33,V34,V
33,V34)を、3原色成分の伸長画像データ(R3
3,R34,R43,R44),(G33,G34,G
43,G44),(B33,B34,B43,B44)
に変換する。
Then, in step ST709, the color space converter 107 expands the expanded image data (Y33, Y34, Y34) of the luminance component Y obtained by the inverse DCT converter 106.
Y43, Y44), and the block extractor 111u, 1
11v, the expanded image data of the color difference components U and V (U3
3, U34, U33, U34), (V33, V34, V
33, V34) with the expanded image data (R3
3, R34, R43, R44), (G33, G34, G
43, G44), (B33, B34, B43, B44)
Convert to

【0174】次いで、ステップST710において、色
数削減器108は、3原色成分の伸長画像データ(R3
3,R34,R43,R44),(G33,G34,G
43,G44),(B33,B34,B43,B44)
の色数を削減する。
Next, in step ST710, the color number reducer 108 expands the expanded image data (R3
3, R34, R43, R44), (G33, G34, G
43, G44), (B33, B34, B43, B44)
Reduce the number of colors.

【0175】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ(R33,
R34,R43,R44),(G33,G34,G4
3,G44),(B33,B34,B43,B44)が
色数削減器108から伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち、画面上の右下のブロックの伸長画像データ
が得られる。
Next, in step ST711, the expanded image data of the three primary color components (R33,
R34, R43, R44), (G33, G34, G4
3, G44) and (B33, B34, B43, B44) are transferred from the color number reducer 108 to the expanded image memory M2. As a result, of the decompressed image composed of 2 × 2 blocks, decompressed image data of the lower right block on the screen is obtained.

【0176】次いで、ステップST404において、画
面上の水平方向の1ライン分のブロックの伸長処理が終
了したかどうかが判断される。ここでは、2×2個のブ
ロックで構成される伸長画像のうち画面上の左下および
右下のブロックの伸長処理が終了したため、ステップS
T405に進む。
Next, in step ST404, it is determined whether or not the extension processing of one horizontal line block on the screen is completed. Here, since the decompression processing of the lower left and lower right blocks on the screen in the decompressed image composed of 2 × 2 blocks has been completed, step S
Proceed to T405.

【0177】次いで、ステップST405において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについての伸長処理が終了したか
否かの判断が行われる。ここでは、(1MCU)×(画
面上の水平方向の1ライン)に含まれるすべてのブロッ
クの伸長処理が終了したため(図2参照)、ステップS
T712に進む。
Next, in step ST405,
It is determined whether or not decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen). Here, since the decompression processing of all blocks included in (1 MCU) × (one line in the horizontal direction on the screen) has been completed (see FIG. 2), step S
Proceed to T712.

【0178】次いで、ステップST712において、伸
長画像の1画面分のすべてのブロック(ここでは、2×
2個)について伸長処理が終了したか否かが判定され
る。すべてのブロックについて伸長処理が終了した場合
には、処理を終了する。そうでない場合には、ステップ
ST401に戻る。ここでは、すべてのブロックの伸長
処理が終了したため、処理を終了する。
Next, in step ST712, all the blocks (here, 2 ×
It is determined whether or not the decompression process has been completed for two (2). When the decompression processing is completed for all the blocks, the processing ends. Otherwise, the process returns to step ST401. Here, since the decompression processing of all blocks has been completed, the processing is terminated.

【0179】以上のようにして、プログレッシブ符号化
された圧縮画像データの伸長画像データが得られる。こ
の伸長画像データを表示装置に表示する場合には、画面
上の左上のブロック、右上のブロック、左下のブロッ
ク、右下のブロックの順に、2×2個のブロックで構成
される伸長画像データが表示される。
As described above, the decompressed image data of the progressively encoded compressed image data is obtained. When displaying the decompressed image data on the display device, the decompressed image data composed of 2 × 2 blocks in the order of the upper left block, the upper right block, the lower left block, and the lower right block is displayed on the screen. Is displayed.

【0180】なお、ここでは、プログレッシブ符号化さ
れた圧縮画像データの伸長処理について説明した。シー
ケンシャル符号化された圧縮画像データを伸長する場合
には、入力手段iy1−iy3,iu1−iu3,iv
1−iv3を介さずに、圧縮画像用メモリM1から直接
ハフマン復号化器102へ符号化データを順次供給す
る。そして、ハフマン復号化、逆量子化、逆DCT変
換、アップサンプリング、色空間変換、色数削減の各処
理を行う。これにより、シーケンシャル符号化された圧
縮画像データの伸長画像データが得られる。
Here, the expansion processing of the progressively encoded compressed image data has been described. When decompressing the sequentially encoded compressed image data, input means iy1-iy3, iu1-iu3, iv
The encoded data is sequentially supplied to the Huffman decoder 102 directly from the compressed image memory M1 without going through 1-iv3. Then, Huffman decoding, inverse quantization, inverse DCT transform, upsampling, color space conversion, and color number reduction processing are performed. As a result, decompressed image data of the sequentially encoded compressed image data is obtained.

【0181】<効果>以上のように、この発明の第1の
実施形態による画像処理装置は、開始位置用メモリM3
と、水平開始制御器114と、復元器110u,110
vと、ブロック抽出器111u,111vとを設けたた
め、プログレッシブ符号化された圧縮画像データの色差
成分U,Vが画面上の垂直方向にダウンサンプリングさ
れている場合であっても、当該圧縮画像データをブロッ
クごとに伸長することができる。
<Effect> As described above, the image processing apparatus according to the first embodiment of the present invention provides the start position memory M3
, Horizontal start controller 114, and decompressors 110u and 110
v and the block extractors 111u and 111v, even if the color difference components U and V of the progressively encoded compressed image data are down-sampled in the vertical direction on the screen, the compressed image data Can be expanded block by block.

【0182】また、特別のバッファメモリを設けること
なく上記の効果を得ることができるため、必要となるメ
モリの容量を小さくすることができる。
Since the above effects can be obtained without providing a special buffer memory, the required memory capacity can be reduced.

【0183】(第2の実施形態) <全体構成>図13は、この発明の第2の実施形態によ
る画像処理装置の全体構成を示すブロック図である。図
13を参照して、この画像処理装置は、図1に示した画
像処理装置における開始位置用メモリM3、水平開始制
御器114、およびブロック抽出器111u,111v
に代えて、セレクタ112と、バッファメモリM5とを
備える。そして、その他の構成を図1に示した画像処理
装置と同じくする。
(Second Embodiment) <Overall Configuration> FIG. 13 is a block diagram showing the overall configuration of an image processing apparatus according to a second embodiment of the present invention. Referring to FIG. 13, this image processing apparatus includes a start position memory M3, a horizontal start controller 114, and block extractors 111u and 111v in the image processing apparatus shown in FIG.
And a selector 112 and a buffer memory M5. Other configurations are the same as those of the image processing apparatus shown in FIG.

【0184】セレクタ112は、ハフマン復号化器10
2からの輝度成分YのDCT係数データを受け、受けた
DCT係数データをバッファメモリM5または組み合わ
せ器104yに選択的に転送する。具体的には、セレク
タ112は、(1MCU)×(画面上の水平方向の1ラ
イン)に含まれるブロックの輝度成分YのDCT係数デ
ータのうち、最終ライン(画面上の垂直方向の一番下の
ライン)上のブロックを除くブロックに対する第2段階
および第3段階のDCT係数データをバッファメモリM
5に転送する。一方、セレクタ112は、(1MCU)
×(画面上の水平方向の1ライン)に含まれるブロック
の輝度成分YのDCT係数データのうち、最終ライン上
のブロックに対する各段階のDCT係数データおよび最
終ライン上のブロックを除くブロックに対する第1段階
のDCT係数データとを組み合わせ器104yに転送す
る。
The selector 112 selects the Huffman decoder 10
2, and selectively transfers the received DCT coefficient data to the buffer memory M5 or the combiner 104y. Specifically, the selector 112 selects the last line (the bottom line in the vertical direction on the screen) of the DCT coefficient data of the luminance component Y of the block included in (1 MCU) × (one line in the horizontal direction on the screen). The DCT coefficient data of the second and third stages for blocks other than the block on the line
Transfer to 5. On the other hand, the selector 112 is (1MCU)
× (one horizontal line on the screen) of the DCT coefficient data of the luminance component Y of the block included in the DCT coefficient data of each stage with respect to the block on the last line and the first except for the block on the final line. The DCT coefficient data of the stage is transferred to the combiner 104y.

【0185】バッファメモリM5は、セレクタ112か
ら転送される輝度成分YのDCT係数データを記憶す
る。
The buffer memory M5 stores the DCT coefficient data of the luminance component Y transferred from the selector 112.

【0186】<伸長処理>次に、図13に示した画像処
理装置による伸長処理について説明する。なお、圧縮画
像用メモリM1には、図3に示したような圧縮画像デー
タ(プログレッシブ符号化された圧縮画像データ)が記
憶されているものとする。
<Decompression Processing> Next, the decompression processing by the image processing apparatus shown in FIG. 13 will be described. It is assumed that the compressed image data M1 (progressively encoded compressed image data) as shown in FIG. 3 is stored in the compressed image memory M1.

【0187】図14は、図13に示した画像処理装置に
よる伸長処理の手順を示すフローチャートである。以
下、図14および図13を参照しつつ説明する。
FIG. 14 is a flowchart showing the procedure of the decompression process by the image processing apparatus shown in FIG. Hereinafter, description will be made with reference to FIG. 14 and FIG.

【0188】まず、ステップST701、ST702に
おいて、第1の実施形態(図4)において説明したのと
同様にして、ヘッダの解析、テーブルの獲得、各段階の
符号化データの位置の検出の処理が行われる。
First, in steps ST701 and ST702, in the same manner as described in the first embodiment (FIG. 4), processing of header analysis, acquisition of a table, and detection of the position of encoded data at each stage are performed. Done.

【0189】次いで、ステップST1401において、
入力手段iy2,iy3は、解析器101からの位置情
報に基づいて、輝度成分Yの第2段階および第3段階の
符号化データ(hya12,hya13),hya14
(図15参照)を圧縮画像用メモリM1から抽出してセ
レクタ103yに転送する。そして、解析器101は、
セレクタ103yに転送された符号化データのバイト数
だけ位置情報をインクリメントする。これにより、入力
手段iy2,iy3に与えられる位置情報は、次のブロ
ックの各段階の符号化データの先頭が圧縮画像データの
先頭から何バイト目であるかを示すことになる。
Next, in step ST1401,
The input means iy2 and iy3, based on the position information from the analyzer 101, encode the encoded data (hya12, hya13) and hya14 of the second and third stages of the luminance component Y.
(See FIG. 15) is extracted from the compressed image memory M1 and transferred to the selector 103y. Then, the analyzer 101
The position information is incremented by the number of bytes of the encoded data transferred to the selector 103y. As a result, the position information given to the input means iy2 and iy3 indicates the number of bytes from the head of the compressed image data at which the head of the encoded data of each stage of the next block is.

【0190】次いで、ステップST1402において、
セレクタ103yは、入力手段iy2,iy3から供給
される輝度成分Yの第2段階および第3段階の符号化デ
ータ(hya12,hya13),hya14(図15
参照)をハフマン復号化器102に供給する。ハフマン
復号化器102は、これらの符号化データをハフマン復
号化する。これにより、輝度成分Yの第2段階および第
3段階のDCT係数データya12−ya14が得られ
る。
Next, in step ST1402,
The selector 103y outputs the encoded data (hya12, hya13), hya14 (FIG. 15) of the second and third stages of the luminance component Y supplied from the input means iy2, iy3.
) To the Huffman decoder 102. The Huffman decoder 102 performs Huffman decoding on the encoded data. Thereby, the DCT coefficient data ya12-ya14 of the second and third stages of the luminance component Y is obtained.

【0191】次いで、ステップST1403において、
図15に示すように、ハフマン復号化器102によって
得られた輝度成分Yの第2段階および第3段階のDCT
係数データya12−ya14がバッファメモリM5に
格納される。
Next, in step ST1403,
As shown in FIG. 15, the DCT of the second and third stages of the luminance component Y obtained by the Huffman decoder 102
The coefficient data ya12-ya14 is stored in the buffer memory M5.

【0192】次いで、ステップST1404において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるブロックの輝度成分YのDCT係数データのうち、
最終ライン上のブロックを除いたすべてのブロックに対
する第2段階および第3段階のDCT係数データがバッ
ファメモリM5に格納されたかどうかが判断される。格
納されたと判断されるときは、ステップST1405に
進む。一方、格納されていないと判断されるときは、ス
テップST1401に戻る。ここでは、画面上の右上の
ブロックに対する第2段階および第3段階のDCT係数
データya22−ya24がまだバッファメモリM5に
格納されていないため(図2参照)、ステップST14
01に戻る。
Next, in step ST1404,
Of the DCT coefficient data of the luminance component Y of the block included in (1 MCU) × (one line in the horizontal direction on the screen)
It is determined whether the DCT coefficient data of the second and third stages for all blocks except for the block on the last line has been stored in the buffer memory M5. If it is determined that it has been stored, the process proceeds to step ST1405. On the other hand, when it is determined that it is not stored, the process returns to step ST1401. Here, since the DCT coefficient data ya22-ya24 of the second and third stages for the upper right block on the screen has not been stored in the buffer memory M5 yet (see FIG. 2), step ST14 is performed.
Return to 01.

【0193】そして、ステップST1401−ST14
03において、上述したのと同様の処理が行われ、図1
5に示すように、ハフマン復号化器102によって得ら
れた輝度成分Yの第2段階および第3段階のDCT係数
データya22−ya24がバッファメモリM5に格納
される。
Steps ST1401-ST14
03, the same processing as described above is performed, and FIG.
As shown in FIG. 5, the DCT coefficient data ya22 to ya24 of the second and third stages of the luminance component Y obtained by the Huffman decoder 102 are stored in the buffer memory M5.

【0194】次いで、ステップST1404において、
上述したような判断が行われる。ここでは、2×2個の
ブロックで構成される画面上の左上および右上のブロッ
クに対する第2段階および第3段階のDCT係数データ
がバッファメモリM5に格納されたため、ステップST
1405に進む。
Next, in step ST1404,
The determination as described above is performed. Here, since the DCT coefficient data of the second and third stages for the upper left and upper right blocks on the screen composed of 2 × 2 blocks has been stored in the buffer memory M5, step ST
Proceed to 1405.

【0195】次いでステップST1405において、入
力手段iy1−iy3は、解析器101からの位置情報
に基づいて、輝度成分Yの第1段階−第3段階の符号化
データ(hya11,hyb11),(hyb12,h
yb13),hyb14(図16参照)を圧縮画像用メ
モリM1から抽出してセレクタ103yに転送する。ま
た、入力手段iu1−iu3,iv1−iv3は、解析
器101からの位置情報に基づいて、色差成分U,Vの
第1段階から第3段階の符号化データ[hu11,(h
u12,hu13),hu14],[hv11,(hv
12,hv13),hv14](図16参照)を圧縮画
像用メモリM1から抽出してセレクタ103u,103
vに転送する。そして、解析器101は、セレクタ10
3y,103u,103vに転送された符号化データの
バイト数だけ位置情報をインクリメントする。
Next, in step ST1405, the input means iy1 to iy3, based on the position information from the analyzer 101, encode the encoded data (hya11, hyb11), (hyb12, h
yb13) and hyb14 (see FIG. 16) are extracted from the compressed image memory M1 and transferred to the selector 103y. The input means iu1-iu3, iv1-iv3, based on the position information from the analyzer 101, encodes the chrominance components U, V in the first to third stages of the encoded data [hu11, (h
u12, hu13), hu14], [hv11, (hv
12, hv13), hv14] (see FIG. 16) from the compressed image memory M1 and extract the selectors 103u, 103
v. Then, the analyzer 101 selects the selector 10
The position information is incremented by the number of bytes of the encoded data transferred to 3y, 103u, and 103v.

【0196】次いで、ステップST1406において、
セレクタ103yは、入力手段iy1−iy3から供給
される輝度成分Yの第1段階−第3段階の符号化データ
(hya11,hyb11),(hyb12,hyb1
3),hyb14をハフマン復号化器102に供給す
る。ハフマン復号化器102は、これらの符号化データ
をハフマン復号化する。これにより、輝度成分YのDC
T係数データya11,yb11−yb14が得られ
る。そして、セレクタ112は、ハフマン復号化器10
2によって得られた輝度成分YのDCT係数データya
11,yb11−yb14を組み合わせ器104yに転
送する。
Next, in step ST1406,
The selector 103y outputs the encoded data (hya11, hyb11), (hyb12, hyb1) of the first to third stages of the luminance component Y supplied from the input means iy1 to iy3.
3), supply the hyb 14 to the Huffman decoder 102. The Huffman decoder 102 performs Huffman decoding on the encoded data. Thereby, the DC of the luminance component Y
The T coefficient data ya11, yb11-yb14 are obtained. Then, the selector 112 selects the Huffman decoder 10
2, the DCT coefficient data ya of the luminance component Y obtained by
11, yb11-yb14 are transferred to the combiner 104y.

【0197】また、セレクタ103u,103vは、入
力手段iu1−iu3,iv1−iv3から供給される
色差成分U,Vの第1段階−第3段階の符号化データ
[hu11,(hu12,hu13),hu14],
[hv11,(hv12,hv13),hv14](図
16参照)をハフマン復号化器102に供給する。ハフ
マン復号化器102は、これらの符号化データをハフマ
ン復号化する。これにより、色差成分U,VのDCT係
数データu11−u14,v11−v14が得られる。
The selectors 103u and 103v provide first-third-stage encoded data [hu11, (hu12, hu13), of the first-third-stage color difference components U and V supplied from the input means iu1-iu3 and iv1-iv3. hu14],
[Hv11, (hv12, hv13), hv14] (see FIG. 16) are supplied to the Huffman decoder 102. The Huffman decoder 102 performs Huffman decoding on the encoded data. As a result, DCT coefficient data u11-u14 and v11-v14 of the color difference components U and V are obtained.

【0198】次いで、ステップST1407において、
輝度成分YのDCT係数データya12−ya14がバ
ッファメモリM5から読み出され、組み合わせ器104
yに供給される(図16参照)。
Next, in step ST1407,
The DCT coefficient data ya12-ya14 of the luminance component Y is read from the buffer memory M5,
y (see FIG. 16).

【0199】次いで、ステップST1408において、
組み合わせ器104yのセレクタ109(図1参照)
は、バッファメモリM5からのDCT係数データ(ya
12,ya13),ya14を、係数メモリM4の記憶
領域d2,d3(図1参照)に転送し、セレクタ112
からのDCT係数データya11を、係数メモリM4の
記憶領域d1(図1参照)に転送する。これにより、図
16に示すように、ジグザグスキャン順に配置された2
×2個のDCT係数データya11−ya14が得られ
る。また、組み合わせ器104yのセレクタ109(図
1参照)は、セレクタ112からのDCT係数データy
b11,(yb12,yb13),yb14を、それぞ
れ係数メモリM4の記憶領域d1−d3(図1参照)に
転送する。これにより、図16に示すように、ジグザグ
スキャン順に配置された2×2個のDCT係数データy
b11−yb14が得られる。
Next, in step ST1408,
Selector 109 of combiner 104y (see FIG. 1)
Is the DCT coefficient data (ya) from the buffer memory M5.
12, ya13) and ya14 are transferred to storage areas d2 and d3 (see FIG. 1) of the coefficient memory M4, and the selector 112
Is transferred to the storage area d1 (see FIG. 1) of the coefficient memory M4. As a result, as shown in FIG.
× 2 pieces of DCT coefficient data ya11-ya14 are obtained. The selector 109 of the combiner 104y (see FIG. 1) outputs the DCT coefficient data y from the selector 112.
b11, (yb12, yb13), and yb14 are respectively transferred to the storage areas d1-d3 (see FIG. 1) of the coefficient memory M4. As a result, as shown in FIG. 16, 2 × 2 pieces of DCT coefficient data y arranged in the zigzag scan order
b11-yb14 is obtained.

【0200】組み合わせ器104u,104vのセレク
タ109(図1参照)は、ハフマン復号化器102から
のDCT係数データ[u11,(u12,u13),u
14],[v11,(v12,v13),v14]を、
それぞれ係数メモリM4の記憶領域d1−d3(図1参
照)に転送する。これにより、図16に示すように、ジ
グザグスキャン順に配置された2×2個のDCT係数デ
ータu11−u14,v11−v14が得られる。
The selector 109 of the combiners 104u and 104v (see FIG. 1) outputs the DCT coefficient data [u11, (u12, u13), u] from the Huffman decoder 102.
14], [v11, (v12, v13), v14]
Each is transferred to the storage area d1-d3 (see FIG. 1) of the coefficient memory M4. As a result, as shown in FIG. 16, 2 × 2 pieces of DCT coefficient data u11-u14 and v11-v14 arranged in zigzag scan order are obtained.

【0201】次いで、ステップST707において、逆
量子化器105は、組み合わせ器104y,104u,
104vによって得られた輝度成分Yおよび色差成分
U,VのDCT係数データya11−ya14,yb1
1−yb14,u11−u14,v11−v14を、量
子化テーブルTB2に格納された量子化値に基づいて逆
量子化する。
Next, in step ST707, the inverse quantizer 105 sets the combination units 104y, 104u,
DCT coefficient data ya11-ya14, yb1 of the luminance component Y and the color difference components U, V obtained by 104v
1-yb14, u11-u14, v11-v14 are inversely quantized based on the quantization values stored in the quantization table TB2.

【0202】次いで、ステップST708において、逆
DCT変換器106は、逆量子化器105によって逆量
子化された輝度成分Yおよび色差成分U,VのDCT係
数データya11−ya14,yb11−yb14,u
11−u14,v11−v14に対して逆DCT変換を
施す。これにより、図17に示すように、輝度成分Yお
よび色差成分U,Vの伸長画像データ[(Y11,Y1
2,Y21,Y22),(Y31,Y32,Y41,Y
42)],(U11,U12,U31,U32),(V
11,V12,V31,V32)が得られる。なお、逆
DCT変換器106は、輝度成分YのDCT係数データ
ya11−ya14,yb11−yb14については、
2×2個のDCT係数データごとに逆DCT変換を施
す。すなわち、DCT係数データya11−ya14に
対して逆DCT変換を施した後、DCT係数データyb
11−yb14に対して逆DCT変換を施す。
Next, in step ST708, the inverse DCT transformer 106 performs DCT coefficient data ya11-ya14, yb11-yb14, u of the luminance component Y and the chrominance components U, V dequantized by the dequantizer 105.
11-u14 and v11-v14 are subjected to inverse DCT. Thereby, as shown in FIG. 17, the expanded image data [(Y11, Y1) of the luminance component Y and the color difference components U, V
2, Y21, Y22), (Y31, Y32, Y41, Y
42)], (U11, U12, U31, U32), (V
11, V12, V31, V32) are obtained. Note that the inverse DCT converter 106 calculates the DCT coefficient data ya11-ya14 and yb11-yb14 of the luminance component Y
Inverse DCT transform is performed for each 2 × 2 DCT coefficient data. That is, after performing the inverse DCT transform on the DCT coefficient data ya11-ya14, the DCT coefficient data yb
Inverse DCT is performed on 11-yb14.

【0203】次いで、ステップST402において、復
元器110u,110vは、図17に示すように、色差
成分U,Vの伸長画像データ(U11,U12,U3
1,U32),(V11,V12,V31,V32)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 17, expand the image data (U11, U12, U3) of the color difference components U and V.
1, U32) and (V11, V12, V31, V32) are up-sampled twice in the vertical direction on the screen.

【0204】次いで、ステップST709において、色
空間変換器107は、図17に示すように、逆DCT変
換器106によって得られた輝度成分Yの伸長画像デー
タ[(Y11,Y12,Y21,Y22),(Y31,
Y32,Y41,Y42)]、および復元器110u,
110vからの色差成分U,Vの伸長画像データ[(U
11,U12,U11,U12),(U31,U32,
U31,U32)],[(V11,V12,V11,V
12),(V31,V32,V31,V32)]を、3
原色成分の伸長画像データ[(R11,R12,R2
1,R22),(R31,R32,R41,R4
2)],[(G11,G12,G21,G22),(G
31,G32,G41,G42)],[(B11,B1
2,B21,B22),(B31,B32,B41,B
42)]に変換する。
Then, in step ST709, as shown in FIG. 17, the color space converter 107 expands the luminance component Y obtained by the inverse DCT converter 106 [(Y11, Y12, Y21, Y22), (Y31,
Y32, Y41, Y42)], and the decompressor 110u,
Decompressed image data of color difference components U and V from 110v [(U
11, U12, U11, U12), (U31, U32,
U31, U32)], [(V11, V12, V11, V
12), (V31, V32, V31, V32)]
Expanded image data of primary color components [(R11, R12, R2
1, R22), (R31, R32, R41, R4
2)], [(G11, G12, G21, G22), (G
31, G32, G41, G42)], [(B11, B1
2, B21, B22), (B31, B32, B41, B
42)].

【0205】次いで、ステップST710において、色
数削減器108は、色空間変換器107によって得られ
た3原色成分の伸長画像データの色数を削減する。
Next, in step ST710, the color number reduction unit 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0206】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ[(R1
1,R12,R21,R22),(R31,R32,R
41,R42)],[(G11,G12,G21,G2
2),(G31,G32,G41,G42)],[(B
11,B12,B21,B22),(B31,B32,
B41,B42)]が伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち画面上の左上および左下のブロックの伸長画
像データ(1MCU分の伸長画像データ:図2参照)が
得られる。
Next, in step ST711, the expanded image data [(R1
1, R12, R21, R22), (R31, R32, R
41, R42)], [(G11, G12, G21, G2
2), (G31, G32, G41, G42)], [(B
11, B12, B21, B22), (B31, B32,
B41, B42)] are transferred to the expanded image memory M2. As a result, decompressed image data (decompressed image data for one MCU: see FIG. 2) of the upper left and lower left blocks on the screen out of the decompressed image composed of 2 × 2 blocks is obtained.

【0207】次いで、ステップST1409において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについて伸長処理が終了したかど
うかが判定される。終了したと判定される場合にはステ
ップST712に進む。一方、終了していないと判定さ
れる場合はステップST1405に戻る。ここでは、2
×2個のブロックで構成される伸長画像の画面上の右上
および右下のブロックについての伸長処理がまだ終了し
ていないため(図2参照)、ステップST1405に戻
る。
Next, in step ST1409,
It is determined whether the decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen). If it is determined that the processing has been completed, the process proceeds to step ST712. On the other hand, if it is determined that the processing has not been completed, the process returns to step ST1405. Here, 2
Since the decompression process for the upper right and lower right blocks on the screen of the decompressed image composed of × 2 blocks has not been completed yet (see FIG. 2), the process returns to step ST1405.

【0208】そして、ステップST1405において、
入力手段iy1−iy3は、解析器101からの位置情
報に基づいて、輝度成分Yの第1段階−第3段階の符号
化データ(hya21,hyb21),(hyb22,
hyb23),hyb24(図18参照)を圧縮画像用
メモリM1から抽出してセレクタ103yに転送する。
また、入力手段iu1−iu3,iv1−iv3は、解
析器101からの位置情報に基づいて、色差成分U,V
の第1段階から第3段階の符号化データ[hu21,
(hu22,hu23),hu24],[hv21,
(hv22,hv23),hv24](図18参照)を
圧縮画像用メモリM1から抽出してセレクタ103u,
103vに転送する。
Then, in step ST1405,
The input means iy1-iy3, based on the position information from the analyzer 101, encode the encoded data (hya21, hyb21), (hyb22, hyb22,
hyb23) and hyb24 (see FIG. 18) are extracted from the compressed image memory M1 and transferred to the selector 103y.
The input means iu1-iu3, iv1-iv3 provide the color difference components U, V based on the position information from the analyzer 101.
Of the first to third stages of the encoded data [hu21,
(Hu22, hu23), hu24], [hv21,
(Hv22, hv23), hv24] (see FIG. 18) are extracted from the compressed image memory M1 and the selectors 103u,
Transfer to 103v.

【0209】次いで、ステップST1406において、
セレクタ103yは、入力手段iy1−iy3から供給
される輝度成分Yの第1段階−第3段階の符号化データ
(hya21,hyb21),(hyb22,hyb2
3),hyb24をハフマン復号化器102に供給す
る。ハフマン復号化器102は、これらの符号化データ
をハフマン復号化する。これにより、輝度成分YのDC
T係数データya21,yb21−yb24が得られ
る。そして、セレクタ112は、ハフマン復号化器10
2によって得られた輝度成分YのDCT係数データya
21,yb21−yb24を組み合わせ器104yに転
送する。
Next, in step ST1406,
The selector 103y outputs the encoded data (hya21, hyb21), (hyb22, hyb2) of the first to third stages of the luminance component Y supplied from the input means iy1 to iy3.
3), supply hyb 24 to the Huffman decoder 102; The Huffman decoder 102 performs Huffman decoding on the encoded data. Thereby, the DC of the luminance component Y
T coefficient data ya21, yb21-yb24 are obtained. Then, the selector 112 selects the Huffman decoder 10
2, the DCT coefficient data ya of the luminance component Y obtained by
21, yb21-yb24 are transferred to the combiner 104y.

【0210】また、セレクタ103u,103vは、入
力手段iu1−iu3,iv1−iv3から供給される
色差成分U,Vの第1段階−第3段階の符号化データ
[hu21,(hu22,hu23),hu24],
[hv21,(hv22,hv23),hv24]をハ
フマン復号化器102に供給する。ハフマン復号化器1
02は、これらの符号化データをハフマン復号化する。
これにより、色差成分U,VのDCT係数データu21
−u24,v21−v24が得られる。
The selectors 103u and 103v provide first-third-stage encoded data [hu21, (hu22, hu23), of the first-third-stage color difference components U and V supplied from the input means iu1-iu3 and iv1-iv3. hu24],
[Hv21, (hv22, hv23), hv24] are supplied to the Huffman decoder 102. Huffman decoder 1
02 performs Huffman decoding on these encoded data.
Thereby, the DCT coefficient data u21 of the color difference components U and V
-U24, v21-v24 are obtained.

【0211】次いで、ステップST1407において、
輝度成分YのDCT係数データya22−ya24がバ
ッファメモリM5から読み出され(図18参照)、組み
合わせ器104yに供給される。
Next, in step ST1407,
The DCT coefficient data ya22-ya24 of the luminance component Y is read from the buffer memory M5 (see FIG. 18) and supplied to the combiner 104y.

【0212】次いで、ステップST1408において、
上述したのと同様にして、DCT係数データの組み合わ
せ処理が行われる。これにより、図18に示すように、
ジグザグスキャン順に配置された2×2個のDCT係数
データya21−ya24,yb21−yb24,u2
1−u24,v21−v24が得られる。
Then, in step ST1408,
In the same manner as described above, the combination processing of the DCT coefficient data is performed. Thereby, as shown in FIG.
2 × 2 DCT coefficient data ya21-ya24, yb21-yb24, u2 arranged in zigzag scan order
1-u24, v21-v24 are obtained.

【0213】次いで、ステップST707において、逆
量子化器105は、組み合わせ器104y,104u,
104vによって得られた輝度成分Yおよび色差成分
U,VのDCT係数データ(ya21−ya24,yb
21−yb24),u21−u24,v21−v24
を、量子化テーブルTB2に格納された量子化値に基づ
いて逆量子化する。
Next, in step ST707, the inverse quantizer 105 sets the combination units 104y, 104u,
DCT coefficient data (ya21-ya24, yb) of the luminance component Y and the color difference components U and V obtained by
21-yb24), u21-u24, v21-v24
Is inversely quantized based on the quantization value stored in the quantization table TB2.

【0214】次いで、ステップST708において、逆
DCT変換器106は、逆量子化器105によって逆量
子化された輝度成分Yおよび色差成分U,VのDCT係
数データ(ya21−ya24,yb21−yb2
4),u21−u24,v21−v24に対して逆DC
T変換を施す。これにより、図19に示すように、輝度
成分Yおよび色差成分U,Vの伸長画像データ[(Y1
3,Y14,Y23,Y24),(Y33,Y34,Y
43,Y44)],(U13,U14,U33,U3
4),(V13,V14,V33,V34)が得られ
る。
Next, in step ST708, the inverse DCT transformer 106 performs the DCT coefficient data (ya21-ya24, yb21-yb2) of the luminance component Y and the color difference components U and V dequantized by the dequantizer 105.
4) Inverse DC for u21-u24, v21-v24
Perform T conversion. Thereby, as shown in FIG. 19, the expanded image data [(Y1) of the luminance component Y and the color difference components U and V are obtained.
3, Y14, Y23, Y24), (Y33, Y34, Y
43, Y44)], (U13, U14, U33, U3
4), (V13, V14, V33, V34) are obtained.

【0215】次いで、ステップST402において、復
元器110u,110vは、図19に示すように、色差
成分U,Vの伸長画像データ(U13,U14,U3
3,U34),(V13,V14,V33,V34)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402, the decompressors 110u and 110v, as shown in FIG. 19, decompress image data (U13, U14, U3) of the color difference components U and V.
3, U34) and (V13, V14, V33, V34) are upsampled twice in the vertical direction on the screen.

【0216】次いで、ステップST709において、色
空間変換器107は、図19に示すように、逆DCT変
換器106によって得られた輝度成分Yの伸長画像デー
タ[(Y13,Y14,Y23,Y24),(Y33,
Y34,Y43,Y44)]、および復元器110u,
110vからの色差成分U,Vの伸長画像データ[(U
13,U14,U13,U14),(U33,U34,
U33,U34)],[(V13,V14,V13,V
14),(V33,V34,V33,V34)]を、3
原色成分の伸長画像データ[(R13,R14,R2
3,R24),(R33,R34,R43,R4
4)],[(G13,G14,G23,G24),(G
33,G34,G43,G44)],[(B13,B1
4,B23,B24),(B33,B34,B43,B
44)]に変換する。
Next, in step ST709, the color space converter 107 expands the image data [(Y13, Y14, Y23, Y24), of the luminance component Y obtained by the inverse DCT converter 106, as shown in FIG. (Y33,
Y34, Y43, Y44)], and a decompressor 110u,
Decompressed image data of color difference components U and V from 110v [(U
13, U14, U13, U14), (U33, U34,
U33, U34)], [(V13, V14, V13, V
14), (V33, V34, V33, V34)]
Expanded image data of primary color components [(R13, R14, R2
3, R24), (R33, R34, R43, R4
4)], [(G13, G14, G23, G24), (G
33, G34, G43, G44)], [(B13, B1
4, B23, B24), (B33, B34, B43, B
44)].

【0217】次いで、ステップST710において、色
数削減器108は、色空間変換器107によって得られ
た3原色成分の伸長画像データの色数を削減する。
Next, in step ST710, the color number reducer 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0218】次いで、ステップST711において、色
数が削減された3原色成分の伸長画像データ[(R1
3,R14,R23,R24),(R33,R34,R
43,R44)],[(G13,G14,G23,G2
4),(G33,G34,G43,G44)],[(B
13,B14,B23,B24),(B33,B34,
B43,B44)]が伸長画像用メモリM2に転送され
る。これにより、2×2個のブロックで構成される伸長
画像のうち画面上の右上および右下のブロックの伸長画
像データ(1MCU分の伸長画像データ:図2参照)が
得られる。
Next, in step ST711, the expanded image data of the three primary color components [(R1
3, R14, R23, R24), (R33, R34, R
43, R44)], [(G13, G14, G23, G2
4), (G33, G34, G43, G44)], [(B
13, B14, B23, B24), (B33, B34,
B43, B44)] are transferred to the expanded image memory M2. As a result, decompressed image data (decompressed image data for one MCU: see FIG. 2) of the upper right and lower right blocks on the screen out of the decompressed image composed of 2 × 2 blocks is obtained.

【0219】次いで、ステップST1409において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについて伸長処理が終了したかど
うかが判定される。ここでは、(1MCU)×(画面上
の水平方向の1ライン)に含まれるすべてのブロックに
ついて伸長処理が終了したため(図2参照)、ステップ
ST712に進む。
Next, in step ST1409,
It is determined whether the decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen). Here, since the decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen) (see FIG. 2), the process proceeds to step ST712.

【0220】次いで、ステップST712において、伸
長画像の1画面分のすべてのブロック(ここでは、2×
2個)について伸長処理が終了したか否かが判定され
る。すべてのブロックについて伸長処理が終了した場合
には、処理を終了する。そうでない場合には、ステップ
ST1401に戻る。ここでは、すべてのブロックにつ
いて伸長処理が終了したため、処理を終了する。
Next, in step ST712, all the blocks (here, 2 ×
It is determined whether or not the decompression process has been completed for two (2). When the decompression processing is completed for all the blocks, the processing ends. If not, the process returns to step ST1401. Here, since the decompression processing has been completed for all the blocks, the processing is terminated.

【0221】以上のようにして、プログレッシブ符号化
された圧縮画像データの伸長画像データが得られる。こ
の伸長画像データを表示装置に表示する場合には、まず
画面上の左上および左下のブロックの伸長画像データ、
次いで、画面上の右上および右下のブロックの伸長画像
データの順に、2×2個のブロックで構成される伸長画
像データが表示される。すなわち、MCUごとに、伸長
画像データが表示される。
As described above, the decompressed image data of the progressively encoded compressed image data is obtained. When displaying the decompressed image data on the display device, first, decompressed image data of the upper left and lower left blocks on the screen,
Next, the decompressed image data composed of 2 × 2 blocks is displayed in the order of the decompressed image data of the upper right and lower right blocks on the screen. That is, decompressed image data is displayed for each MCU.

【0222】なお、ここでは、プログレッシブ符号化さ
れた圧縮画像データの伸長処理について説明した。シー
ケンシャル符号化された圧縮画像データを伸長する場合
には、入力手段iy1−iy3,iu1−iu3,iv
1−iv3を介さずに、圧縮画像用メモリM1から直接
ハフマン復号化器102へ符号化データを順次供給す
る。そして、ハフマン復号化、逆量子化、逆DCT変
換、アップサンプリング、色空間変換、色数削減の各処
理を行う。これにより、シーケンシャル符号化された圧
縮画像データの伸長画像データが得られる。
Here, the expansion processing of the progressively encoded compressed image data has been described. When decompressing the sequentially encoded compressed image data, input means iy1-iy3, iu1-iu3, iv
The encoded data is sequentially supplied to the Huffman decoder 102 directly from the compressed image memory M1 without going through 1-iv3. Then, Huffman decoding, inverse quantization, inverse DCT transform, upsampling, color space conversion, and color number reduction processing are performed. As a result, decompressed image data of the sequentially encoded compressed image data is obtained.

【0223】<効果>以上のように、この発明の第2の
実施形態による画像処理装置は、セレクタ112と、バ
ッファメモリM5と、復元器110u,110vとを設
けたため、プログレッシブ符号化された圧縮画像データ
の色差成分U,Vが画面上の垂直方向にダウンサンプリ
ングされている場合であっても、当該圧縮画像データを
MCUごとに伸長することができる。
<Effects> As described above, the image processing apparatus according to the second embodiment of the present invention includes the selector 112, the buffer memory M5, and the decompressors 110u and 110v. Even when the color difference components U and V of the image data are down-sampled in the vertical direction on the screen, the compressed image data can be expanded for each MCU.

【0224】また、同一ブロックに対して符号化データ
の抽出処理、ハフマン復号化処理、逆DCT変換処理を
繰り返し行う必要がない。
Further, there is no need to repeatedly perform encoded data extraction processing, Huffman decoding processing, and inverse DCT transform processing on the same block.

【0225】なお、ここでは、セレクタ112およびバ
ッファメモリM5を、ハフマン復号化器102と組み合
わせ器104yとの間に設けたが、これに代えて、図2
0に示すように逆DCT変換器106と色空間変換器1
07との間、または図21に示すようにセレクタ103
yとハフマン復号化器102との間、または図22に示
すように逆量子化器105と逆DCT変換器106との
間に設けてもよい。この場合にも、上述したのと同様の
効果が得られる。
Here, the selector 112 and the buffer memory M5 are provided between the Huffman decoder 102 and the combiner 104y.
0, the inverse DCT converter 106 and the color space converter 1
07 or as shown in FIG.
It may be provided between y and the Huffman decoder 102 or between the inverse quantizer 105 and the inverse DCT transformer 106 as shown in FIG. In this case, the same effect as described above can be obtained.

【0226】(第3の実施形態) <全体構成>図23は、この発明の第3の実施形態によ
る画像処理装置の全体構成を示すブロック図である。図
23を参照して、この画像処理装置は、図1に示した画
像処理装置における開始位置メモリM3に代えて、バッ
ファメモリM6と、セレクタ113u,113vとを備
える。そして、その他の構成を図1に示した画像処理装
置と同じくする。
(Third Embodiment) <Overall Configuration> FIG. 23 is a block diagram showing the overall configuration of an image processing apparatus according to a third embodiment of the present invention. Referring to FIG. 23, this image processing apparatus includes a buffer memory M6 and selectors 113u and 113v instead of start position memory M3 in the image processing apparatus shown in FIG. Other configurations are the same as those of the image processing apparatus shown in FIG.

【0227】バッファメモリM6は、ハフマン復号化器
102によって得られた色差成分U,Vの各段階のDC
T係数データ(u11−u14,u21−u24),
(v11−v14,v21−v24)および輝度成分Y
の第1段階のDCT係数データ(y11,yb21)を
記憶する。
The buffer memory M 6 stores the DC component of each stage of the color difference components U and V obtained by the Huffman decoder 102.
T coefficient data (u11-u14, u21-u24),
(V11-v14, v21-v24) and the luminance component Y
Of the first stage DCT coefficient data (y11, yb21).

【0228】セレクタ113u,113vは、ハフマン
復号化器102からの色差成分U,VのDCT係数デー
タまたはバッファメモリM6に記憶された色差成分U,
VのDCT係数データを選択的に組み合わせ器104
u,104vに出力する。
The selectors 113u and 113v output the DCT coefficient data of the color difference components U and V from the Huffman decoder 102 or the color difference components U and V stored in the buffer memory M6.
V DCT coefficient data is selectively combined by a combiner 104.
u, 104v.

【0229】<伸長処理>次に、図23に示した画像処
理装置による伸長処理について説明する。なお、圧縮画
像用メモリM1には、図3に示したような圧縮画像デー
タ(プログレッシブ符号化された圧縮画像データ)が記
憶されているものとする。
<Decompression Processing> Next, the decompression processing by the image processing apparatus shown in FIG. 23 will be described. It is assumed that the compressed image data M1 (progressively encoded compressed image data) as shown in FIG. 3 is stored in the compressed image memory M1.

【0230】図24は、図23に示した画像処理装置に
よる伸長処理の手順を示すフローチャートである。以
下、図24および図23を参照しつつ説明する。なお、
以下の説明では、2×2個のブロックで構成される伸長
画像について、(1)画面上の左上のブロックの伸長処
理、(2)画面上の右上のブロックの伸長処理、(3)
画面上の左下のブロックの伸長処理、(4)画面上の右
下のブロックの伸長処理、に分けて説明する。
FIG. 24 is a flowchart showing the procedure of the decompression process by the image processing apparatus shown in FIG. Hereinafter, description will be made with reference to FIGS. 24 and 23. In addition,
In the following description, for an expanded image composed of 2 × 2 blocks, (1) an upper left block expansion process on the screen, (2) an upper right block expansion process on the screen, (3)
The process of expanding the lower left block on the screen and the process of expanding the lower right block on the screen (4) will be described separately.

【0231】(1)画面上の左上のブロックの伸長処理 まず、ステップST701、ST702において、第1
の実施形態(図4)において説明したのと同様にして、
ヘッダの解析、テーブルの獲得、各段階の符号化データ
の位置の検出の処理が行われる。
(1) Decompression processing of upper left block on screen First, in steps ST701 and ST702, the first
In the same manner as described in the embodiment (FIG. 4),
Processing of header analysis, acquisition of a table, and detection of the position of encoded data at each stage are performed.

【0232】次いで、ステップST703において、入
力手段iy1−iy3は、解析器101からの位置情報
に基づいて、輝度成分Yの第1段階−第3段階の符号化
データ(hya11,hyb11),(hya12,h
ya13),hya14を圧縮画像用メモリM1から抽
出してセレクタ103yに転送する。また、入力手段i
u1−iu3,iv1−iv3は、解析器101からの
位置情報に基づいて、色差成分U,Vの第1段階−第3
段階の符号化データ[hu11,(hu12,hu1
3),hu14],[hv11,(hv12,hv1
3),hv14]を圧縮画像用メモリM1から抽出して
セレクタ103u,103vに転送する。そして、解析
器101は、セレクタ103y,103u,103vに
転送された符号化データのバイト数だけ位置情報をイン
クリメントする。
Next, in step ST703, the input means iy1-iy3, based on the position information from the analyzer 101, encode the encoded data (hya11, hyb11), (hya12) of the first to third stages of the luminance component Y. , H
ya13) and hya14 are extracted from the compressed image memory M1 and transferred to the selector 103y. Also, input means i
u1-iu3, iv1-iv3 are based on the position information from the analyzer 101, and the first to third stages of the color difference components U, V
Stage encoded data [hu11, (hu12, hu1
3), hu14], [hv11, (hv12, hv1
3), hv14] is extracted from the compressed image memory M1 and transferred to the selectors 103u and 103v. Then, the analyzer 101 increments the position information by the number of bytes of the encoded data transferred to the selectors 103y, 103u, and 103v.

【0233】次いで、ステップST704aにおいて、
セレクタ103yは、入力手段iy1−iy3から供給
される輝度成分Yの第1段階−第3段階の符号化データ
(hya11,hyb11),(hya12,hya1
3),hya14(図25参照)をハフマン復号化器1
02に供給する。ハフマン復号化器102は、これらの
符号化データをハフマン復号化する。これにより、輝度
成分YのDCT係数データya11−ya14,yb1
1が得られる。
Next, in step ST704a,
The selector 103y outputs the encoded data (hya11, hyb11), (hya12, hya1) of the first to third stages of the luminance component Y supplied from the input means iy1 to iy3.
3), hya 14 (see FIG. 25) is converted to Huffman decoder 1
02. The Huffman decoder 102 performs Huffman decoding on the encoded data. Thereby, the DCT coefficient data ya11-ya14, yb1 of the luminance component Y
1 is obtained.

【0234】また、セレクタ103u,103vは、入
力手段iu1−iu3,iv1−iv3から供給される
色差成分U,Vの第1段階−第3段階の符号化データ
[hu11,(hu12,hu13),hu14],
[hv11,(hv12,hv13),hv14]をハ
フマン復号化器102に供給する。ハフマン復号化器1
02は、これらの符号化データをハフマン復号化する。
これにより、色差成分U,VのDCT係数データu11
−u14,v11−v14が得られる。
The selectors 103u and 103v provide first-third-stage encoded data [hu11, (hu12, hu13), of the first-third-stage color difference components U and V supplied from the input means iu1-iu3, iv1-iv3. hu14],
[Hv11, (hv12, hv13), hv14] are supplied to the Huffman decoder 102. Huffman decoder 1
02 performs Huffman decoding on these encoded data.
Thereby, the DCT coefficient data u11 of the color difference components U and V is obtained.
-U14, v11-v14 are obtained.

【0235】次いで、ステップST2301において、
図25に示すように、ハフマン復号化器102によって
得られた輝度成分YのDCT係数データyb11および
色差成分U,VのDCT係数データu11−u14,v
11−v14がバッファメモリM6に格納される。
Next, in step ST2301,
As shown in FIG. 25, the DCT coefficient data yb11 of the luminance component Y and the DCT coefficient data u11-u14, v of the color difference components U and V obtained by the Huffman decoder 102
11-v14 is stored in the buffer memory M6.

【0236】色差成分U,VのDCT係数データu11
−u14,v11−v14は、バッファメモリM6に格
納されるとともに、セレクタ113u,113vにも転
送される。輝度成分YのDCT係数データya11−y
a14は、組み合わせ器104yに転送される。
DCT coefficient data u11 of color difference components U and V
−u14, v11−v14 are stored in the buffer memory M6 and also transferred to the selectors 113u, 113v. DCT coefficient data ya11-y of luminance component Y
a14 is transferred to the combiner 104y.

【0237】次いで、ステップST705aにおいて、
組み合わせ器104yのセレクタ109(図1参照)
は、ハフマン復号化器102からのDCT係数データy
a11,(ya12,ya13),ya14を、それぞ
れ係数メモリM4の記憶領域d1−d3(図1参照)に
転送する。これにより、図25に示すように、ジグザグ
スキャン順に配置された2×2個のDCT係数データy
a11−ya14が得られる。
Next, in step ST705a,
Selector 109 of combiner 104y (see FIG. 1)
Is the DCT coefficient data y from the Huffman decoder 102
a11, (ya12, ya13), ya14 are respectively transferred to the storage areas d1-d3 (see FIG. 1) of the coefficient memory M4. Thereby, as shown in FIG. 25, 2 × 2 DCT coefficient data y arranged in zigzag scan order
a11-ya14 is obtained.

【0238】また、組み合わせ器104u,104vの
セレクタ109(図1参照)は、ハフマン復号化器10
2からのDCT係数データ[u11,(u12,u1
3),u14],[v11,(v12,v13),v1
4]を、それぞれ係数メモリM4の記憶領域d1−d3
(図1参照)に転送する。これにより、図25に示すよ
うに、ジグザグスキャン順に配置された2×2個のDC
T係数データu11−u14,v11−v14が得られ
る。
The selector 109 (see FIG. 1) of the combiners 104u and 104v is connected to the Huffman decoder 10
DCT coefficient data [u11, (u12, u1)
3), u14], [v11, (v12, v13), v1
4] in the storage areas d1-d3 of the coefficient memory M4, respectively.
(See FIG. 1). Thereby, as shown in FIG. 25, 2 × 2 DCs arranged in zigzag scan order
T coefficient data u11-u14 and v11-v14 are obtained.

【0239】次いで、ステップST707aにおいて、
逆量子化器105は、組み合わせ器104y,104
u,104vによって得られた輝度成分Yおよび色差成
分U,VのDCT係数データya11−ya14,u1
1−u14,v11−v14を、量子化テーブルTB2
に格納された量子化値に基づいて逆量子化する。
Next, in step ST707a,
The inverse quantizer 105 includes combination units 104y and 104
u, 104V, the DCT coefficient data ya11-ya14, u1 of the luminance component Y and the color difference components U, V obtained by
1-u14, v11-v14 are converted to the quantization table TB2.
Is inversely quantized based on the quantized value stored in.

【0240】次いで、ステップST708aにおいて、
逆DCT変換器106は、逆量子化器105によって逆
量子化された輝度成分Yおよび色差成分U,VのDCT
係数データya11−ya14,u11−u14,v1
1−v14に対して逆DCT変換を施す。これにより、
図26に示すように、輝度成分Yおよび色差成分U,V
の伸長画像データ(Y11,Y12,Y21,Y2
2),(U11,U12,U31,U32),(V1
1,V12,V31,V32)が得られる。
Next, in step ST708a,
The inverse DCT transformer 106 performs a DCT on the luminance component Y and the color difference components U and V, which have been inversely quantized by the inverse quantizer 105.
Coefficient data ya11-ya14, u11-u14, v1
1-v14 is subjected to inverse DCT. This allows
As shown in FIG. 26, the luminance component Y and the color difference components U and V
Decompressed image data (Y11, Y12, Y21, Y2
2), (U11, U12, U31, U32), (V1
1, V12, V31, V32) are obtained.

【0241】次いで、ステップST402aにおいて、
復元器110u,110vは、図26に示すように、色
差成分U,Vの伸長画像データ(U11,U12,U3
1,U32),(V11,V12,V31,V32)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402a,
As shown in FIG. 26, the decompressors 110u and 110v decompress the expanded image data (U11, U12, U3) of the color difference components U and V.
1, U32) and (V11, V12, V31, V32) are up-sampled twice in the vertical direction on the screen.

【0242】次いで、ステップST403aにおいて、
ブロック抽出器111uは、図26に示すように、復元
器110uによってアップサンプリングされた色差成分
Uの伸長画像データのうち、画素データU11,U1
2,U11,U12で構成されるブロックを抽出して出
力する。また、ブロック抽出器111vは、図26に示
すように、復元器110vによってアップサンプリング
された色差成分Vの伸長画像データのうち、画素データ
V11,V12,V11,V12で構成されるブロック
を抽出して出力する。
Next, in step ST403a,
As shown in FIG. 26, the block extractor 111u outputs the pixel data U11 and U1 of the expanded image data of the color difference component U up-sampled by the decompressor 110u.
A block composed of U2, U11 and U12 is extracted and output. As shown in FIG. 26, the block extractor 111v extracts a block composed of pixel data V11, V12, V11, and V12 from the expanded image data of the color difference component V up-sampled by the reconstructor 110v. Output.

【0243】次いで、ステップST709aにおいて、
色空間変換器107は、図26に示すように、逆DCT
変換器106によって得られた輝度成分Yの伸長画像デ
ータ(Y11,Y12,Y21,Y22)、および復元
器110u,110vからの色差成分U,Vの伸長画像
データ(U11,U12,U11,U12),(V1
1,V12,V11,V12)を、3原色成分の伸長画
像データ(R11,R12,R21,R22),(G1
1,G12,G21,G22),(B11,B12,B
21,B22)に変換する。
Next, in step ST709a,
The color space converter 107 has an inverse DCT as shown in FIG.
Decompressed image data (Y11, Y12, Y21, Y22) of luminance component Y obtained by converter 106 and decompressed image data (U11, U12, U11, U12) of color difference components U, V from decompressors 110u, 110v. , (V1
, V12, V11, V12), the expanded image data (R11, R12, R21, R22) of three primary color components, (G1
1, G12, G21, G22), (B11, B12, B
21, B22).

【0244】次いで、ステップST710aにおいて、
色数削減器108は、色空間変換器107によって得ら
れた3原色成分の伸長画像データの色数を削減する。
Next, in step ST710a,
The color number reducer 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0245】次いで、ステップST711aにおいて、
色数が削減された3原色成分の伸長画像データ(R1
1,R12,R21,R22),(G11,G12,G
21,G22),(B11,B12,B21,B22)
が伸長画像用メモリM2に転送される。これにより、2
×2個のブロックで構成される伸長画像のうち画面上の
左上のブロックの伸長画像データが得られる。
Next, in step ST711a,
The decompressed image data of the three primary color components (R1
1, R12, R21, R22), (G11, G12, G
21, G22), (B11, B12, B21, B22)
Is transferred to the expanded image memory M2. This gives 2
The decompressed image data of the upper left block on the screen among the decompressed images composed of × 2 blocks is obtained.

【0246】次いで、ステップST2302において、
画面上の水平方向の1ライン分のブロックの伸長処理が
終了したかどうかが判断される。終了したと判断される
場合はステップST2303に進み、終了していないと
判断される場合はステップST703に戻る。ここで
は、2×2個のブロックで構成される伸長画像のうち画
面上の右上のブロックの伸長処理がまだ終了していない
ため、ステップST703に戻る。
Next, in step ST2302,
It is determined whether the decompression processing of one horizontal line block on the screen is completed. If it is determined that the processing has been completed, the process proceeds to step ST2303. If it is determined that the processing has not been completed, the process returns to step ST703. Here, since the decompression processing of the upper right block on the screen among the decompressed images composed of 2 × 2 blocks has not been completed, the process returns to step ST703.

【0247】(2)画面上の右上のブロックの伸長処理 そして、ステップST703において、入力手段iy1
−iy3は、解析器101からの位置情報に基づいて、
輝度成分Yの第1段階−第3段階の符号化データ(hy
a21,hyb21),(hya22,hya23),
hya24(図27参照)を圧縮画像用メモリM1から
抽出してセレクタ103yに転送する。また、入力手段
iu1−iu3,iv1−iv3は、解析器101から
の位置情報に基づいて、色差成分U,Vの第1段階−第
3段階の符号化データ[hu21,(hu22,hu2
3),hu24],[hv21,(hv22,hv2
3),hv24]を圧縮画像用メモリM1から抽出して
セレクタ103u,103vに転送する。そして、解析
器101は、セレクタ103y,103u,103vに
転送された符号化データのバイト数だけ位置情報をイン
クリメントする。
(2) Decompression processing of upper right block on screen Then, in step ST703, input means iy1
−iy3 is based on the position information from the analyzer 101,
First-third encoded data (hy
a21, hyb21), (hya22, hya23),
hya24 (see FIG. 27) is extracted from the compressed image memory M1 and transferred to the selector 103y. Further, the input means iu1-iu3, iv1-iv3, based on the position information from the analyzer 101, encodes the chrominance components U, V in the first to third stages of the encoded data [hu21, (hu22, hu2).
3), hu24], [hv21, (hv22, hv2
3), hv24] is extracted from the compressed image memory M1 and transferred to the selectors 103u and 103v. Then, the analyzer 101 increments the position information by the number of bytes of the encoded data transferred to the selectors 103y, 103u, and 103v.

【0248】次いで、ステップST704aにおいて、
セレクタ103yは、入力手段iy1−iy3から供給
される輝度成分Yの第1段階−第3段階の符号化データ
(hya21,hyb21),(hya22,hya2
3),hya24をハフマン復号化器102に供給す
る。ハフマン復号化器102は、これらの符号化データ
をハフマン復号化する。これにより、輝度成分YのDC
T係数データya21−ya24,yb21が得られ
る。
Next, in step ST704a,
The selector 103y outputs the encoded data (hya21, hyb21), (hya22, hya2) of the first to third stages of the luminance component Y supplied from the input means iy1 to iy3.
3), and supply hya 24 to the Huffman decoder 102. The Huffman decoder 102 performs Huffman decoding on the encoded data. Thereby, the DC of the luminance component Y
T coefficient data ya21-ya24, yb21 are obtained.

【0249】また、セレクタ103u,103vは、入
力手段iu1−iu3,iv1−iv3から供給される
色差成分U,Vの第1段階−第3段階の符号化データ
[hu21,(hu22,hu23),hu24],
[hv21,(hv22,hv23),hv24]をハ
フマン復号化器102に供給する。ハフマン復号化器1
02は、これらの符号化データをハフマン復号化する。
これにより、色差成分U,VのDCT係数データu21
−u24,v21−v24が得られる。
Further, the selectors 103u and 103v provide coded data [hu21, (hu22, hu23), hu21, (hu23, hu23), hu24],
[Hv21, (hv22, hv23), hv24] are supplied to the Huffman decoder 102. Huffman decoder 1
02 performs Huffman decoding on these encoded data.
Thereby, the DCT coefficient data u21 of the color difference components U and V
-U24, v21-v24 are obtained.

【0250】次いで、ステップST2301において、
図27に示すように、ハフマン復号化器102によって
得られた輝度成分YのDCT係数データyb21および
色差成分U,VのDCT係数データu21−u24,v
21−v24がバッファメモリM6に格納される。
Next, in step ST2301,
As shown in FIG. 27, the DCT coefficient data yb21 of the luminance component Y and the DCT coefficient data u21-u24, v of the color difference components U and V obtained by the Huffman decoder 102
21-v24 are stored in the buffer memory M6.

【0251】色差成分U,VのDCT係数データu21
−u24,v21−v24は、バッファメモリM6に格
納されるとともに、セレクタ113u,113vにも転
送される。輝度成分YのDCT係数データya21−y
a24は、組み合わせ器104yに転送される。
The DCT coefficient data u21 of the color difference components U and V
−u24, v21−v24 are stored in the buffer memory M6 and transferred to the selectors 113u, 113v. DCT coefficient data ya21-y of luminance component Y
a24 is transferred to the combiner 104y.

【0252】次いで、ステップST705aにおいて、
上述したのと同様の処理が行われ、図27に示すよう
に、ジグザグスキャン順に配置された2×2個のDCT
係数データya21−ya24,u21−u24,v2
1−v24が得られる。
Next, in step ST705a,
The same processing as described above is performed, and as shown in FIG. 27, 2 × 2 DCTs arranged in zigzag scan order
Coefficient data ya21-ya24, u21-u24, v2
1-v24 is obtained.

【0253】次いで、ステップST707aにおいて、
逆量子化器105は、組み合わせ器104y,104
u,104vによって得られた輝度成分Yおよび色差成
分U,VのDCT係数データya21−ya24,u2
1−u24,v21−v24を、量子化テーブルTB2
に格納された量子化値に基づいて逆量子化する。
Next, in step ST707a,
The inverse quantizer 105 includes combination units 104y and 104
u, 104V, the DCT coefficient data ya21-ya24, u2 of the luminance component Y and the color difference components U, V obtained by
1-u24, v21-v24 are converted to the quantization table TB2.
Is inversely quantized based on the quantized value stored in.

【0254】次いで、ステップST708aにおいて、
逆DCT変換器106は、逆量子化器105によって逆
量子化された輝度成分Yおよび色差成分U,VのDCT
係数データya21−ya24,u21−u24,v2
1−v24に対して逆DCT変換を施す。これにより、
図28に示すように、輝度成分Yおよび色差成分U,V
の伸長画像データ(Y13,Y14,Y23,Y2
4),(U13,U14,U33,U34),(V1
3,V14,V33,V34)が得られる。
Next, in step ST708a,
The inverse DCT transformer 106 performs a DCT on the luminance component Y and the color difference components U and V, which have been inversely quantized by the inverse quantizer 105.
Coefficient data ya21-ya24, u21-u24, v2
1-v24 is subjected to inverse DCT transformation. This allows
As shown in FIG. 28, the luminance component Y and the color difference components U and V
Decompressed image data (Y13, Y14, Y23, Y2
4), (U13, U14, U33, U34), (V1
3, V14, V33, V34) are obtained.

【0255】次いで、ステップST402aにおいて、
復元器110u,110vは、図28に示すように、色
差成分U,Vの伸長画像データ(U13,U14,U3
3,U34),(V13,V14,V33,V34)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402a,
As shown in FIG. 28, the decompressors 110u and 110v decompress the expanded image data (U13, U14, U3) of the color difference components U and V.
3, U34) and (V13, V14, V33, V34) are upsampled twice in the vertical direction on the screen.

【0256】次いで、ステップST403aにおいて、
ブロック抽出器111uは、図28に示すように、復元
器110uによってアップサンプリングされた色差成分
Uの伸長画像データのうち、画素データU13,U1
4,U13,U14で構成されるブロックを抽出して出
力する。また、ブロック抽出器111vは、図28に示
すように、復元器110vによってアップサンプリング
された色差成分Vの伸長画像データのうち、画素データ
V13,V14,V13,V14で構成されるブロック
を抽出して出力する。
Next, in step ST403a,
As shown in FIG. 28, the block extractor 111u outputs the pixel data U13 and U1 of the expanded image data of the color difference component U up-sampled by the decompressor 110u.
The block composed of U4, U13, and U14 is extracted and output. Further, as shown in FIG. 28, the block extractor 111v extracts a block composed of pixel data V13, V14, V13, and V14 from the expanded image data of the color difference component V up-sampled by the restorer 110v. Output.

【0257】次いで、ステップST709aにおいて、
色空間変換器107は、図28に示すように、逆DCT
変換器106によって得られた輝度成分Yの伸長画像デ
ータ(Y13,Y14,Y23,Y24)、および復元
器110u,110vからの色差成分U,Vの伸長画像
データ(U13,U14,U13,U14),(V1
3,V14,V13,V14)を、3原色成分の伸長画
像データ(R13,R14,R23,R24),(G1
3,G14,G23,G24),(B13,B14,B
23,B24)に変換する。
Next, in step ST709a,
As shown in FIG. 28, the color space converter 107
Decompressed image data (Y13, Y14, Y23, Y24) of luminance component Y obtained by converter 106, and decompressed image data (U13, U14, U13, U14) of color difference components U, V from decompressors 110u, 110v. , (V1
3, V14, V13, and V14), and decompressed image data (R13, R14, R23, R24) of three primary color components, (G1
3, G14, G23, G24), (B13, B14, B
23, B24).

【0258】次いで、ステップST710aにおいて、
色数削減器108は、色空間変換器107によって得ら
れた3原色成分の伸長画像データの色数を削減する。
Next, in step ST710a,
The color number reducer 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0259】次いで、ステップST711aにおいて、
色数が削減された3原色成分の伸長画像データ(R1
3,R14,R23,R24),(G13,G14,G
23,G24),(B13,B14,B23,B24)
が伸長画像用メモリM2に転送される。これにより、2
×2個のブロックで構成される伸長画像のうち画面上の
右上のブロックの伸長画像データが得られる。
Next, in step ST711a,
The decompressed image data of the three primary color components (R1
3, R14, R23, R24), (G13, G14, G
23, G24), (B13, B14, B23, B24)
Is transferred to the expanded image memory M2. This gives 2
The expanded image data of the upper right block on the screen among the expanded images composed of × 2 blocks is obtained.

【0260】次いで、ステップST2302において、
画面上の水平方向の1ライン分のブロックの伸長処理が
終了したかどうかが判断される。ここでは、2×2個の
ブロックで構成される伸長画像のうち画面上の左上およ
び右上のブロックの伸長処理が終了したため、ステップ
ST2303に進む。このとき、水平開始制御器114
は、画面上の水平方向の1ライン分のブロックの伸長処
理が終了したことを示す制御信号CTをブロック抽出器
111u,111vに出力する。この制御信号CTに応
答して、ブロック抽出器111u,111vは、抽出す
る対象となるブロックを切り替える。
Next, in step ST2302,
It is determined whether the decompression processing of one horizontal line block on the screen is completed. Here, since the expansion processing of the upper left and upper right blocks on the screen in the expanded image composed of 2 × 2 blocks has been completed, the process proceeds to step ST2303. At this time, the horizontal start controller 114
Outputs to the block extractors 111u and 111v a control signal CT indicating that the decompression processing of one horizontal line block on the screen is completed. In response to the control signal CT, the block extractors 111u and 111v switch blocks to be extracted.

【0261】(3)画面上の左下のブロックの伸長処理 次いで、ステップST2303において、入力手段iy
2,iy3は、解析器101からの位置情報に基づい
て、輝度成分Yの第2段階および第3段階の符号化デー
タ(hyb12,hyb13),hyb14(図29参
照)を圧縮画像用メモリM1から抽出してセレクタ10
3yに転送する。そして、解析器101は、セレクタ1
03yに転送された符号化データのバイト数だけ位置情
報をインクリメントする。
(3) Decompression processing of lower left block on screen Next, in step ST2303, input means iy
2, iy3, based on the position information from the analyzer 101, encodes the encoded data (hyb12, hyb13) and hyb14 (see FIG. 29) of the second and third stages of the luminance component Y from the compressed image memory M1. Extract and Selector 10
Transfer to 3y. Then, the analyzer 101 selects the selector 1
The position information is incremented by the number of bytes of the encoded data transferred to 03y.

【0262】次いで、ステップST704bにおいて、
セレクタ103yは、入力手段iy2,iy3から供給
される輝度成分Yの第2段階および第3段階の符号化デ
ータ(hyb12,hyb13),hyb14をハフマ
ン復号化器102に供給する。ハフマン復号化器102
は、これらの符号化データをハフマン復号化する。これ
により、輝度成分YのDCT係数データyb12−yb
14が得られる。
Next, in step ST704b,
The selector 103y supplies the Huffman decoder 102 with the encoded data (hyb12, hyb13) and hyb14 of the second and third stages of the luminance component Y supplied from the input means iy2 and iy3. Huffman decoder 102
Performs Huffman decoding on these encoded data. Thereby, the DCT coefficient data yb12-yb of the luminance component Y
14 is obtained.

【0263】次いで、ステップST2304において、
バッファメモリM6に記憶された色差成分U,VのDC
T係数データu11−u14,v11−v14および輝
度成分Yの第1段階のDCT係数データyb11が読み
出される(図29参照)。
Next, in step ST2304,
DC of color difference components U and V stored in buffer memory M6
The T coefficient data u11-u14, v11-v14, and the first-stage DCT coefficient data yb11 of the luminance component Y are read (see FIG. 29).

【0264】次いで、ステップST705bにおいて、
組み合わせ器104yのセレクタ109(図1参照)
は、バッファメモリM6から読み出されたDCT係数デ
ータyb11、ハフマン復号化器102からのDCT係
数データ(yb12,yb13),yb14を、それぞ
れ係数メモリM4の記憶領域d1−d3(図1参照)に
転送する。これにより、図29に示すように、ジグザグ
スキャン順に配置された2×2個のDCT係数データy
b11−yb14が得られる。
Next, in step ST705b,
Selector 109 of combiner 104y (see FIG. 1)
Stores the DCT coefficient data yb11 read from the buffer memory M6 and the DCT coefficient data (yb12, yb13) and yb14 from the Huffman decoder 102 in the storage areas d1-d3 (see FIG. 1) of the coefficient memory M4, respectively. Forward. Thereby, as shown in FIG. 29, 2 × 2 DCT coefficient data y arranged in zigzag scan order
b11-yb14 is obtained.

【0265】また、組み合わせ器104u,104vの
セレクタ109(図1参照)は、バッファメモリM1か
ら読み出されたDCT係数データ[u11,(u12,
u13),u14],[v11,(v12,v13),
v14]を、それぞれ係数メモリM4の記憶領域d1−
d3(図1参照)に転送する。これにより、図29に示
すように、ジグザグスキャン順に配置された2×2個の
DCT係数データu11−u14,v11−v14が得
られる。
The selector 109 (see FIG. 1) of the combiners 104u and 104v outputs the DCT coefficient data [u11, (u12,
u13), u14], [v11, (v12, v13),
v14] is stored in the storage area d1-
d3 (see FIG. 1). As a result, as shown in FIG. 29, 2 × 2 pieces of DCT coefficient data u11-u14 and v11-v14 arranged in the zigzag scan order are obtained.

【0266】次いで、ステップST707bにおいて、
逆量子化器105は、組み合わせ器104y,104
u,104vによって得られた輝度成分Yおよび色差成
分U,VのDCT係数データya11−ya14,u1
1−u14,v11−v14を、量子化テーブルTB2
に格納された量子化値に基づいて逆量子化する。
Next, in step ST707b,
The inverse quantizer 105 includes combination units 104y and 104
u, 104V, the DCT coefficient data ya11-ya14, u1 of the luminance component Y and the color difference components U, V obtained by
1-u14, v11-v14 are converted to the quantization table TB2.
Is inversely quantized based on the quantized value stored in.

【0267】次いで、ステップST708bにおいて、
逆DCT変換器106は、逆量子化器105によって逆
量子化された輝度成分Yおよび色差成分U,VのDCT
係数データya11−ya14,u11−u14,v1
1−v14に対して逆DCT変換を施す。これにより、
図30に示すように、輝度成分Yおよび色差成分U,V
の伸長画像データ(Y31,Y32,Y41,Y4
2),(U11,U12,U31,U32),(V1
1,V12,V31,V32)が得られる。
Next, in step ST708b,
The inverse DCT transformer 106 performs a DCT on the luminance component Y and the color difference components U and V, which have been inversely quantized by the inverse quantizer 105.
Coefficient data ya11-ya14, u11-u14, v1
1-v14 is subjected to inverse DCT. This allows
As shown in FIG. 30, the luminance component Y and the color difference components U and V
Decompressed image data (Y31, Y32, Y41, Y4
2), (U11, U12, U31, U32), (V1
1, V12, V31, V32) are obtained.

【0268】次いで、ステップST402bにおいて、
復元器110u,110vは、図30に示すように、色
差成分U,Vの伸長画像データ(U11,U12,U3
1,U32),(V11,V12,V31,V32)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402b,
As shown in FIG. 30, the decompressors 110u and 110v decompress the expanded image data (U11, U12, U3) of the color difference components U and V.
1, U32) and (V11, V12, V31, V32) are up-sampled twice in the vertical direction on the screen.

【0269】次いで、ステップST403bにおいて、
ブロック抽出器111uは、図30に示すように、復元
器110uによってアップサンプリングされた色差成分
Uの伸長画像データのうち、画素データU31,U3
2,U31,U32で構成されるブロックを抽出して出
力する。また、ブロック抽出器111vは、図30に示
すように、復元器110vによってアップサンプリング
された色差成分Vの伸長画像データのうち、画素データ
V31,V32,V31,V32で構成されるブロック
を抽出して出力する。
Next, in step ST403b,
As shown in FIG. 30, the block extractor 111u outputs the pixel data U31 and U3 of the expanded image data of the color difference component U up-sampled by the decompressor 110u.
2, U31 and U32 are extracted and output. Further, as shown in FIG. 30, the block extractor 111v extracts a block composed of pixel data V31, V32, V31, V32 from the expanded image data of the color difference component V up-sampled by the restorer 110v. Output.

【0270】次いで、ステップST709bにおいて、
色空間変換器107は、図30に示すように、逆DCT
変換器106によって得られた輝度成分Yの伸長画像デ
ータ(Y31,Y32,Y41,Y42)、および復元
器110u,110vからの色差成分U,Vの伸長画像
データ(U31,U32,U31,U32),(V3
1,V32,V31,V32)を、3原色成分の伸長画
像データ(R31,R32,R41,R42),(G3
1,G32,G41,G42),(B31,B32,B
41,B42)に変換する。
Next, in step ST709b,
The color space converter 107 has an inverse DCT as shown in FIG.
Decompressed image data of luminance component Y obtained by converter 106 (Y31, Y32, Y41, Y42) and decompressed image data of color difference components U, V from decompressors 110u, 110v (U31, U32, U31, U32) , (V3
, V32, V31, V32), the expanded image data (R31, R32, R41, R42) of three primary color components, (G3
1, G32, G41, G42), (B31, B32, B
41, B42).

【0271】次いで、ステップST710bにおいて、
色数削減器108は、色空間変換器107によって得ら
れた3原色成分の伸長画像データの色数を削減する。
Next, in step ST710b,
The color number reducer 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0272】次いで、ステップST711bにおいて、
色数が削減された3原色成分の伸長画像データ(R3
1,R32,R41,R42),(G31,G32,G
41,G42),(B31,B32,B41,B42)
が伸長画像用メモリM2に転送される。これにより、2
×2個のブロックで構成される伸長画像のうち画面上の
左下のブロックの伸長画像データが得られる。
Next, in step ST711b,
Decompressed image data of three primary color components (R3
1, R32, R41, R42), (G31, G32, G
41, G42), (B31, B32, B41, B42)
Is transferred to the expanded image memory M2. This gives 2
The expanded image data of the lower left block on the screen among the expanded images composed of × 2 blocks is obtained.

【0273】次いで、ステップST2305において、
画面上の水平方向の1ライン分のブロックの伸長処理が
終了したかどうかが判断される。終了したと判断される
場合は、ステップST2306に進む。一方、終了して
いないと判断される場合は、ステップST2303に戻
る。ここでは、2×2個のブロックで構成される原画像
データのうち画面上の右下のブロックの伸長処理がまだ
終了していないため、ステップST2303に戻る。
Next, in step ST2305,
It is determined whether the decompression processing of one horizontal line block on the screen is completed. If it is determined that the process has been completed, the process proceeds to step ST2306. On the other hand, if it is determined that the processing has not been completed, the process returns to step ST2303. Here, since the decompression processing of the lower right block on the screen among the original image data composed of 2 × 2 blocks has not been completed, the process returns to step ST2303.

【0274】(4)画面上の右下のブロックの伸長処理 そして、ステップST2303において、入力手段iy
2,iy3は、解析器101からの位置情報に基づい
て、輝度成分Yの第2段階および第3段階の符号化デー
タ(hyb22,hyb23),hyb24(図31参
照)を圧縮画像用メモリM1から抽出してセレクタ10
3yに転送する。
(4) Decompression process of lower right block on screen Then, in step ST2303, input means iy
2, iy3, based on the position information from the analyzer 101, encodes the encoded data (hyb22, hyb23) and hyb24 (see FIG. 31) of the second and third stages of the luminance component Y from the compressed image memory M1. Extract and Selector 10
Transfer to 3y.

【0275】次いで、ステップST704bにおいて、
上述したのと同様にして、輝度成分YのDCT係数デー
タyb22−yb24が得られる。
Next, in step ST704b,
In the same manner as described above, DCT coefficient data yb22-yb24 of the luminance component Y is obtained.

【0276】次いで、ステップST2304において、
バッファメモリM6に記憶された色差成分U,VのDC
T係数データu21−u24,v21−v24および輝
度成分Yの第1段階のDCT係数データyb21が読み
出される(図31参照)。
Next, in step ST2304,
DC of color difference components U and V stored in buffer memory M6
The T coefficient data u21-u24, v21-v24, and the first-stage DCT coefficient data yb21 of the luminance component Y are read (see FIG. 31).

【0277】次いで、ステップST705bにおいて、
上述したのと同様の処理が行われ、図31に示すよう
に、ジグザグスキャン順に配置された2×2個のDCT
係数データyb21−yb24、u21−u24,v2
1−v24が得られる。
Next, in step ST705b,
The same processing as described above is performed, and as shown in FIG. 31, 2 × 2 DCTs arranged in zigzag scan order
Coefficient data yb21-yb24, u21-u24, v2
1-v24 is obtained.

【0278】次いで、ステップST707bにおいて、
逆量子化器105は、組み合わせ器104y,104
u,104vによって得られた輝度成分Yおよび色差成
分U,VのDCT係数データyb21−yb24,u2
1−u24,v21−v24を、量子化テーブルTB2
に格納された量子化値に基づいて逆量子化する。
Next, in step ST707b,
The inverse quantizer 105 includes combination units 104y and 104
u, DCT coefficient data yb21-yb24, u2 of the luminance component Y and the color difference components U, V obtained by 104v
1-u24, v21-v24 are converted to the quantization table TB2.
Is inversely quantized based on the quantized value stored in.

【0279】次いで、ステップST708bにおいて、
逆DCT変換器106は、逆量子化器105によって逆
量子化された輝度成分Yおよび色差成分U,VのDCT
係数データyb21−yb24,u21−u24,v2
1−v24に対して逆DCT変換を施す。これにより、
図32に示すように、輝度成分Yおよび色差成分U,V
の伸長画像データ(Y33,Y34,Y43,Y4
4),(U13,U14,U33,U34),(V1
3,V14,V33,V34)が得られる。
Then, in step ST708b,
The inverse DCT transformer 106 performs a DCT on the luminance component Y and the color difference components U and V, which have been inversely quantized by the inverse quantizer 105.
Coefficient data yb21-yb24, u21-u24, v2
1-v24 is subjected to inverse DCT transformation. This allows
As shown in FIG. 32, the luminance component Y and the color difference components U and V
Decompressed image data (Y33, Y34, Y43, Y4
4), (U13, U14, U33, U34), (V1
3, V14, V33, V34) are obtained.

【0280】次いで、ステップST402bにおいて、
復元器110u,110vは、図32に示すように、色
差成分U,Vの伸長画像データ(U13,U14,U3
3,U34),(V13,V14,V33,V34)を
画面上の垂直方向に2倍にアップサンプリングする。
Next, in step ST402b,
As shown in FIG. 32, the decompressors 110u and 110v decompress the expanded image data (U13, U14, U3) of the color difference components U and V.
3, U34) and (V13, V14, V33, V34) are upsampled twice in the vertical direction on the screen.

【0281】次いで、ステップST403bにおいて、
ブロック抽出器111uは、図32に示すように、復元
器110uによってアップサンプリングされた色差成分
Uの伸長画像データのうち、画素データU33,U3
4,U33,U34で構成されるブロックを抽出して出
力する。また、ブロック抽出器111vは、図32に示
すように、復元器110vによってアップサンプリング
された色差成分Vの伸長画像データのうち、画素データ
V33,V34,V33,V34で構成されるブロック
を抽出して出力する。
Next, in step ST403b,
As shown in FIG. 32, the block extractor 111u outputs the pixel data U33 and U3 of the expanded image data of the color difference component U up-sampled by the decompressor 110u.
4, U33 and U34 are extracted and output. Further, as shown in FIG. 32, the block extractor 111v extracts a block composed of pixel data V33, V34, V33, V34 from the expanded image data of the color difference component V up-sampled by the restorer 110v. Output.

【0282】次いで、ステップST709bにおいて、
色空間変換器107は、図32に示すように、逆DCT
変換器106によって得られた輝度成分Yの伸長画像デ
ータ(Y33,Y34,Y43,Y44)、および復元
器110u,110vからの色差成分U,Vの伸長画像
データ(U33,U34,U33,U34),(V3
3,V34,V33,V34)を、3原色成分の伸長画
像データ(R33,R34,R43,R44),(G3
3,G34,G43,G44),(B33,B34,B
43,B44)に変換する。
Next, in step ST709b,
The color space converter 107 has an inverse DCT as shown in FIG.
Decompressed image data of luminance component Y obtained by converter 106 (Y33, Y34, Y43, Y44) and decompressed image data of color difference components U, V from decompressors 110u, 110v (U33, U34, U33, U34) , (V3
, V34, V33, V34), and decompressed image data (R33, R34, R43, R44) of three primary color components, (G3
3, G34, G43, G44), (B33, B34, B
43, B44).

【0283】次いで、ステップST710bにおいて、
色数削減器108は、色空間変換器107によって得ら
れた3原色成分の伸長画像データの色数を削減する。
Next, in step ST710b,
The color number reducer 108 reduces the number of colors of the expanded image data of the three primary color components obtained by the color space converter 107.

【0284】次いで、ステップST711bにおいて、
色数が削減された3原色成分の伸長画像データ(R3
3,R34,R43,R44),(G33,G34,G
43,G44),(B33,B34,B43,B44)
が伸長画像用メモリM2に転送される。これにより、2
×2個のブロックで構成される伸長画像のうち画面上の
右下のブロックの伸長画像データが得られる。
Next, in step ST711b,
Decompressed image data of three primary color components (R3
3, R34, R43, R44), (G33, G34, G
43, G44), (B33, B34, B43, B44)
Is transferred to the expanded image memory M2. This gives 2
The expanded image data of the lower right block on the screen among the expanded images composed of × 2 blocks is obtained.

【0285】次いで、ステップST2305において、
画面上の水平方向の1ライン分のブロックの伸長処理が
終了したかどうかが判断される。ここでは、2×2個の
ブロックで構成される原画像データのうち画面上の左下
および右下のブロックの伸長処理が終了したため、ステ
ップST2306に進む。
Next, in step ST2305,
It is determined whether the decompression processing of one horizontal line block on the screen is completed. Here, since the expansion processing of the lower left and lower right blocks on the screen among the original image data composed of 2 × 2 blocks has been completed, the process proceeds to step ST2306.

【0286】次いで、ステップST2306において、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについて伸長処理が終了したかど
うかが判定される。終了したと判定される場合にはステ
ップST712に進む。一方、終了していないと判定さ
れる場合はステップST2303に戻る。ここでは、
(1MCU)×(画面上の水平方向の1ライン)に含ま
れるすべてのブロックについて伸長処理が終了したため
(図2参照)、ステップST712に進む。
Next, in step ST2306,
It is determined whether the decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen). If it is determined that the processing has been completed, the process proceeds to step ST712. On the other hand, if it is determined that the processing has not been completed, the process returns to step ST2303. here,
Since decompression processing has been completed for all blocks included in (1 MCU) × (one line in the horizontal direction on the screen) (see FIG. 2), the process proceeds to step ST712.

【0287】次いで、ステップST712において、伸
長画像の1画面分のすべてのブロック(ここでは、2×
2個)について伸長処理が終了したか否かが判定され
る。すべてのブロックについて伸長処理が終了した場合
には、処理を終了する。そうでない場合には、ステップ
ST703に戻る。ここでは、すべてのブロックについ
て伸長処理が終了したため、処理を終了する。
Next, in step ST712, all the blocks (here, 2 ×
It is determined whether or not the decompression process has been completed for two (2). When the decompression processing is completed for all the blocks, the processing ends. If not, the process returns to step ST703. Here, since the decompression processing has been completed for all the blocks, the processing is terminated.

【0288】以上のようにして、プログレッシブ符号化
された圧縮画像データの伸長画像データが得られる。こ
の伸長画像データを表示装置に表示する場合には、画面
上の左上のブロック、右上のブロック、左下のブロッ
ク、右下のブロックの順に、2×2個のブロックで構成
される伸長画像データが表示される。
As described above, the decompressed image data of the progressively encoded compressed image data is obtained. When displaying the decompressed image data on the display device, the decompressed image data composed of 2 × 2 blocks in the order of the upper left block, the upper right block, the lower left block, and the lower right block is displayed on the screen. Is displayed.

【0289】なお、ここでは、プログレッシブ符号化さ
れた圧縮画像データの伸長処理について説明した。シー
ケンシャル符号化された圧縮画像データを伸長する場合
には、入力手段iy1−iy3,iu1−iu3,iv
1−iv3を介さずに、圧縮画像用メモリM1から直接
ハフマン復号化器102へ符号化データを順次供給す
る。そして、ハフマン復号化、逆量子化、逆DCT変
換、アップサンプリング、色空間変換、色数削減の各処
理を行う。これにより、シーケンシャル符号化された圧
縮画像データの伸長画像データが得られる。
Here, the expansion processing of the progressively encoded compressed image data has been described. When decompressing the sequentially encoded compressed image data, input means iy1-iy3, iu1-iu3, iv
The encoded data is sequentially supplied to the Huffman decoder 102 directly from the compressed image memory M1 without going through 1-iv3. Then, Huffman decoding, inverse quantization, inverse DCT transform, upsampling, color space conversion, and color number reduction processing are performed. As a result, decompressed image data of the sequentially encoded compressed image data is obtained.

【0290】<効果>以上のように、この発明の第3の
実施形態による画像処理装置は、バッファメモリM6
と、セレクタ113u,113vと、水平開始制御器1
14と、復元器110u,110vと、ブロック抽出器
111u,111vとを設けたため、プログレッシブ符
号化された圧縮画像データの色差成分U,Vが画面上の
垂直方向にダウンサンプリングされている場合であって
も、当該圧縮画像データをブロックごとに伸長すること
ができる。
<Effects> As described above, the image processing apparatus according to the third embodiment of the present invention includes the buffer memory M6
, Selectors 113u and 113v, and horizontal start controller 1
14, the decompressors 110u and 110v, and the block extractors 111u and 111v are provided, so that the color difference components U and V of the progressively encoded compressed image data are down-sampled in the vertical direction on the screen. However, the compressed image data can be expanded for each block.

【0291】また、同一ブロックに対して符号化データ
の抽出処理、ハフマン復号化処理を繰り返し行う必要が
ない。
Further, there is no need to repeatedly perform encoded data extraction processing and Huffman decoding processing on the same block.

【0292】なお、ここでは、バッファメモリM6およ
びセレクタ113u,113vを、ハフマン復号化器1
02と組み合わせ器104y,104u,104vとの
間に設けたが、これに代えて、図33に示すように逆D
CT変換器106と復元器110u,110vとの間に
設けてもよい。この場合、バッファメモリM6に格納さ
れるデータは、DCT係数データ(周波数成分)ではな
く伸長画像データ(明るさ成分)となる。したがって、
色差成分U,Vの伸長画像データ(U11,U12,U
31,U32),(U13,U14,U33,U3
4),(V11,V12,V31,V32),(V1
3,V14,V33,V34)のすべてをバッファメモ
リM6に格納する必要はなく、色差成分U,Vの伸長画
像データ(U31,U32),(U33,U34),
(V31,V32),(V33,V34)だけをバッフ
ァメモリM6に格納すればよい。このため、バッファメ
モリM6の容量を小さくすることができる。
Here, the buffer memory M6 and the selectors 113u and 113v are connected to the Huffman decoder 1
02 and the combiners 104y, 104u, 104v, but instead of this, an inverted D
It may be provided between the CT converter 106 and the restoration units 110u and 110v. In this case, the data stored in the buffer memory M6 is not the DCT coefficient data (frequency component) but the expanded image data (brightness component). Therefore,
Decompressed image data of color difference components U and V (U11, U12, U
31, U32), (U13, U14, U33, U3
4), (V11, V12, V31, V32), (V1
3, V14, V33, V34) need not be stored in the buffer memory M6, and the decompressed image data (U31, U32), (U33, U34),
Only (V31, V32) and (V33, V34) need to be stored in the buffer memory M6. Therefore, the capacity of the buffer memory M6 can be reduced.

【0293】また、図34に示すように、逆DCT変換
器106と復元器110u,110vとの間にバッファ
メモリM6およびセレクタ113u,113vを設けて
もよい。
As shown in FIG. 34, a buffer memory M6 and selectors 113u and 113v may be provided between the inverse DCT converter 106 and the decompressors 110u and 110v.

【0294】また、図35に示すように、逆量子化器1
05と逆DCT変換器106との間にバッファメモリM
6およびセレクタ113u,113vを設けてもよい。
As shown in FIG. 35, the inverse quantizer 1
05 between the DCT 05 and the inverse DCT converter 106
6 and selectors 113u and 113v may be provided.

【0295】また、上述の第1から第3の実施形態にお
ける説明では、プログレッシブ符号化された圧縮画像デ
ータの色差成分U,Vが画面上の垂直方向に1/2倍に
ダウンサンプリングされている場合について説明した
が、この発明による画像処理装置は、これ以外の倍率
(例えば、1/4倍など)にダウンサンプリングされて
いる場合についても同様に適用することができる。
In the description of the first to third embodiments, the color difference components U and V of the progressively encoded compressed image data are down-sampled by a factor of に in the vertical direction on the screen. Although the case has been described, the image processing apparatus according to the present invention can be similarly applied to a case where downsampling is performed at another magnification (for example, 1/4).

【0296】また、直交変換/逆直交変換としてDCT
変換/逆DCT変換を用い、エントロピー符号化/復号
化としてハフマン符号化/復号化を用いた場合について
説明したが、これ以外の直交変換/逆直交変換、エント
ロピー符号化/復号化を用いてもよい。
Also, DCT is used as orthogonal transform / inverse orthogonal transform.
Although the case where Huffman coding / decoding is used as entropy coding / decoding using transform / inverse DCT transform has been described, other orthogonal transform / inverse orthogonal transform and entropy coding / decoding may be used. Good.

【0297】また、プログレッシブ符号化の実現方法と
して、量子化されたDCT係数データを周波数に基づい
て複数の段階に分割する場合について説明したが、これ
に代えてその他の実現方法、例えば、量子化されたDC
T係数データをビットごとに複数の段階に分割する方法
を用いてもよい。
Also, as a method of implementing progressive coding, a case has been described where quantized DCT coefficient data is divided into a plurality of stages based on frequency. Instead, other implementation methods, such as quantization, are used. DC
A method of dividing the T coefficient data into a plurality of stages for each bit may be used.

【0298】また、第1−第3の実施形態による画像処
理装置は、必ずしもハードウエア構成を必要とするもの
ではなく、ソフトウエアでも実現することができる。
Further, the image processing apparatus according to the first to third embodiments does not always require a hardware configuration, and can be realized by software.

【0299】[0299]

【発明の効果】この発明による画像処理装置、画像処理
方法によれば、プログレッシブ符号化された圧縮画像デ
ータをブロック単位またはMCU単位で伸長することが
できる。
According to the image processing apparatus and the image processing method of the present invention, it is possible to decompress progressively encoded compressed image data in block units or MCU units.

【0300】この発明による画像データ転送方法によれ
ば、第1の成分と第2の成分とが対応した画像データを
転送することができる。
According to the image data transfer method of the present invention, image data corresponding to the first component and the second component can be transferred.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施形態による画像処理装置
の全体構成を示すブロック図である。
FIG. 1 is a block diagram illustrating an overall configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】原画像データからプログレッシブ符号化された
圧縮画像データを作成する処理の流れを示す図である。
FIG. 2 is a diagram showing a flow of a process for creating progressively encoded compressed image data from original image data.

【図3】原画像データからプログレッシブ符号化された
圧縮画像データを作成する処理の流れを示すフローチャ
ートである。
FIG. 3 is a flowchart illustrating a flow of a process of creating progressively encoded compressed image data from original image data.

【図4】図1に示した画像処理装置による伸長処理の手
順を示すフローチャートである。
FIG. 4 is a flowchart illustrating a procedure of a decompression process performed by the image processing apparatus illustrated in FIG. 1;

【図5】図1に示した画像処理装置による伸長処理の各
段階におけるデータの様子を示す図である。
FIG. 5 is a diagram illustrating a state of data at each stage of a decompression process performed by the image processing apparatus illustrated in FIG. 1;

【図6】図1に示した画像処理装置による伸長処理の各
段階におけるデータの様子を示す図である。
FIG. 6 is a diagram illustrating a state of data at each stage of a decompression process performed by the image processing apparatus illustrated in FIG. 1;

【図7】図1に示した画像処理装置による伸長処理の各
段階におけるデータの様子を示す図である。
FIG. 7 is a diagram illustrating a state of data at each stage of a decompression process performed by the image processing apparatus illustrated in FIG. 1;

【図8】図1に示した画像処理装置による伸長処理の各
段階におけるデータの様子を示す図である。
FIG. 8 is a diagram illustrating a state of data at each stage of a decompression process performed by the image processing apparatus illustrated in FIG. 1;

【図9】図1に示した画像処理装置による伸長処理の各
段階におけるデータの様子を示す図である。
FIG. 9 is a diagram showing a state of data at each stage of the decompression process by the image processing apparatus shown in FIG. 1;

【図10】図1に示した画像処理装置による伸長処理の
各段階におけるデータの様子を示す図である。
10 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 1;

【図11】図1に示した画像処理装置による伸長処理の
各段階におけるデータの様子を示す図である。
11 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 1;

【図12】図1に示した画像処理装置による伸長処理の
各段階におけるデータの様子を示す図である。
12 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 1;

【図13】この発明の第2の実施形態による画像処理装
置の全体構成を示すブロック図である。
FIG. 13 is a block diagram illustrating an overall configuration of an image processing apparatus according to a second embodiment of the present invention.

【図14】図13に示した画像処理装置による伸長処理
の手順を示すフローチャートである。
FIG. 14 is a flowchart illustrating a procedure of a decompression process performed by the image processing apparatus illustrated in FIG. 13;

【図15】図13に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
15 is a diagram illustrating a state of data at each stage of the decompression process by the image processing apparatus illustrated in FIG.

【図16】図13に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
16 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 13;

【図17】図13に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
17 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 13;

【図18】図13に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
18 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG.

【図19】図13に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
19 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 13;

【図20】この発明の第2の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 20 is a block diagram illustrating an overall configuration of an image processing apparatus according to a modification of the second embodiment of the present invention.

【図21】この発明の第2の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 21 is a block diagram illustrating an overall configuration of an image processing apparatus according to a modification of the second embodiment of the present invention.

【図22】この発明の第2の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 22 is a block diagram illustrating an overall configuration of an image processing apparatus according to a modification of the second embodiment of the present invention.

【図23】この発明の第3の実施形態による画像処理装
置の全体構成を示すブロック図である。
FIG. 23 is a block diagram illustrating an overall configuration of an image processing apparatus according to a third embodiment of the present invention.

【図24】図23に示した画像処理装置による伸長処理
の手順を示すフローチャートである。
FIG. 24 is a flowchart illustrating a procedure of a decompression process performed by the image processing apparatus illustrated in FIG. 23;

【図25】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
25 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 23.

【図26】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
26 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG.

【図27】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
FIG. 27 is a diagram illustrating a state of data at each stage of the decompression process by the image processing apparatus illustrated in FIG. 23;

【図28】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
FIG. 28 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 23;

【図29】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
FIG. 29 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 23;

【図30】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
30 is a diagram illustrating a state of data at each stage of a decompression process by the image processing device illustrated in FIG. 23;

【図31】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
31 is a diagram illustrating a state of data at each stage of the decompression process by the image processing device illustrated in FIG. 23.

【図32】図23に示した画像処理装置による伸長処理
の各段階におけるデータの様子を示す図である。
32 is a diagram illustrating a state of data in each stage of the decompression process by the image processing device illustrated in FIG.

【図33】この発明の第3の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 33 is a block diagram showing an overall configuration of an image processing device according to a modification of the third embodiment of the present invention.

【図34】この発明の第3の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 34 is a block diagram showing an overall configuration of an image processing device according to a modification of the third embodiment of the present invention.

【図35】この発明の第3の実施形態の変形例による画
像処理装置の全体構成を示すブロック図である。
FIG. 35 is a block diagram showing the overall configuration of an image processing device according to a modification of the third embodiment of the present invention.

【図36】色差成分をダウンサンプリングした場合にお
いて、原画像データをプログレッシブ符号化方式によっ
て圧縮するときの処理の流れを示す図である。
FIG. 36 is a diagram illustrating a flow of processing when original image data is compressed by a progressive encoding method when a chrominance component is down-sampled.

【図37】従来技術2に示したようにしてプログレッシ
ブ符号化された圧縮画像データを、従来技術1に示した
画像処理装置によって伸長するときの処理の流れを示す
図である。
FIG. 37 is a diagram illustrating a flow of processing when the compressed image data progressively encoded as described in the related art 2 is decompressed by the image processing apparatus illustrated in the related art 1.

【符号の説明】[Explanation of symbols]

101 解析器 102 ハフマン復号化器 103y,103u,103v セレクタ 104y,104u,104v 組み合わせ器 106 逆DCT変換器 110u,110v 復元器 111u,111v ブロック抽出器 114 水平開始制御器 iy1−iy3,iu1−iu3,iv1−iv3 入
力手段 112,113u,113v セレクタ M3 開始位置用メモリ M5,M6 バッファメモリ
Reference Signs List 101 analyzer 102 Huffman decoder 103y, 103u, 103v selector 104y, 104u, 104v combiner 106 inverse DCT converter 110u, 110v decompressor 111u, 111v block extractor 114 horizontal start controller iy1-iy3, iu1-iu3 iv1-iv3 input means 112, 113u, 113v selector M3 start position memory M5, M6 buffer memory

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出する手段と、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段と、 前記復元手段によってアップサンプリングされた後の第
2の成分の伸長画像データのうち、前記逆直交変換手段
によって得られた第1の成分の各ブロックの伸長画像デ
ータに対応する部分を抽出するブロック抽出手段とを備
え、 前記抽出手段は、画面上の水平方向の1ライン分のすべ
てのブロックについて各段階の符号化データを抽出した
後、第1の成分については、前記1ラインの次の1ライ
ン分のブロックについて各ブロックごとに各段階の符号
化データを抽出し、第2の成分については、再度前記1
ライン分のブロックについて各ブロックごとに各段階の
符号化データを抽出することを特徴とする画像処理装
置。
1. An original image including a first component and a second component is down-sampled in a vertical direction on a screen with respect to an original image, and the first component and a second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: for one horizontal line block on a screen, each block of encoded data of a first component and each stage of a second component; Extracting the encoded data of the first component from the compressed image data, and entropy encoding the encoded data of each stage of the first component and the encoded data of the second component extracted by the extracting unit. Coding means, and coefficient data of each stage of the first component obtained by the entropy decoding means are combined to obtain coefficient data of each block of the first component, and obtained by the entropy decoding means. Combining means for combining the obtained coefficient data of each stage of the second component to obtain coefficient data of each block of the second component; and coefficient data of each block of the first component obtained by the combining means, and Means for performing an inverse orthogonal transform on the coefficient data of each block of the second component; and up-sampling the expanded image data of each block of the second component obtained by the inverse orthogonal transform means in the vertical direction on the screen. A restoring unit, among the expanded image data of the second component up-sampled by the restoring unit, Block extracting means for extracting a portion corresponding to the decompressed image data of each block of the first component obtained as described above, wherein the extracting means performs each step for all the blocks of one horizontal line on the screen. After extracting the encoded data of the first component, the encoded data of each stage is extracted for each block for the block of one line following the one line for the first component. Said 1
An image processing apparatus for extracting encoded data of each stage for each block of blocks for a line.
【請求項2】 請求項1に記載の画像処理装置におい
て、 第2の成分について、前記ライン上の最初のブロックに
対する各段階の符号化データが格納されている位置を記
憶する手段をさらに備え、 前記抽出手段は、前記ライン上のすべてのブロックにつ
いて各段階の符号化データを抽出した後、前記記憶手段
に記憶された位置に基づいて、第2の成分について前記
ライン上の各ブロックごとに各段階の符号化データを抽
出することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, further comprising: a unit that stores, for the second component, a position where encoded data of each stage with respect to a first block on the line is stored. After extracting the encoded data at each stage for all the blocks on the line, the extracting unit extracts, for each block on the line, a second component based on the position stored in the storage unit. An image processing apparatus for extracting encoded data of stages.
【請求項3】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出する手段と、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データのうち、最終ライン上のブロッ
クを除くブロックに対する係数データを記憶するバッフ
ァメモリと、 第1の成分について、前記エントロピー復号化手段によ
って得られた最終ライン上の各ブロックに対する係数デ
ータを組み合わせて当該ブロックの係数データを得、か
つ、当該ブロックとともに1つのMCUを構成するブロ
ックに対する各段階の係数データをバッファメモリから
読み出し、読み出した係数データを組み合わせて、前記
1つのMCUを構成するブロックの係数データを得る一
方、第2の成分について、前記エントロピー復号化手段
によって得られた各段階の係数データを組み合わせて各
ブロックの係数データを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段とを備えることを特徴とする画
像処理装置。
3. An original image including a first component and a second component is down-sampled in a vertical direction on a screen with respect to an original image, and the first component and a second component after down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: 1MCU × encoded data of each stage of a first component and a second component of a block included in one horizontal line on a screen. Means for extracting the encoded data of each stage from the compressed image data; encoded data of each stage of the first component and encoded data of each stage of the second component extracted by the extracting means Means for performing entropy decoding; a buffer memory for storing coefficient data for blocks other than the block on the last line among the coefficient data of each stage of the first component obtained by the entropy decoding means; For the component, the coefficient data of each block on the last line obtained by the entropy decoding means is combined to obtain the coefficient data of the block, and the coefficient data of each stage for the block constituting one MCU together with the block Is read from the buffer memory, and the read coefficient data is combined to obtain coefficient data of a block constituting the one MCU, while the coefficient data of each stage obtained by the entropy decoding unit is obtained for the second component. Combining the coefficient data of each block Means for performing inverse orthogonal transformation on coefficient data of each block of the first component and coefficient data of each block of the second component obtained by the combination means; An image processing apparatus comprising: a restoration unit for upsampling the obtained expanded image data of each block of the second component in a vertical direction on a screen.
【請求項4】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出する手段と、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第1の成分の伸長
画像データのうち、最終ライン上のブロックを除くブロ
ックに対する伸長画像データを記憶するバッファメモリ
と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段とを備え、 前記画像処理装置は、 第1の成分について、前記逆直交変換手段によって最終
ライン上の各ブロックに対する伸長画像データが得られ
たとき、当該ブロックとともに1つのMCUを構成する
ブロックの伸長画像データを前記バッファメモリから読
み出すことを特徴とする画像処理装置。
4. An original image including a first component and a second component is down-sampled in a vertical direction on a screen by a second component, and the first component and a second component after down-sampling are sampled. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: 1MCU × encoded data of each stage of a first component and a second component of a block included in one horizontal line on a screen. Means for extracting the encoded data of each stage from the compressed image data; encoded data of each stage of the first component and encoded data of each stage of the second component extracted by the extracting means Means for performing entropy decoding; and coefficient data of each stage of the first component obtained by the entropy decoding means are combined to obtain coefficient data of each block of the first component, and the entropy decoding means Combining means for combining the obtained coefficient data of each stage of the second component to obtain coefficient data of each block of the second component; and coefficient data of each block of the first component obtained by the combining means; Means for performing an inverse orthogonal transform on the coefficient data of each block of the second component, and for the blocks excluding the block on the last line in the expanded image data of the first component obtained by the inverse orthogonal transform means A buffer memory for storing decompressed image data, and decompression of each block of the second component obtained by the inverse orthogonal transformation means. Restoration means for up-sampling the image data in the vertical direction on the screen, wherein the image processing apparatus obtains expanded image data for each block on the last line by the inverse orthogonal transformation means for the first component. An image processing device that reads out, from the buffer memory, decompressed image data of a block that constitutes one MCU together with the block.
【請求項5】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出する手段と、 前記抽出手段によって抽出された第1の成分の符号化デ
ータのうち、最終ライン上のブロックを除くブロックに
対する符号化データを記憶するバッファメモリと、 第1の成分について、前記抽出手段によって抽出された
最終ライン上の各ブロックに対する符号化データと、前
記バッファメモリに記憶された、当該ブロックとともに
1つのMCUを構成するブロックに対する符号化データ
とをエントロピー復号化する一方、第2の成分につい
て、前記抽出手段によって抽出された符号化データをエ
ントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段とを備えることを特徴とする画
像処理装置。
5. An original image including a first component and a second component, wherein the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: 1MCU × encoded data of each stage of a first component and a second component of a block included in one horizontal line on a screen. Means for extracting the encoded data of each stage from the compressed image data; and, of the encoded data of the first component extracted by the extracting means, A buffer memory for storing encoded data to be encoded, for the first component, encoded data for each block on the last line extracted by the extraction means, and one MCU together with the block stored in the buffer memory. Means for performing entropy decoding on the encoded data for the blocks constituting the second component, and for the second component, means for entropy decoding the encoded data extracted by the extracting means, and a second component obtained by the entropy decoding means. The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the first component, and the coefficient data of each stage of the second component obtained by the entropy decoding means is combined. Combination means for obtaining coefficient data of each block of the two components; and said combination means Means for performing an inverse orthogonal transform on the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by An image processing apparatus comprising: a restoration unit that upsamples expanded image data of each block in a vertical direction on a screen.
【請求項6】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出する手段と、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第2の成
分の各段階の符号化データを記憶するバッファメモリ
と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段と、 前記復元手段によってアップサンプリングされた後の第
2の成分の伸長画像データのうち、前記逆直交変換手段
によって得られた第1の成分の各ブロックの伸長画像デ
ータに対応する部分を抽出するブロック抽出手段とを備
え、 前記抽出手段は、画面上の水平方向の1ライン分のすべ
てのブロックについて各段階の符号化データを抽出した
後、第1の成分について、前記1ラインの次の1ライン
分のブロックについて各ブロックごとに各段階の符号化
データを抽出し、 前記組み合わせ手段は、画面上の水平方向の1ライン分
のすべてのブロックについて係数データを得た後、第2
の成分について、前記バッファメモリに記憶された各ブ
ロックの各段階の符号化データを組み合わせて当該各ブ
ロックの係数データを得ることを特徴とする画像処理装
置。
6. An original image including a first component and a second component is down-sampled in a vertical direction on a screen with respect to a second component, and the first component and a second component after down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: for one horizontal line block on a screen, each block of encoded data of a first component and each stage of a second component; Extracting the encoded data of the first component from the compressed image data, and entropy encoding the encoded data of each stage of the first component and the encoded data of the second component extracted by the extracting unit. Encoding means; a buffer memory for storing encoded data of each step of the second component obtained by the entropy decoding means; and a buffer memory for storing each step of the first component obtained by the entropy decoding means. The coefficient data of each block of the first component is obtained by combining the coefficient data, and the coefficient data of each block of the second component obtained by the entropy decoding means is combined to obtain the coefficient data of each block of the second component. Combining means for obtaining coefficient data; means for performing inverse orthogonal transform on coefficient data of each block of the first component and coefficient data of each block of the second component obtained by the combining means; Restoration means for up-sampling the expanded image data of each block of the second component obtained by the conversion means in the vertical direction on the screen; Block extraction for extracting a portion corresponding to the expanded image data of each block of the first component obtained by the inverse orthogonal transform unit, from the expanded image data of the second component after being upsampled by the restoration unit. Means for extracting the coded data at each stage for all the blocks of one line in the horizontal direction on the screen, and then extracting the first component for one line following the one line. After extracting the coded data of each stage for each block of the block, the combination means obtains coefficient data for all blocks of one horizontal line on the screen,
An image processing apparatus for obtaining coefficient data of each block by combining the encoded data of each stage of each block stored in the buffer memory with respect to the component (1).
【請求項7】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出する手段と、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを記憶するバッファメモリと、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段と、 前記復元手段によってアップサンプリングされた後の第
2の成分の伸長画像データのうち、前記逆直交変換手段
によって得られた第1の成分の各ブロックの伸長画像デ
ータに対応する部分を抽出するブロック抽出手段とを備
え、 前記抽出手段は、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついて、前記1ラインの次の1ライン分のブロックにつ
いて各ブロックごとに各段階の符号化データを抽出し、 前記復元手段は、 画面上の水平方向の1ライン分の第2の成分のすべての
ブロックについて伸長画像データをアップサンプリング
した後、前記バッファメモリに記憶された第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングすることを特徴とする画像処理装置。
7. An original image including a first component and a second component, the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: for one horizontal line block on a screen, each block of encoded data of a first component and each stage of a second component; Extracting the encoded data of the first component from the compressed image data, and entropy encoding the encoded data of each stage of the first component and the encoded data of the second component extracted by the extracting unit. Coding means, and coefficient data of each stage of the first component obtained by the entropy decoding means are combined to obtain coefficient data of each block of the first component, and obtained by the entropy decoding means. Combining means for obtaining the coefficient data of each block of the second component by combining the coefficient data of each stage of the second component obtained, and the coefficient data of each block of the first component obtained by the combining means, Means for performing inverse orthogonal transform on coefficient data of each block of the second component; buffer memory for storing expanded image data of each block of the second component obtained by the inverse orthogonal transform means; Restoration means for up-sampling the decompressed image data of each block of the second component obtained by the conversion means in the vertical direction on the screen; Block extracting means for extracting a portion corresponding to the decompressed image data of each block of the first component obtained by the inverse orthogonal transform means, out of the decompressed image data of the second component upsampled by the restoration means After extracting the encoded data of each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means extracts the first component for the next one line after the one line. For each block, the encoded data of each stage is extracted for each block, and the restoration means up-samples the decompressed image data for all blocks of the second component for one line in the horizontal direction on the screen. The expanded image data of each block of the second component stored in the buffer memory is vertically up-sampled on the screen. Image processing device.
【請求項8】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理装置であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出する手段と、 前記抽出手段によって抽出された第2の成分の各段階の
符号化データを記憶するバッファメモリと、 前記抽出手段によって抽出された第1の成分の各段階の
符号化データおよび第2の成分の各段階の符号化データ
をエントロピー復号化する手段と、 前記エントロピー復号化手段によって得られた第1の成
分の各段階の係数データを組み合わせて第1の成分の各
ブロックの係数データを得、かつ、前記エントロピー復
号化手段によって得られた第2の成分の各段階の係数デ
ータを組み合わせて第2の成分の各ブロックの係数デー
タを得る組み合わせ手段と、 前記組み合わせ手段によって得られた第1の成分の各ブ
ロックの係数データおよび第2の成分の各ブロックの係
数データに対して逆直交変換を施す手段と、 前記逆直交変換手段によって得られた第2の成分の各ブ
ロックの伸長画像データを画面上の垂直方向にアップサ
ンプリングする復元手段と、 前記復元手段によってアップサンプリングされた後の第
2の成分の伸長画像データのうち、前記逆直交変換手段
によって得られた第1の成分の各ブロックの伸長画像デ
ータに対応する部分を抽出するブロック抽出手段とを備
え、 前記抽出手段は、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついて、前記1ラインの次の1ライン分のブロックにつ
いて各ブロックごとに各段階の符号化データを抽出し、 前記エントロピー復号化手段は、画面上の水平方向の1
ライン分のすべてのブロックについて各段階の符号化デ
ータをエントロピー復号化した後、第2の成分につい
て、前記バッファメモリに記憶された各ブロックの各段
階の符号化データをエントロピー復号化することを特徴
とする画像処理装置。
8. An original image including a first component and a second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing apparatus for decompressing compressed image data, comprising: for one horizontal line block on a screen, each block of encoded data of a first component and each stage of a second component; Means for extracting the encoded data of the compressed image data from the compressed image data; buffer memory for storing the encoded data of each stage of the second component extracted by the extracting means; Means for entropy decoding the encoded data of each stage of the first component and the encoded data of each stage of the second component thus obtained, and The coefficient data of each block of the first component is obtained by combining the coefficient data, and the coefficient data of each block of the second component obtained by the entropy decoding means is combined to obtain the coefficient data of each block of the second component. Combining means for obtaining coefficient data; means for performing inverse orthogonal transform on coefficient data of each block of the first component and coefficient data of each block of the second component obtained by the combining means; Restoration means for up-sampling the expanded image data of each block of the second component obtained by the conversion means in the vertical direction on the screen; Therefore, a block extraction unit that extracts a portion corresponding to the expanded image data of each block of the first component obtained by the inverse orthogonal transform unit, out of the expanded image data of the second component after being upsampled, After extracting the encoded data at each stage for all the blocks for one line in the horizontal direction on the screen, the extracting means performs the following for the first component, and for the block for one line next to the one line. The encoded data of each stage is extracted for each block.
After entropy decoding the encoded data of each stage for all the blocks of the line, entropy decoding of the encoded data of each stage of each block stored in the buffer memory for the second component. Image processing apparatus.
【請求項9】 第1の成分および第2の成分を含む原画
像に対して、第2の成分を画面上の垂直方向にダウンサ
ンプリングし、第1の成分およびダウンサンプリング後
の第2の成分に対して、所定の数の画素で構成されるブ
ロックごとに、直交変換を施して得られた係数データを
複数の段階に分割し、各段階ごとに係数データをエント
ロピー符号化することによって得られた圧縮画像データ
を伸長する画像処理方法であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出するステップと、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化ステップによって得られた第2の成分の各段階
の係数データを組み合わせて第2の成分の各ブロックの
係数データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップと、 前記復元ステップによってアップサンプリングされた後
の第2の成分の伸長画像データのうち、前記逆直交変換
ステップによって得られた第1の成分の各ブロックの伸
長画像データに対応する部分を抽出するブロック抽出ス
テップとを備え、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついては、前記1ラインの次の1ライン分のブロックに
ついて各ブロックごとに各段階の符号化データを抽出
し、第2の成分については、再度前記1ライン分のブロ
ックについて各ブロックごとに各段階の符号化データを
抽出することを特徴とする画像処理方法。
9. An original image including a first component and a second component is downsampled in a vertical direction on a screen with respect to an original image, and the first component and a second component after the downsampling are sampled. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: for each block of one horizontal line on a screen, encoded data of each stage of a first component and each stage of a second component for each block; Extracting the encoded data of the first component and the encoded data of each stage of the second component extracted by the extracting step. A step of Ropi decoded, first obtained by the entropy decoding step 1
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the component of the second component, and the coefficient data of each stage of the second component obtained by the entropy decoding step is combined. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. A restoring step of up-sampling the expanded image data of each block of the second component obtained in the inverse orthogonal transformation step in a vertical direction on a screen; In the expanded image data of the component, each block of the first component obtained in the inverse orthogonal transformation step is used. Extracting a portion corresponding to the decompressed image data of step (a). After extracting the encoded data of each stage for all the blocks for one line in the horizontal direction on the screen, The coded data of each stage is extracted for each block for the block of one line following the one line, and the second component is coded for each block of the block for one line again for each block. An image processing method characterized by extracting data.
【請求項10】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出するステップと、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データのうち、最終ライン上のブ
ロックを除くブロックに対する係数データをバッファメ
モリに記憶するステップと、 第1の成分について、前記エントロピー復号化ステップ
によって得られた最終ライン上の各ブロックに対する係
数データを組み合わせて当該ブロックの係数データを
得、かつ、当該ブロックとともに1つのMCUを構成す
るブロックに対する各段階の係数データをバッファメモ
リから読み出し、読み出した係数データを組み合わせ
て、前記1つのMCUを構成するブロックの係数データ
を得る一方、第2の成分について、前記エントロピー復
号化ステップによって得られた各段階の係数データを組
み合わせて各ブロックの係数データを得る組み合わせス
テップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップとを備えることを特徴
とする画像処理方法。
10. An original image including a first component and a second component, the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: 1 MCU × a block included in one horizontal line on a screen, encoded data of each stage of a first component and a second component Extracting the encoded data of each stage from the compressed image data; and the encoded data of each stage of the first component and the code of each stage of the second component extracted by the extracting step. A step of entropy decoding the data, the first of the obtained by the entropy decoding step
Storing, in the buffer memory, coefficient data for blocks other than the block on the last line of the coefficient data of each stage of the component, and for the first component on the last line obtained by the entropy decoding step. The coefficient data of each block is obtained by combining the coefficient data of each block, and the coefficient data of each stage for the block that constitutes one MCU together with the block is read from the buffer memory, and the read coefficient data is combined, Combining the coefficient data of each block obtained by the entropy decoding step for the second component while obtaining the coefficient data of the blocks making up one MCU, and obtaining the coefficient data of each block; Gained by Applying an inverse orthogonal transform to the obtained coefficient data of each block of the first component and the coefficient data of each block of the second component; and each block of the second component obtained by the inverse orthogonal transform step. A decompression step of upsampling the decompressed image data in the vertical direction on the screen.
【請求項11】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出するステップと、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化ステップによって得られた第2の成分の各段階
の係数データを組み合わせて第2の成分の各ブロックの
係数データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第1の成分の
伸長画像データのうち、最終ライン上のブロックを除く
ブロックに対する伸長画像データをバッファメモリに記
憶するステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップとを備え、 第1の成分について、前記逆直交変換ステップによって
最終ライン上の各ブロックに対する伸長画像データが得
られたとき、当該ブロックとともに1つのMCUを構成
するブロックの伸長画像データを前記バッファメモリか
ら読み出すことを特徴とする画像処理装置。
11. An original image including a first component and a second component is down-sampled in a vertical direction on a screen with respect to a second component, and the first component and the second component after the down-sampling are sampled. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: 1 MCU × a block included in one horizontal line on a screen, encoded data of each stage of a first component and a second component Extracting the encoded data of each stage from the compressed image data; and the encoded data of each stage of the first component and the code of each stage of the second component extracted by the extracting step. A step of entropy decoding the data, the first of the obtained by the entropy decoding step
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the component of the second component, and the coefficient data of each stage of the second component obtained by the entropy decoding step is combined. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. Storing the decompressed image data for blocks other than the block on the last line in the decompressed image data of the first component obtained in the inverse orthogonal transform step in a buffer memory; The obtained expanded image data of each block of the second component is vertically up-sampled on the screen. When the decompressed image data for each block on the last line is obtained by the inverse orthogonal transformation step for the first component, the decompressed image data of a block constituting one MCU together with the block. Reading from the buffer memory.
【請求項12】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 1MCU×画面上の水平方向の1ラインに含まれるブロ
ックについて、ブロックごとに第1の成分の各段階の符
号化データおよび第2の成分の各段階の符号化データを
圧縮画像データから抽出するステップと、 前記抽出ステップによって得られた第1の成分の符号化
データのうち、最終ライン上のブロックを除くブロック
に対する符号化データをバッファメモリに記憶するステ
ップと、 第1の成分について、前記抽出ステップによって抽出さ
れた最終ライン上の各ブロックに対する符号化データ
と、前記バッファメモリに記憶された、当該ブロックと
ともに1つのMCUを構成するブロックに対する符号化
データとをエントロピー復号化する一方、第2の成分に
ついて、前記抽出ステップによって抽出された符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化ステップによって得られた第2の成分の各段階
の係数データを組み合わせて第2の成分の各ブロックの
係数データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップとを備えることを特徴
とする画像処理方法。
12. An original image including a first component and a second component, the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: 1 MCU × a block included in one horizontal line on a screen, encoded data of each stage of a first component and a second component Extracting the encoded data at each stage from the compressed image data; and removing the block on the last line from the encoded data of the first component obtained by the extracting step. Storing encoded data for a block in the buffer memory; and for the first component, encoded data for each block on the last line extracted by the extracting step, and the block stored in the buffer memory. And entropy-decoding the encoded data for the blocks making up one MCU, while entropy-decoding the encoded data extracted by the extraction step for the second component; The first obtained
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the component of the second component, and the coefficient data of each stage of the second component obtained by the entropy decoding step is combined. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. And a restoration step of up-sampling the expanded image data of each block of the second component obtained in the inverse orthogonal transformation step in a vertical direction on a screen.
【請求項13】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出するステップと、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第2
の成分の各段階の符号化データをバッファメモリに記憶
するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化手段によって得られた第2の成分の各段階の係
数データを組み合わせて第2の成分の各ブロックの係数
データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップと、 前記復元ステップによってアップサンプリングされた後
の第2の成分の伸長画像データのうち、前記逆直交変換
ステップによって得られた第1の成分の各ブロックの伸
長画像データに対応する部分を抽出するブロック抽出ス
テップとを備え、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついて、前記1ラインの次の1ライン分のブロックにつ
いて各ブロックごとに各段階の符号化データを抽出し、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて係数データを得た後、第2の成分について、前記バ
ッファメモリに記憶された各ブロックの各段階の符号化
データを組み合わせて当該各ブロックの係数データを得
ることを特徴とする画像処理装置。
13. An original image including a first component and a second component, wherein the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling are obtained. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: for each block of one horizontal line on a screen, encoded data of each stage of a first component and each stage of a second component for each block; Extracting the encoded data of the first component and the encoded data of each stage of the second component extracted by the extracting step. A step of Toropi decoding, second obtained by said entropy decoding step
Storing the coded data of each stage of the component in the buffer memory; and the first obtained by the entropy decoding step.
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the component of the first component, and the coefficient data of each stage of the second component obtained by the entropy decoding means is combined with the second component. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. A restoring step of up-sampling the expanded image data of each block of the second component obtained in the inverse orthogonal transformation step in a vertical direction on a screen; Of the decompressed image data of the component, each block of the first component obtained in the inverse orthogonal transformation step is Extracting a portion corresponding to long image data. After extracting coded data at each stage for all blocks of one line in the horizontal direction on the screen, For each block of the next one line of the line, the coded data of each stage is extracted, and coefficient data is obtained for all the blocks of one horizontal line on the screen. An image processing apparatus for obtaining coefficient data of each block by combining encoded data of each block of each stage stored in the buffer memory.
【請求項14】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出するステップと、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化手段によって得られた第2の成分の各段階の係
数データを組み合わせて第2の成分の各ブロックの係数
データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データをバッファメモリに記憶す
るステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップと、 前記復元ステップによってアップサンプリングされた後
の第2の成分の伸長画像データのうち、前記逆直交変換
ステップによって得られた第1の成分の各ブロックの伸
長画像データに対応する部分を抽出するブロック抽出ス
テップとを備え、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついて、前記1ラインの次の1ライン分のブロックにつ
いて各ブロックごとに各段階の符号化データを抽出し、 画面上の水平方向の1ライン分の第2の成分のすべての
ブロックについて伸長画像データをアップサンプリング
した後、前記バッファメモリに記憶された第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングすることを特徴とする画像処理方法。
14. An original image including a first component and a second component, the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: for each block of one horizontal line on a screen, encoded data of each stage of a first component and each stage of a second component for each block; Extracting the encoded data of the first component and the encoded data of each stage of the second component extracted by the extracting step. A step of Toropi decoded, first obtained by the entropy decoding step 1
The coefficient data of each stage of the first component is obtained by combining the coefficient data of each stage of the component (i), and the coefficient data of each stage of the second component obtained by the entropy decoding means is combined with the second component. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. Storing the decompressed image data of each block of the second component obtained in the inverse orthogonal transform step in a buffer memory; decompressing each block of the second component obtained in the inverse orthogonal transform step A restoration step of up-sampling the image data in the vertical direction on the screen; A block extraction step of extracting a portion corresponding to the expanded image data of each block of the first component obtained by the inverse orthogonal transformation step, from the expanded image data of the second component after the pulling, After extracting the encoded data of each stage for all the blocks for one line in the horizontal direction on the screen, for the first component, for each block of the block for one line next to the one line, After extracting the encoded data and up-sampling the decompressed image data for all the blocks of the second component for one line in the horizontal direction on the screen, each block of the second component stored in the buffer memory is extracted. An image processing method characterized by up-sampling expanded image data in a vertical direction on a screen.
【請求項15】 第1の成分および第2の成分を含む原
画像に対して、第2の成分を画面上の垂直方向にダウン
サンプリングし、第1の成分およびダウンサンプリング
後の第2の成分に対して、所定の数の画素で構成される
ブロックごとに、直交変換を施して得られた係数データ
を複数の段階に分割し、各段階ごとに係数データをエン
トロピー符号化することによって得られた圧縮画像デー
タを伸長する画像処理方法であって、 画面上の水平方向の1ライン分のブロックについて、各
ブロックごとに第1の成分の各段階の符号化データおよ
び第2の成分の各段階の符号化データを圧縮画像データ
から抽出するステップと、 前記抽出ステップによって抽出された第2の成分の各段
階の符号化データをバッファメモリに記憶するステップ
と、 前記抽出ステップによって抽出された第1の成分の各段
階の符号化データおよび第2の成分の各段階の符号化デ
ータをエントロピー復号化するステップと、 前記エントロピー復号化ステップによって得られた第1
の成分の各段階の係数データを組み合わせて第1の成分
の各ブロックの係数データを得、かつ、前記エントロピ
ー復号化手段によって得られた第2の成分の各段階の係
数データを組み合わせて第2の成分の各ブロックの係数
データを得る組み合わせステップと、 前記組み合わせステップによって得られた第1の成分の
各ブロックの係数データおよび第2の成分の各ブロック
の係数データに対して逆直交変換を施すステップと、 前記逆直交変換ステップによって得られた第2の成分の
各ブロックの伸長画像データを画面上の垂直方向にアッ
プサンプリングする復元ステップと、 前記復元ステップによってアップサンプリングされた後
の第2の成分の伸長画像データのうち、前記逆直交変換
ステップによって得られた第1の成分の各ブロックの伸
長画像データに対応する部分を抽出するブロック抽出ス
テップとを備え、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データを抽出した後、第1の成分に
ついて、前記1ラインの次の1ライン分のブロックにつ
いて各ブロックごとに各段階の符号化データを抽出し、 画面上の水平方向の1ライン分のすべてのブロックにつ
いて各段階の符号化データをエントロピー復号化した
後、第2の成分について、前記バッファメモリに記憶さ
れた各ブロックの各段階の符号化データをエントロピー
復号化することを特徴とする画像処理方法。
15. An original image including a first component and a second component, the second component is down-sampled in a vertical direction on a screen, and the first component and the second component after the down-sampling. In contrast, for each block composed of a predetermined number of pixels, the coefficient data obtained by performing the orthogonal transformation is divided into a plurality of stages, and the coefficient data is obtained by entropy coding the coefficient data for each stage. An image processing method for decompressing compressed image data, comprising: for each block of one horizontal line on a screen, encoded data of each stage of a first component and each stage of a second component for each block; Extracting the encoded data of the compressed image data from the compressed image data; and storing the encoded data of each stage of the second component extracted in the extracting step in a buffer memory; Entropy decoding the encoded data of each stage of the first component and the encoded data of each stage of the second component extracted by the extracting step; and the first obtained by the entropy decoding step.
The coefficient data of each block of the first component is obtained by combining the coefficient data of each stage of the component of the first component, and the coefficient data of each stage of the second component obtained by the entropy decoding means is combined with the second component. Combining the coefficient data of each block of the first component and the coefficient data of each block of the second component obtained by the combining step by performing an inverse orthogonal transformation. A restoring step of up-sampling the expanded image data of each block of the second component obtained in the inverse orthogonal transformation step in a vertical direction on a screen; Of the decompressed image data of the component, each block of the first component obtained in the inverse orthogonal transformation step is Extracting a portion corresponding to long image data. After extracting coded data at each stage for all blocks of one line in the horizontal direction on the screen, After extracting the coded data of each stage for each block of the next one line block of the line, and entropy decoding the coded data of each stage for all the blocks of one horizontal line on the screen, And an entropy decoding of encoded data of each stage of each block stored in the buffer memory for the second component.
【請求項16】 第1の成分と画面上の垂直方向にダウ
ンサンプリングされた第2の成分とを含む画像データ
を、所定の数の画素で構成されるブロック単位で転送す
る方法であって、 画面上の水平方向の1ライン分の画像データを転送した
後、 第1の成分については、水平方向の前記1ラインの次の
1ライン分のデータを転送し、 第2の成分については、水平方向の前記1ライン分のデ
ータを再度転送することを特徴とする画像データ転送方
法。
16. A method of transferring image data including a first component and a second component down-sampled in the vertical direction on a screen in a block unit composed of a predetermined number of pixels, After transferring one line of image data in the horizontal direction on the screen, for the first component, the data for the next one line after the one line in the horizontal direction is transferred, and for the second component, An image data transfer method, wherein the data for one line in the direction is transferred again.
【請求項17】 請求項16に記載の画像データ転送方
法において、 転送すべき第2の成分を画面上の垂直方向にアップサン
プリングし、 アップサンプリングした前記第2の成分のうち前記第1
の成分に対応する部分を抽出し、当該抽出した部分を転
送することを特徴とする画像データ転送方法。
17. The image data transfer method according to claim 16, wherein a second component to be transferred is up-sampled in a vertical direction on a screen, and said first component of said up-sampled second component is up-sampled.
A method for extracting a portion corresponding to the component (1), and transferring the extracted portion.
【請求項18】 第1の成分と画面上の垂直方向にダウ
ンサンプリングされた第2の成分とを含む画像データ
を、所定の数の画素で構成されるブロック単位で転送す
る方法であって、 第1の成分について、画面上の水平方向の所定数のライ
ン分のデータをバッファメモリに蓄積し、 次いで、第2の成分と、前記バッファメモリに蓄積され
た第1の成分に対して画面上の水平方向の次の1ライン
上にある第1の成分と、前記バッファメモリに蓄積され
た第1の成分のうち前記次の1ライン上にある第1の成
分と画面上の垂直方向の同じライン上にある第1の成分
とを転送することを特徴とする画像データ転送方法。
18. A method for transferring image data including a first component and a second component vertically down-sampled on a screen in a block unit composed of a predetermined number of pixels, For the first component, data for a predetermined number of lines in the horizontal direction on the screen is stored in a buffer memory, and then the second component and the first component stored in the buffer memory are stored on the screen. A first component on the next one line in the horizontal direction, and a first component on the next one of the first components stored in the buffer memory, which is the same as the first component on the screen in the vertical direction. An image data transfer method comprising transferring a first component on a line.
【請求項19】 請求項18に記載の画像データ転送方
法において、 前記バッファメモリに蓄積される第1の成分の画面上の
水平方向のラインの数(所定数)は、 1ブロック分の第2の成分がダウンサンプリングされる
前の状態において含んでいた画面上の垂直方向のブロッ
クの数より1少ない数であることを特徴とする画像デー
タ転送方法。
19. The image data transfer method according to claim 18, wherein the number (predetermined number) of horizontal lines on the screen of the first component stored in the buffer memory is the second one for one block. Wherein the number of components is one less than the number of vertical blocks on the screen included in the state before down-sampling.
【請求項20】 第1の成分と画面上の垂直方向にダウ
ンサンプリングされた第2の成分とを含む画像データ
を、所定の数の画素で構成されるブロック単位で転送す
る方法であって、 画面上の水平方向の1ライン分の画像データを転送する
とともに、第2の成分のデータをバッファメモリに蓄積
した後、 第1の成分については、水平方向の前記1ラインの次の
1ライン分のデータを転送し、 第2の成分については、前記バッファメモリに蓄積され
たデータを転送することを特徴とする画像データ転送方
法。
20. A method of transferring image data including a first component and a second component vertically down-sampled on a screen in a block unit composed of a predetermined number of pixels, After transferring the image data for one line in the horizontal direction on the screen and storing the data of the second component in the buffer memory, the first component is transferred for the next one line in the horizontal direction. And transferring the data stored in the buffer memory for the second component.
【請求項21】 請求項20に記載の画像データ転送方
法において、 前記第2の成分については、前記バッファメモリに蓄積
されたデータのうち前記次の1ライン分の第1の成分と
画面上の垂直方向の同じライン上にあるものを転送する
ことを特徴とする画像データ転送方法。
21. The image data transfer method according to claim 20, wherein the second component and the first component for the next one line of the data stored in the buffer memory are displayed on a screen. An image data transfer method comprising transferring data on the same line in the vertical direction.
【請求項22】 請求項20に記載のデータ転送方法に
おいて、 転送すべき第2の成分を画面上の垂直方向にアップサン
プリングし、 アップサンプリングした前記第2の成分のうち、転送す
る前記第1の成分に対応する部分を抽出し、当該抽出し
た部分を転送することを特徴とする画像データ転送方
法。
22. The data transfer method according to claim 20, wherein a second component to be transferred is up-sampled in a vertical direction on a screen, and the first component to be transferred among the up-sampled second components is transferred. A method for extracting a portion corresponding to the component (1), and transferring the extracted portion.
JP2000322969A 2000-10-23 2000-10-23 Image processing apparatus, image processing method and image data transfer method Pending JP2002135596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000322969A JP2002135596A (en) 2000-10-23 2000-10-23 Image processing apparatus, image processing method and image data transfer method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000322969A JP2002135596A (en) 2000-10-23 2000-10-23 Image processing apparatus, image processing method and image data transfer method

Publications (1)

Publication Number Publication Date
JP2002135596A true JP2002135596A (en) 2002-05-10

Family

ID=18800751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000322969A Pending JP2002135596A (en) 2000-10-23 2000-10-23 Image processing apparatus, image processing method and image data transfer method

Country Status (1)

Country Link
JP (1) JP2002135596A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346220B2 (en) 2003-07-23 2008-03-18 Seiko Epson Corporation Method and apparatus for reducing the bandwidth required to transmit image data
US7386178B2 (en) 2004-07-29 2008-06-10 Seiko Epson Corporation Method and apparatus for transforming the dimensions of an image
US7421130B2 (en) 2004-06-25 2008-09-02 Seiko Epson Corporation Method and apparatus for storing image data using an MCU buffer

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346220B2 (en) 2003-07-23 2008-03-18 Seiko Epson Corporation Method and apparatus for reducing the bandwidth required to transmit image data
US7421130B2 (en) 2004-06-25 2008-09-02 Seiko Epson Corporation Method and apparatus for storing image data using an MCU buffer
US7386178B2 (en) 2004-07-29 2008-06-10 Seiko Epson Corporation Method and apparatus for transforming the dimensions of an image

Similar Documents

Publication Publication Date Title
CN101099174B (en) Image coding method, encoder, decoding method and decoder and computer program product
US5689800A (en) Video feedback for reducing data rate or increasing quality in a video processing system
CN108141505B (en) Compression and decompression method for high bit depth medical gray level image
US8229234B2 (en) Coding and decoding device, coding and decoding method and program
CN105959724B (en) Video data processing method and device
US20050213830A1 (en) Image processing device and method
EP1832119A1 (en) Image rotation via jpeg decompression according to an order different from the encoding block scanning order
JP4902474B2 (en) Image processing apparatus and image processing method
TWI626841B (en) Adaptive processing of video streams with reduced color resolution
JPH1074364A (en) Method for processing video data and its device
EP2222087A1 (en) Bit depth upscaling in RGB colour space for reducing propagation of errors due to transformation to YUV colour space
JP2002077914A (en) Image decoder and image decoding method
US6427029B1 (en) Image signal processing method and device, and storage medium
JP2002135596A (en) Image processing apparatus, image processing method and image data transfer method
JP2002229759A (en) Code converting method for supporting image conversion
JP3633860B2 (en) Image processing apparatus and image processing method
US20090073178A1 (en) Compressing scheme using qualifier watermarking and apparatus using the compression scheme for temporarily storing image data in a frame memory
KR20050088568A (en) Image coding and decoding method
US6574008B1 (en) Image processing device
JP2009239852A (en) Image processing apparatus and image processing method
JP2007129455A (en) Image encoding device, image encoding method and program, and computer-readable recording medium recording image encoding program
US20040213467A1 (en) Image processing apparatus
JPH04315371A (en) Picture processing method and device
CN116051369A (en) Virtual desktop image processing method, device and storage medium
CN113382240A (en) Image transmission method, device and system