JP4344391B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4344391B2
JP4344391B2 JP2007096758A JP2007096758A JP4344391B2 JP 4344391 B2 JP4344391 B2 JP 4344391B2 JP 2007096758 A JP2007096758 A JP 2007096758A JP 2007096758 A JP2007096758 A JP 2007096758A JP 4344391 B2 JP4344391 B2 JP 4344391B2
Authority
JP
Japan
Prior art keywords
image data
data
input
wavelet transform
format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007096758A
Other languages
Japanese (ja)
Other versions
JP2007251967A (en
Inventor
幸男 門脇
充孝 岩崎
豊 佐藤
一弘 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007096758A priority Critical patent/JP4344391B2/en
Publication of JP2007251967A publication Critical patent/JP2007251967A/en
Application granted granted Critical
Publication of JP4344391B2 publication Critical patent/JP4344391B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、画像処理装置に関し、特に、JPEG−2000に準拠した画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus compliant with JPEG-2000.

近年、静止画圧縮技術の次世代国際標準方式として、「JPEG−2000」が標準化された。   In recent years, “JPEG-2000” has been standardized as a next-generation international standard for still image compression technology.

この「JPEG−2000」は、インターネットやディジタル・スチル・カメラ等の静止画圧縮技術として現在主流となっている「JPEG(Joint Photo-graphic Experts Group)」の後継とされる圧縮方式であり、現在のところ、データ圧縮技術を定める「Part−1」と呼ばれる部分が国際標準とされている。   This "JPEG-2000" is a compression method succeeding "JPEG (Joint Photo-graphic Experts Group)", which is currently the mainstream still image compression technology for the Internet and digital still cameras. However, the part called “Part-1” that defines data compression technology is an international standard.

「JPEG−2000」では、現行の「JPEG」が利用している圧縮技術とは大きく異なり、ウェーブレット変換が採用されている。図2を用いて、ウェーブレット変換を用いた「JPEG−2000」による符号化/復号化の一般的な動作を説明する。   In “JPEG-2000”, wavelet transform is adopted, which is very different from the compression technique used in the current “JPEG”. A general operation of encoding / decoding by “JPEG-2000” using wavelet transform will be described with reference to FIG.

図2は、図中左側から入力された画像データを符号化して図中右側から出力し、また、図中右側から入力された符号データを復号化して図中左側から出力するよう構成されたものである。   2 is configured to encode the image data input from the left side in the figure and output from the right side in the figure, and to decode the code data input from the right side in the figure and output from the left side in the figure It is.

より詳細には、カラー変換部10が、入力された画像データを色変換する。これは、例えばRGB(R=Red,G=Green,B=Blue)の形式で入力された画像データを、YCbCr(Y=輝度,Cb,CR=色差)の形式に変換したり、その逆の変換を行うものである。以下に、例として、RGB形式の画像データを色変換する場合の式(式1)を示す。
G=Yr−(Cr+Cb−2)/4 Y=(R+2G+B)/4
R=Cr+G Cr=R−G
B=Cb+G Cb=B−G …(式1)
但し、カラー変換部10は、必ずしも必要な構成ではなく、必要に応じて機能するものである。
More specifically, the color conversion unit 10 performs color conversion on the input image data. For example, image data input in the RGB (R = Red, G = Green, B = Blue) format is converted into a YCbCr (Y = luminance, Cb, CR = color difference) format, or vice versa. Conversion is performed. As an example, an equation (Equation 1) for color conversion of image data in RGB format is shown below.
G = Yr− (Cr + Cb−2) / 4 Y = (R + 2G + B) / 4
R = Cr + G Cr = RG
B = Cb + G Cb = BG (Formula 1)
However, the color conversion unit 10 is not necessarily a necessary configuration and functions as necessary.

次に図2に示す例では、ウェーブレット変換部20において、画像データの各コンポーネントに対し独立して複数レベルの2次元離散ウェーブレット変換(DWT)が行われる。この際、処理する画像をタイルと呼ばれる複数の矩形ブロックに分割して2次元離散ウェーブレット変換を行うことも可能である。但し、画像を複数のタイルに分割して処理を行う場合、ウェーブレット変換部20,量子化部30,及びエントロピー符号化部60では、タイル単位で各処理が行われる。   Next, in the example illustrated in FIG. 2, the wavelet transform unit 20 performs a plurality of levels of two-dimensional discrete wavelet transform (DWT) on each component of the image data independently. At this time, it is possible to divide the image to be processed into a plurality of rectangular blocks called tiles and perform two-dimensional discrete wavelet transform. However, when processing is performed by dividing an image into a plurality of tiles, the wavelet transform unit 20, the quantization unit 30, and the entropy coding unit 60 perform each process in tile units.

・サブサンプリングされていないコンポーネントをウェーブレット変換した場合
以下に、サブサンプリングされていない3つのコンポーネント(例えばコンポーネント0=Y,コンポーネント1=Cb,コンポーネント2=Crとしてもよい)からなる画像データを128×128画素の大きさのタイルに分割し、レベル3の2次元離散ウェーブレット変換を行う場合について例を挙げて説明する。
When wavelet transform is applied to a component that has not been subsampled Below, image data composed of three components that are not subsampled (for example, component 0 = Y, component 1 = Cb, and component 2 = Cr) may be 128 ×. An example will be described in which division into tiles having a size of 128 pixels is performed and level 3 two-dimensional discrete wavelet transform is performed.

「JPEG−2000」で採用されているウェーブレット変換の一つである可逆変換が可能な整数型離散ウェーブレット変換(DWT:Discrete Wavelet Transform)の式(式2)を示す。
L(k)=x(2k)+(H(k)+H(k+1))/4
H(k)=x(2k-1)−(x(2k)+x(2k-2))/2 (式2)
ここで、x(k)はk点(タイル上の画素k)における画素値である。また、Lは平滑化、Hはエッジ検出を意味している。
An equation (equation 2) of an integer discrete wavelet transform (DWT) capable of reversible transformation, which is one of the wavelet transformations adopted in “JPEG-2000”, is shown.
L (k) = x (2k) + (H (k) + H (k + 1)) / 4
H (k) = x (2k-1)-(x (2k) + x (2k-2)) / 2 (Formula 2)
Here, x (k) is a pixel value at k points (pixel k on the tile). L means smoothing and H means edge detection.

以上に示す(式2)により、レベル3の2次元離散ウェーブレット変換を行った場合、上記3つのコンポーネントのデータは、図4に示すような、10個のサブバンドの係数データに変換される。また、図8に、10個のサブバンド(3LL,3HL,3LH,3HH,2HL,2LH,2HH,1HL,1LH,1HH)の係数データに変換されたコンポーネントの構成を示す。但し、例えば'3HL'は、ステージ3において水平成分にハイパスフィルタ('H')を、垂直成分にローパスフィルタ('L')を掛けることにより得られたサブバンドであることを示している。   When the level 3 two-dimensional discrete wavelet transform is performed according to (Equation 2) described above, the data of the three components is converted into coefficient data of 10 subbands as shown in FIG. FIG. 8 shows the configuration of components converted into coefficient data of 10 subbands (3LL, 3HL, 3LH, 3HH, 2HL, 2LH, 2HH, 1HL, 1LH, 1HH). However, for example, “3HL” indicates a subband obtained by applying a high-pass filter (“H”) to the horizontal component and a low-pass filter (“L”) to the vertical component in stage 3.

このように、各コンポーネントをレベルに応じた複数の係数データに変換した後、必要であれば、これをタイル単位で量子化部30において量子化し、その後、エントロピー符号化部60においてエントロピー符号化する。   In this way, after each component is converted into a plurality of coefficient data according to the level, if necessary, this is quantized by the quantization unit 30 in units of tiles, and then entropy-encoded by the entropy encoding unit 60. .

ここで、エントロピー符号化とは、各係数データをビットプレーンに分割し、各ビットプレーンに存在するビットデータを2値の算術符号器(MQ符号器)で符号化していくものである。   Here, entropy coding is a method in which each coefficient data is divided into bit planes, and bit data existing in each bit plane is encoded by a binary arithmetic encoder (MQ encoder).

このような構成において、可逆の符号、即ち、圧縮による画像劣化のない符号を得るためには、全サブバンドの全てのビットプレーンを符号化する必要がある。これに対し、例えばサブバンド毎に個別に下位のビットプレーンを破棄して符号化することで、圧縮率を上げることも可能である。   In such a configuration, in order to obtain a reversible code, that is, a code with no image deterioration due to compression, it is necessary to encode all bit planes of all subbands. On the other hand, for example, the compression rate can be increased by discarding and encoding lower bit planes individually for each subband.

この下位のビットプレーンを破棄して圧縮率を上げることはトランケーションと呼ばれ、復号化した画像の画質に影響の少ないサブバンドのビットプレーンを優先して破棄することで、所定の圧縮率で最適な画質を得ることを可能とするものである。   Discarding lower bit planes to increase the compression rate is called truncation, and discarding sub-band bit planes that have little effect on the image quality of the decoded image gives priority to discarding them and optimizes them at a predetermined compression rate. It is possible to obtain a good image quality.

・サブサンプリングされたコンポーネントをウェーブレット変換した場合
次に、色差信号がサブサンプリングされた画像データを符号化する場合について以下に説明する。
When the subsampled component is wavelet transformed Next, the case where the image data in which the color difference signal is subsampled is encoded will be described below.

図3は、各入出力フォーマットのx方向(水平方向)y方向(垂直方向)の画素比を示す図である。尚、図3は各入出力フォーマットのx方向y方向の画素比を説明するための構成であり、本従来技術におけるウェーブレット変換の最小画素単位とは関係するものではない。   FIG. 3 is a diagram showing pixel ratios in the x direction (horizontal direction) and y direction (vertical direction) of each input / output format. FIG. 3 is a configuration for explaining the pixel ratio in the x direction and y direction of each input / output format, and is not related to the minimum pixel unit of wavelet transform in the prior art.

また、図3において、4:2:2(水平成分H=2,垂直成分V=1:以下、H2V1と表現する),4:2:2(H1V2),4:1:1(H1V1)の各フォーマットのコンポーネント1,2は、それぞれ前処理としてサブサンプリングされているものとする。   In FIG. 3, 4: 2: 2 (horizontal component H = 2, vertical component V = 1: below, expressed as H2V1), 4: 2: 2 (H1V2), and 4: 1: 1 (H1V1). Assume that the components 1 and 2 of each format are subsampled as preprocessing.

この構成において、例えば4:2:2(H2V1)フォーマットの場合では、x方向にサブサンプリングされているため、x方向のデータが間引きされてサブサンプリングされている。同様に、4:2:2(H1V2)フォーマットの場合では、y方向のデータが間引きされ、4:1:1(H1V1)の場合では、xy方向両方のデータがサブサンプリング(間引き)されている。   In this configuration, for example, in the case of the 4: 2: 2 (H2V1) format, since sub-sampling is performed in the x direction, data in the x direction is thinned and sub-sampled. Similarly, in the case of 4: 2: 2 (H1V2) format, data in the y direction is thinned out, and in the case of 4: 1: 1 (H1V1), both data in the xy direction are subsampled (thinned out). .

ここで、図9に、4:2:2(H2V1)フォーマットの画像データに対してレベル3の2次元離散ウェーブレット変換を行った場合の、各コンポーネントのウェーブレット係数の様子を示す。   FIG. 9 shows the state of wavelet coefficients of each component when level 3 two-dimensional discrete wavelet transform is performed on image data in 4: 2: 2 (H2V1) format.

図9を参照すると、例えばタイルの大きさが128×128画素の場合、サブサンプリングされたコンポーネント1,2のデータ領域は、x方向において間引きがなされているため、64×128画素となる。   Referring to FIG. 9, for example, when the tile size is 128 × 128 pixels, the data areas of the subsampled components 1 and 2 are thinned out in the x direction, and thus are 64 × 128 pixels.

この領域のデータに対してレベル3の2次元離散ウェーブレット変換を実施した場合、最終的なサブバンドは図10に示すように、水平成分の画素数が垂直成分の画素数に対して半分となり、サブサンプリングされていないコンポーネントのサブバンド(図8参照)とは異なった形状となる。
特開2000−270335号公報 特開2000−134639号公報
When the level 3 two-dimensional discrete wavelet transform is performed on the data in this region, the final subband has half the number of pixels of the horizontal component as compared to the number of pixels of the vertical component, as shown in FIG. The shape is different from the subband of the component which is not subsampled (see FIG. 8).
JP 2000-270335 A JP 2000-134039 A

このように、X方向及び/又はY方向が間引きされたデータに対して2次元離散ウェーブレット変換を行った場合、コンポーネント毎にサブバンドの形状に差分が存在する。   As described above, when the two-dimensional discrete wavelet transform is performed on the data in which the X direction and / or the Y direction are thinned, there is a difference in the shape of the subband for each component.

このため、サブバンド毎にビットプレーンに分割してエントロピー符号化を実施する場合、サブサンプリングされたビットプレーンに対して画素間に'0'等を補間したり、前の画素に対する値を補間する等、存在する差分に応じた制御が必要となり、エントロピー符号化部60の回路が複雑となるという問題が存在した。   For this reason, when entropy coding is performed by dividing into bit planes for each subband, '0' or the like is interpolated between pixels for the subsampled bitplane, or the value for the previous pixel is interpolated. Thus, there is a problem that the control according to the existing difference is required and the circuit of the entropy encoding unit 60 becomes complicated.

更に、上記のように補間すると、補間した分、データ量が増加するため、処理量が増大するという問題も存在した。   Furthermore, when interpolating as described above, the amount of data increases by the amount of interpolation, and there is a problem that the amount of processing increases.

本発明は、上記問題に鑑みてなされたものであり、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することを可能にする画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an image processing apparatus that can easily generate code data from subsampled image data without increasing a complicated circuit or an amount of data. The purpose is to provide.

係る目的を達成するために、本発明は、画像データに対して水平方向及び/又は垂直方向のウェーブレット変換を1以上のステージにおいて行うウェーブレット変換手段を有し、該ウェーブレット変換手段が、前記画像データに対する垂直方向及び/又は水平方向のウェーブレット変換を所定のステージにおいて行わないことを特徴としている。   In order to achieve such an object, the present invention has wavelet transform means for performing horizontal and / or vertical wavelet transform on image data in one or more stages, and the wavelet transform means includes the image data. The vertical and / or horizontal wavelet transform is not performed at a predetermined stage.

これにより、本発明では、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することが可能になる。   As a result, according to the present invention, it is possible to easily generate code data from the subsampled image data without increasing a complicated circuit and an amount of data.

更に、本発明の参考発明は、前記ウェーブレット変換手段が、前記画像データにおける所定方向のラインが間引きされている場合、該所定方向に対するウェーブレット変換を前記所定のステージにおいて行わず、前記画像データにおけるラインがいずれも間引かれていない場合、全てのステージにおいてウェーブレット変換を行うことを特徴としている。   Further, in the reference invention of the present invention, when the wavelet transform unit thins out a line in a predetermined direction in the image data, the wavelet transform in the predetermined direction is not performed in the predetermined stage, and the line in the image data is performed. If none of these are thinned out, the wavelet transform is performed in all stages.

これにより、本発明の参考発明では、サブサンプリングされた画像データに応じて、容易に符号データを生成することが可能になる。   Thus, according to the reference invention of the present invention, it is possible to easily generate code data in accordance with the subsampled image data.

更に、本発明の参考発明は、前記ウェーブレット変換手段により作成された係数データを符号化する符号化手段を有し、該符号化手段が、前記係数データに所定のサブバンドが含まれない場合、該所定のサブバンドに対する符号化は行わないことを特徴としている。   Furthermore, the reference invention of the present invention has encoding means for encoding coefficient data created by the wavelet transform means, and the encoding means does not include a predetermined subband in the coefficient data. The encoding is not performed for the predetermined subband.

これにより、本発明の参考発明では、圧縮率が高い符号データを生成することが可能となる。   Thereby, in the reference invention of the present invention, it is possible to generate code data having a high compression rate.

また、本発明の参考発明は、複数のコンポーネント毎に作成された画像データに対して水平方向の1次元ウェーブレット変換を施す1次元水平方向ウェーブレット変換手段と、前記画像データに対して垂直方向の1次元ウェーブレット変換を施す1次元垂直方向ウェーブレット変換手段と、より成る2次元ウェーブレット変換手段を有し、該逆ウェーブレット変換手段により1以上のステージにおいて2次元ウェーブレット変換を行う画像処理装置であって、第1のステージにおける前記1次元水平方向ウェーブレット変換手段及び/又は前記1次元垂直方向ウェーブレット変換手段の入出力先を切り替える入出力先切替え手段を有し、該入出力先切替え手段が、前記画像データの所定方向のラインが間引きされている場合、該画像データに対して、前記第1のステージにおいて前記所定方向に対する1次元ウェーブレット変換を行なわないように、前記入出力先を切り替えることを特徴としている。   The reference invention of the present invention also includes a one-dimensional horizontal wavelet transform means for performing a horizontal one-dimensional wavelet transform on image data created for each of a plurality of components, and a vertical one for the image data. An image processing apparatus, comprising: a one-dimensional vertical wavelet transform unit for performing a two-dimensional wavelet transform; and a two-dimensional wavelet transform unit comprising the two-dimensional wavelet transform unit, wherein the inverse wavelet transform unit performs two-dimensional wavelet transform in one or more stages. Input / output destination switching means for switching input / output destinations of the one-dimensional horizontal wavelet transform means and / or the one-dimensional vertical wavelet transform means in one stage, and the input / output destination switching means If the line in the specified direction is thinned, the image data To, so as not to perform a one-dimensional wavelet transform with respect to the predetermined direction in the first stage, it is characterized in that switches the output destination.

これにより、本発明の参考発明では、サブサンプリングされた画像データに対して適切なウェーブレット変換を行なうことが可能となり、複雑な回路やデータ量の増加を伴うことなく、容易に符号データを生成することが可能になる。   As a result, according to the reference invention of the present invention, it is possible to perform appropriate wavelet transform on the subsampled image data, and code data can be easily generated without increasing complicated circuits and data amount. It becomes possible.

更に、本発明の参考発明は、前記第1のステージの後段の入力先を切り替える入力先切替え手段を有し、該入力先切替え手段が、前記画像データの何れのラインも間引きされていない場合、前記第1のステージによる2次元ウェーブレット変換を施すことで作成された係数データが、前記後段に入力されるように前記入力先を切り替えることを特徴としている。   Furthermore, the reference invention of the present invention has input destination switching means for switching the input destination of the subsequent stage of the first stage, and when the input destination switching means has not thinned out any lines of the image data, The input destination is switched so that coefficient data created by performing the two-dimensional wavelet transform in the first stage is input to the subsequent stage.

これにより、本発明の参考発明では、サブサンプリングされた画像データとサブサンプリングされていない画像データとを区別し、それぞれに応じた適切なウェーブレット変換を行なうことが可能となり、複雑な回路やデータ量の増加を伴うことなく、容易に符号データを生成することが可能になる。   As a result, in the reference invention of the present invention, it is possible to distinguish between subsampled image data and non-subsampled image data, and to perform appropriate wavelet transforms corresponding to each of them. Therefore, it is possible to easily generate code data without increasing the number.

また、本発明の参考発明は、ウェーブレット変換により生成された複数のサブバンドより成る係数データに対して水平方向及び/又は垂直方向の逆ウェーブレット変換を1以上のステージにおいて行う逆ウェーブレット変換手段を有する画像処理装置であって、前記逆ウェーブレット変換手段が、前記係数データに対して行なう逆ウェーブレット変換を所定のステージにおいて行なわないことを特徴としている。   Further, the reference invention of the present invention has inverse wavelet transform means for performing inverse wavelet transform in the horizontal direction and / or vertical direction on coefficient data composed of a plurality of subbands generated by wavelet transform in one or more stages. The image processing apparatus is characterized in that the inverse wavelet transform means does not perform the inverse wavelet transform performed on the coefficient data at a predetermined stage.

これにより、本発明の参考発明では、目的に応じてサブサンプリングされた画像データ出力することが可能になる。   Thus, in the reference invention of the present invention, it is possible to output image data subsampled according to the purpose.

更に、本発明の参考発明は、前記逆ウェーブレット変換手段が、作成する画像データの形状に応じて、前記係数データに対する逆ウェーブレット変換を行なわないことを特徴としている。   Furthermore, the reference invention of the present invention is characterized in that the inverse wavelet transform means does not perform inverse wavelet transform on the coefficient data in accordance with the shape of image data to be created.

これにより、本発明の参考発明では、サブサンプリングされた画像データとサブサンプリングされていない画像データとを容易に切り替えて出力することが可能になる。   As a result, in the reference invention of the present invention, it is possible to easily switch and output subsampled image data and non-subsampled image data.

また、本発明の参考発明は、1つ以上のサブバンドより成る係数データに対して水平方向の1次元逆ウェーブレット変換を施す1次元水平方向逆ウェーブレット変換手段と、前記係数データに対して垂直方向の1次元逆ウェーブレット変換を施す1次元垂直方向逆ウェーブレット変換手段と、より成る2次元逆ウェーブレット変換手段を有し、該2次元逆ウェーブレット変換手段により1以上のステージにおいて2次元逆ウェーブレット変換を行う画像処理装置であって、最後のステージにおける前記1次元水平方向逆ウェーブレット変換手段及び/又は前記1次元垂直方向逆ウェーブレット変換手段の入出力先を切り替える入出力先切替え手段を有し、該入出力先切替え手段が、作成する画像データの形状に応じて、前記係数データに対し、前記最後のステージにおいて水平方向及び/又は垂直方向の1次元逆ウェーブレット変換を行なわないように、前記入出力先を切り替えることを特徴としている。   The reference invention of the present invention also includes a one-dimensional horizontal inverse wavelet transform means for performing one-dimensional inverse wavelet transform in the horizontal direction on coefficient data comprising one or more subbands, and a vertical direction with respect to the coefficient data. 2D inverse wavelet transform means for performing the one-dimensional inverse wavelet transform and 2D inverse wavelet transform means comprising the two-dimensional inverse wavelet transform means for performing two-dimensional inverse wavelet transform in one or more stages. An image processing apparatus, comprising: an input / output destination switching means for switching input / output destinations of the one-dimensional horizontal reverse wavelet transform means and / or the one-dimensional vertical reverse wavelet transform means in the last stage; The destination switching means applies the coefficient data to the coefficient data according to the shape of the image data to be created. So as not to perform a one-dimensional inverse wavelet transform in the horizontal direction and / or vertically in the last stage, it is characterized in that switches the output destination.

これにより、本発明の参考発明では、目的に応じて適切な逆ウェーブレット変換が行なわれて作成された、サブサンプリングされた画像データ出力することが可能になる。   Thereby, in the reference invention of the present invention, it is possible to output subsampled image data created by performing an appropriate inverse wavelet transform according to the purpose.

更に、本発明の参考発明は、前記最後のステージの後段の入力先を切り替える入力先切替え手段を有し、該入力先切替え手段が、前記最後のステージによる2次元逆ウェーブレット変換が前記係数データに対して施されていない画像データを作成する場合、前記最後のステージによる2次元逆ウェーブレット変換が施されていない画像データが前記後段に入力されるように前記入力先を切り替えることを特徴としている。   Furthermore, the reference invention of the present invention has an input destination switching means for switching an input destination of the latter stage of the last stage, and the input destination switching means performs two-dimensional inverse wavelet transform by the last stage on the coefficient data. When creating image data that is not applied to the image data, the input destination is switched so that image data that has not been subjected to the two-dimensional inverse wavelet transform in the last stage is input to the subsequent stage.

これにより、本発明の参考発明では、目的の画像データが、サブサンプリングされた画像データであるかサブサンプリングされていない画像データであるかを区別し、これに応じて適切な逆ウェーブレット変換を施すことが可能となる。   Thus, in the reference invention of the present invention, it is distinguished whether the target image data is subsampled image data or non-subsampled image data, and an appropriate inverse wavelet transform is performed accordingly. It becomes possible.

また、本発明の参考発明は、画像から複数のコンポーネント毎に画素データを読み取る画素データ読取り手段を有する画像処理装置であって、前記画素データ読取り手段が、入力の対象とするコンポーネントを画素単位又はタイル単位又はライン単位で切り替えて、前記画素データを読み取ることを特徴としている。   The reference invention of the present invention is an image processing apparatus having pixel data reading means for reading pixel data for each of a plurality of components from an image, wherein the pixel data reading means sets a component to be input as a pixel unit or The pixel data is read by switching in units of tiles or lines.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となる。   As a result, in the reference invention of the present invention, it is possible to input and output image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明は、前記画素データ読取り手段が、異なるコンポーネントの画素データを、1度に1つ又は2つ以上並列に読み取ることを特徴としている。   Furthermore, the reference invention of the present invention is characterized in that the pixel data reading means reads pixel data of different components one or more at a time in parallel.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となるだけでなく、画素データを並列に読み取ることが可能となる。   As a result, in the reference invention of the present invention, not only can the image data be input / output but also the pixel data can be read in parallel so that the buffer required for performing the wavelet transform does not increase. It becomes.

更に、本発明の参考発明は、前記複数のコンポーネントは、第1から第3のコンポーネントであり、前記画素データ読取り手段が、前記第2及び第3のコンポーネントの画像データにおける垂直方向のラインを間引く場合、前記第1のコンポーネントの画素データと前記第2のコンポーネントの画素データと前記第3のコンポーネントの画素データとを2:1:1の割合で読み取るように、前記コンポーネントを切り替えることを特徴としている。   Further, in the reference invention of the present invention, the plurality of components are first to third components, and the pixel data reading unit thins out vertical lines in the image data of the second and third components. In this case, the component is switched so that the pixel data of the first component, the pixel data of the second component, and the pixel data of the third component are read at a ratio of 2: 1: 1. Yes.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

更に、本発明の参考発明は、前記画素データ読取り手段が、前記第2及び第3のコンポーネントの画像データにおける水平方向のラインをさらに間引く場合、前記第2及び第3のコンポーネントにおける垂直方向の画素データを1画素飛びに読み取ることを特徴としている。   Furthermore, the reference invention of the present invention is such that when the pixel data reading means further thins out horizontal lines in the image data of the second and third components, the pixels in the vertical direction of the second and third components It is characterized in that data is read by skipping one pixel.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

更に、本発明の参考発明は、前記複数のコンポーネントは、第1から第3のコンポーネントであり、前記画素データ読取り手段が、前記第2及び第3のコンポーネントの画素データにおける水平成分のラインを間引く場合、前記第1のコンポーネントの画素データと前記第2のコンポーネントの画素データ又は前記第3のコンポーネントの画素データとを2:1の割合で読み取るように、前記コンポーネントを切り替え、また、前記第2のコンポーネントと前記第3のコンポーネントとをライン毎に切り替えることを特徴としている。   Further, in the reference invention of the present invention, the plurality of components are first to third components, and the pixel data reading means thins out horizontal component lines in the pixel data of the second and third components. In this case, the component is switched so that the pixel data of the first component and the pixel data of the second component or the pixel data of the third component are read at a ratio of 2: 1, and the second component The component and the third component are switched for each line.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

更に、本発明の参考発明は、画像データに対して水平方向及び/又は垂直方向のウェーブレット変換を1以上のステージにおいて行うウェーブレット変換工程を有する画像処理方法であって、該ウェーブレット変換工程が、前記画像データに対する垂直方向及び/又は水平方向のウェーブレット変換を所定のステージにおいて行わないことを特徴としている。   Furthermore, the reference invention of the present invention is an image processing method including a wavelet transform process for performing horizontal and / or vertical wavelet transform on image data in one or more stages, wherein the wavelet transform process includes the wavelet transform process described above. It is characterized in that vertical and / or horizontal wavelet transform for image data is not performed in a predetermined stage.

これにより、本発明の参考発明では、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することが可能になる。   As a result, according to the reference invention of the present invention, it is possible to easily generate code data from the subsampled image data without increasing the number of complicated circuits and the amount of data.

更に、本発明の参考発明は、前記ウェーブレット変換工程が、前記画像データにおける所定方向のラインが間引きされている場合、該所定方向に対するウェーブレット変換を前記所定のステージにおいて行わず、前記画像データにおけるラインがいずれも間引かれていない場合、全てのステージにおいてウェーブレット変換を行うことを特徴としている。   Furthermore, in the reference invention of the present invention, in the wavelet transform step, when a line in a predetermined direction in the image data is thinned, the wavelet transform in the predetermined direction is not performed in the predetermined stage, and the line in the image data is performed. If none of these are thinned out, the wavelet transform is performed in all stages.

これにより、本発明の参考発明では、サブサンプリングされた画像データに応じて、容易に符号データを生成することが可能になる。   Thus, according to the reference invention of the present invention, it is possible to easily generate code data in accordance with the subsampled image data.

更に、本発明の参考発明は、前記ウェーブレット変換工程において作成された係数データを符号化する符号化工程を有し、該符号化工程が、前記係数データに所定のサブバンドが含まれない場合、該所定のサブバンドに対する符号化は行わないことを特徴としている。   Furthermore, the reference invention of the present invention has an encoding step of encoding the coefficient data created in the wavelet transform step, and the encoding step does not include a predetermined subband in the coefficient data. The encoding is not performed for the predetermined subband.

これにより、本発明の参考発明では、圧縮率が高い符号データを生成することが可能となる。   Thereby, in the reference invention of the present invention, it is possible to generate code data having a high compression rate.

また、本発明の参考発明は、ウェーブレット変換により生成された複数のサブバンドより成る係数データに対して水平方向及び/又は垂直方向の逆ウェーブレット変換を1以上のステージにおいて行う逆ウェーブレット変換工程を有する画像処理方法であって、前記逆ウェーブレット変換方法が、前記係数データに対して行なう逆ウェーブレット変換を所定のステージにおいて行なわないことを特徴としている。   In addition, the reference invention of the present invention includes an inverse wavelet transform process for performing inverse wavelet transform in the horizontal direction and / or vertical direction in one or more stages on coefficient data composed of a plurality of subbands generated by wavelet transform. An image processing method, wherein the inverse wavelet transform method does not perform an inverse wavelet transform performed on the coefficient data at a predetermined stage.

これにより、本発明の参考発明では、目的に応じてサブサンプリングされた画像データ出力することが可能になる。   Thus, in the reference invention of the present invention, it is possible to output image data subsampled according to the purpose.

更に、本発明の参考発明は、前記逆ウェーブレット変換工程は、作成する画像データの形状に応じて、前記係数データに対する逆ウェーブレット変換を行なわないことを特徴としている。   Furthermore, the reference invention of the present invention is characterized in that the inverse wavelet transform step does not perform inverse wavelet transform on the coefficient data according to the shape of the image data to be created.

これにより、本発明の参考発明では、サブサンプリングされた画像データとサブサンプリングされていない画像データとを容易に切り替えて出力することが可能になる。   As a result, in the reference invention of the present invention, it is possible to easily switch and output subsampled image data and non-subsampled image data.

また、本発明の参考発明は、画像から複数のコンポーネント毎に画素データを読み取る画素データ読取り工程を有する画像読取り方法であって、前記画素データ読取り工程が、入力の対象とするコンポーネントを画素単位又はタイル単位又はライン単位で切り替えて、前記画素データを読み取ることを特徴としている。   The reference invention of the present invention is an image reading method including a pixel data reading step for reading pixel data for each of a plurality of components from an image, wherein the pixel data reading step sets a component to be input as a pixel unit or The pixel data is read by switching in units of tiles or lines.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となる。   As a result, in the reference invention of the present invention, it is possible to input and output image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明は、前記画素データ読取り工程が、異なるコンポーネントの画素データを、1度に1つ又は2つ以上並列に読み取ることを特徴としている。   Furthermore, the reference invention of the present invention is characterized in that the pixel data reading step reads pixel data of different components one at a time or two or more in parallel.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となるだけでなく、画素データを並列に読み取ることが可能となる。   As a result, in the reference invention of the present invention, not only can the image data be input / output but also the pixel data can be read in parallel so that the buffer required for performing the wavelet transform does not increase. It becomes.

更に、本発明の参考発明は、前記複数のコンポーネントが、第1から第3のコンポーネントであり、前記画素データ読取り工程が、前記第2及び第3のコンポーネントの画像データにおける垂直方向のラインを間引く場合、前記第1のコンポーネントの画素データと前記第2のコンポーネントの画素データと前記第3のコンポーネントの画素データとを2:1:1の割合で読み取るように、前記コンポーネントを切り替えることを特徴としている。   Further, in the reference invention of the present invention, the plurality of components are first to third components, and the pixel data reading step thins out vertical lines in the image data of the second and third components. In this case, the component is switched so that the pixel data of the first component, the pixel data of the second component, and the pixel data of the third component are read at a ratio of 2: 1: 1. Yes.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

更に、本発明の参考発明は、前記画素データ読取り工程が、前記第2及び第3のコンポーネントの画像データにおける水平方向のラインをさらに間引く場合、前記第2及び第3のコンポーネントにおける垂直方向の画素データを1画素飛びに読み取ることを特徴としている。   Furthermore, in the reference invention of the present invention, when the pixel data reading step further thins out horizontal lines in the image data of the second and third components, the vertical pixels in the second and third components It is characterized in that data is read by skipping one pixel.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

更に、本発明の参考発明は、前記複数のコンポーネントが、第1から第3のコンポーネントであり、前記画素データ読取り工程が、前記第2及び第3のコンポーネントの画素データにおける水平成分のラインを間引く場合、前記第1のコンポーネントの画素データと前記第2のコンポーネントの画素データ又は前記第3のコンポーネントの画素データとを2:1の割合で読み取るように、前記コンポーネントを切り替え、また、前記第2のコンポーネントと前記第3のコンポーネントとをライン毎に切り替えることを特徴としている。   Further, in the reference invention of the present invention, the plurality of components are first to third components, and the pixel data reading step thins out horizontal component lines in the pixel data of the second and third components. In this case, the component is switched so that the pixel data of the first component and the pixel data of the second component or the pixel data of the third component are read at a ratio of 2: 1, and the second component The component and the third component are switched for each line.

これにより、本発明の参考発明では、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   As a result, in the reference invention of the present invention, it is possible to read image data that has been appropriately subsampled so that a buffer required for performing wavelet transform does not increase.

以上、説明したように、本発明によれば、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することが可能になる。   As described above, according to the present invention, it is possible to easily generate code data from subsampled image data without increasing a complicated circuit and an amount of data.

〔本発明の特徴〕
本発明は、JPEG−2000を用いた画像圧縮において、従来の方法よりも圧縮効果を向上させることを可能にするものである。
[Features of the present invention]
The present invention makes it possible to improve the compression effect over image compression using JPEG-2000 over conventional methods.

これを実現するにあたり、本発明は、従来技術において間引きされた画像データを補間するために挿入される'0'ビットをまとめて、いわゆる'0'ビットプレーンを形成する。ここで'0'ビットプレーンとは、全て'0'の値で形成されたビットプレーンである。   In realizing this, the present invention collects the “0” bits inserted to interpolate the image data thinned out in the prior art to form a so-called “0” bit plane. Here, the “0” bit plane is a bit plane formed with a value of “0”.

即ち、例えばY,Cb,Crの3つのコンポーネント0(=Y),1(=Cb),2(=Cr)より成り、1タイルが128×128画素から構成された画像データであって、コンポーネント1,2におけるy方向の画素が1/2に間引きされ、64×128画素とされた画像データに対して、JPEG−2000に準じた2次元離散ウェーブレット変換を行う場合、従来技術では、コンポーネント1,2における各画素間に'0'を補間することで、全てのコンポーネントで同一の大きさ(128×128画素)とする必要があった。   That is, for example, image data composed of three components 0 (= Y), 1 (= Cb), and 2 (= Cr) of Y, Cb, and Cr, and each tile is composed of 128 × 128 pixels. In the case of performing two-dimensional discrete wavelet transform according to JPEG-2000 on image data in which pixels in the y direction in 1 and 2 are thinned to ½ and set to 64 × 128 pixels, the conventional technique uses component 1 , 2, it is necessary to make the same size (128 × 128 pixels) in all the components by interpolating “0” between the pixels.

これに対し、本発明では、コンポーネント1,2に対して'0'ビットプレーンを付加することで、全てのコンポーネントで同一の大きさ(128×128画素)となるように形成する。   On the other hand, in the present invention, a “0” bit plane is added to the components 1 and 2 so that all components have the same size (128 × 128 pixels).

JPEG−2000において、この'0'ビットプレーンは、1ビットのデータに圧縮される。従って、本発明では、補間を'0'ビットプレーンを付加することで行うため、より高圧縮が実現される。   In JPEG-2000, this “0” bit plane is compressed into 1-bit data. Therefore, in the present invention, since interpolation is performed by adding a “0” bit plane, higher compression is realized.

但し、本発明において'0'ビットプレーンが形成される領域はデータフォーマット毎に確定しているため、実際には、'0'ビットプレーンを付加する処理を省き、'0'ビットプレーンが所定のビットプレーンに形成されていると仮定して処理を実行する。   However, in the present invention, since the area where the “0” bit plane is formed is determined for each data format, in practice, the process of adding the “0” bit plane is omitted, and the “0” bit plane is set to a predetermined value. The process is executed assuming that the bit plane is formed.

〔第1の実施形態〕
以下、本発明を好適に実施した第1の実施形態について図面を用いて詳細に説明する。
[First Embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment in which the invention is preferably implemented will be described in detail with reference to the drawings.

(第1の実施形態の構成)
本実施形態は、図1に示す画像処理装置において、JPEG−2000による圧縮率を向上させるためのものである。
(Configuration of the first embodiment)
This embodiment is for improving the compression rate by JPEG-2000 in the image processing apparatus shown in FIG.

図1において、符号化/復号化処理部2は、図2に示すような機能ブロックを有して構成されるものであり、入力された画像データに対してカラー変換やウェーブレット変換や量子化や係数順序制御や係数モデリングやエントロピー符号化等の処理を施して符号化し、また、入力された符号データを上記の逆処理を施して復号化するものである。   In FIG. 1, an encoding / decoding processing unit 2 has a functional block as shown in FIG. 2, and performs color conversion, wavelet conversion, quantization, etc. on input image data. Coding is performed by performing processing such as coefficient order control, coefficient modeling, entropy coding, and the like, and input code data is decoded by performing the reverse processing described above.

また、図1において、画像読取部5は、CCDカメラ等で構成されるものであり、A/D変換部6は、画像読取部5で読み取られた画像データをA/D変換して出力するものである。   In FIG. 1, the image reading unit 5 includes a CCD camera or the like, and the A / D conversion unit 6 performs A / D conversion on the image data read by the image reading unit 5 and outputs the image data. Is.

また、I/Oインタフェース7は、A/D変換部6,RAM8,バス1,又は外部機器間のデータの送受信を仲介するインタフェースである。   The I / O interface 7 is an interface that mediates transmission / reception of data between the A / D converter 6, the RAM 8, the bus 1, or an external device.

更に、CPU3は、各部の制御等を実行し、メモリ4は、CPU3や符号化/復号化処理部2の作業領域等として機能する。   Further, the CPU 3 controls each unit and the like, and the memory 4 functions as a work area for the CPU 3 and the encoding / decoding processing unit 2.

この構成において、符号化/復号化処理部2の処理動作について、以下に図面を用いて詳細に説明する。   In this configuration, the processing operation of the encoding / decoding processing unit 2 will be described in detail below with reference to the drawings.

(符号化方法)
まず、符号化/復号化処理部2における符号化方法に関し、図面を用いて説明する。但し、以下の説明では、1タイルが128×128画素で構成されている場合を例に挙げて説明する。また、符号化/復号化処理部2におけるJPEG−2000の符号化機能ブロックの構成は、図2に示すものを引用する。但し、本実施形態では、ウェーブレット変換部20の構成及び動作が上述の説明とは異なり、以下に示すものとなる。
(Encoding method)
First, an encoding method in the encoding / decoding processing unit 2 will be described with reference to the drawings. However, in the following description, a case where one tile is composed of 128 × 128 pixels will be described as an example. The configuration of the JPEG-2000 encoding functional block in the encoding / decoding processing unit 2 is shown in FIG. However, in the present embodiment, the configuration and operation of the wavelet transform unit 20 are different from those described above, and are as follows.

また、以下の説明では、便宜上、画像データのデータ形式を、4:4:4フォーマット,4:2:2(H2V1)フォーマット,4:2:2(H1V2)フォーマット,4:1:1(4:2:0)フォーマットというデータ形式で表している。   In the following description, for convenience, the data format of the image data is 4: 4: 4 format, 4: 2: 2 (H2V1) format, 4: 2: 2 (H1V2) format, 4: 1: 1 (4 : 2: 0) format.

4:4:4フォーマットとは、RGB又はYCbCr形式の画像データにおいて、各コンポーネント(例えばY:Cb:Cr)の画素数の比が4:4:4(=1:1:1)である、即ち、間引きされていないデータを指す。   In the 4: 4: 4 format, the ratio of the number of pixels of each component (for example, Y: Cb: Cr) is 4: 4: 4 (= 1: 1: 1) in RGB or YCbCr format image data. That is, it indicates data that has not been thinned.

また、4:2:2(H2V1)フォーマットは、各コンポーネントの画素数の比が4:2:2であり、垂直方向(y方向)の画素が間引きされているデータを指し、4:2:2(H1V2)フォーマットは、各コンポーネントの画素数の比が4:2:2であり、水平方向(x方向)の画素が間引きされていデータを指す。   The 4: 2: 2 (H2V1) format indicates data in which the ratio of the number of pixels of each component is 4: 2: 2, and pixels in the vertical direction (y direction) are thinned out. The 2 (H1V2) format indicates data in which the ratio of the number of pixels of each component is 4: 2: 2, and pixels in the horizontal direction (x direction) are thinned out.

更に、4:1:1(H1V1)フォーマットは、各コンポーネントの画素数の日が4:1:1であり、垂直方向及び水平方向の画素が間引きされているデータを指す。   Furthermore, the 4: 1: 1 (H1V1) format indicates data in which the number of pixels of each component is 4: 1: 1 and the pixels in the vertical and horizontal directions are thinned out.

また、本実施形態では、ウェーブレット変換部20に入力される画像データがYCbCr形式であり、また、実行されるウェーブレット変換がレベル3までであるように構成した場合について説明する。   In the present embodiment, a case will be described in which the image data input to the wavelet transform unit 20 is in the YCbCr format and the wavelet transform to be executed is up to level 3.

・4:2:2(H2V1)フォーマットにサブサンプリングされた画像データを符号化する場合
まず、本実施形態において、4:2:2(H2V1)フォーマットにサブサンプリングされた画像データを符号化する方法を説明する。
When encoding image data subsampled into 4: 2: 2 (H2V1) format First, in this embodiment, a method of encoding image data subsampled into 4: 2: 2 (H2V1) format Will be explained.

図5は、4:2:2(H2V1)フォーマットの画像データに対して実行されるウェーブレット変換をステージ毎に説明するための図である。   FIG. 5 is a diagram for explaining the wavelet transform executed for the image data in the 4: 2: 2 (H2V1) format for each stage.

図5を参照すると、4:2:2(H2V1)フォーマットの画像データにおけるコンポーネント1,2は、x方向にサブサンプリング(間引き)がなされているため、入力データが64画素×128画素となる。また、出力データも同様に64画素×128画素となる。   Referring to FIG. 5, since the components 1 and 2 in the image data in the 4: 2: 2 (H2V1) format are subsampled (decimated) in the x direction, the input data is 64 pixels × 128 pixels. Similarly, the output data is 64 pixels × 128 pixels.

本実施形態では、このように64画素×128画素の画像データが入力されると、ウェーブレット変換部20において、コンポーネント1,2のデータに関しては既にx方向に対してローパスフィルタがかかったデータが入力されたとみなす。従って、図5中、ステージ1では、縦方向の変換のみを実行する。また、以降のステージ2,3では、縦横共に1回ずつの変換を実行する。   In the present embodiment, when image data of 64 pixels × 128 pixels is input in this way, the wavelet transform unit 20 inputs data that has already been subjected to a low-pass filter in the x direction for the data of components 1 and 2. It is considered that it was done. Therefore, in FIG. 5, only vertical conversion is performed at stage 1. Further, in subsequent stages 2 and 3, the conversion is executed once in both the vertical and horizontal directions.

このように処理を実行することで、コンポーネント1,2に対して最終的に得られる係数データは、3LL〜2HHまで及び1LHのみとなり、サブバンドの形状が図11に示すようになる。   By executing the processing in this way, the coefficient data finally obtained for the components 1 and 2 is only 3LL to 2HH and 1LH, and the subband shape is as shown in FIG.

但し、サブバンドの大きさは、何れのコンポーネントに関しても同じとする必要がある。従って、コンポーネント1,2に関するサブバンドでは、1HLと1HHとの係数データが存在するものと仮定して以降の処理が実行される。   However, the subband size needs to be the same for all components. Accordingly, in the subbands related to components 1 and 2, the subsequent processing is executed assuming that coefficient data of 1HL and 1HH exists.

即ち、図11に示す係数データをエントロピー符号化する際、エントロピー符号化部60は、予め存在すると仮定された1HL及び1HHのサブバンドの係数データが全て破棄された(トランケーションされた)とみなして符号化を実行する。これにより、本実施形態では、JPEG−2000に準拠した符号が生成される。   That is, when entropy encoding the coefficient data shown in FIG. 11, the entropy encoding unit 60 considers that the coefficient data of the 1HL and 1HH subbands assumed to exist in advance are all discarded (truncated). Perform encoding. Thereby, in this embodiment, a code compliant with JPEG-2000 is generated.

また、以上の方法では、各サブバンドの領域の大きさが、全てのコンポーネントにおいて同じであると見なすことが可能であるため、符号化の制御方法も同じとなる。従って、本実施形態では複雑な回路等を追加構成する必要なく、JPEG−2000に準拠した符号を生成することができる。   In the above method, since the size of each subband region can be considered to be the same in all components, the encoding control method is also the same. Therefore, in the present embodiment, a code conforming to JPEG-2000 can be generated without the need to additionally configure a complicated circuit or the like.

・4:2:2(H1V2)フォーマットにサブサンプリングされた画像データを符号化する場合
次に、本実施形態において、4:2:2(H1V2)フォーマットにサブサンプリングされた画像データを符号化する方法を説明する。
When encoding image data subsampled in 4: 2: 2 (H1V2) format Next, in this embodiment, image data subsampled in 4: 2: 2 (H1V2) format is encoded. A method will be described.

図6は、4:2:2(H1V2)フォーマットの画像データに対して実行されるウェーブレット変換をステージ毎に説明するための図である。   FIG. 6 is a diagram for explaining the wavelet transform executed for the image data in the 4: 2: 2 (H1V2) format for each stage.

図6を参照すると、コンポーネント1,2は、y方向にサブサンプリング(間引き)がなされているため、入力データが128画素×64画素となる。また、出力データも同様に128画素×64画素となる。   Referring to FIG. 6, since the components 1 and 2 are sub-sampled (decimated) in the y direction, the input data is 128 pixels × 64 pixels. Similarly, the output data is 128 pixels × 64 pixels.

本実施形態では、このように128画素×64画素の画像データが入力されると、ウェーブレット変換部20において、コンポーネント1,2のデータに関しては既にy方向に対してローパスフィルタがかかったデータが入力されたとみなす。従って、図6中、ステージ1では、横方向の変換のみを実行する。また、以降のステージ2,3では、縦横共に1回ずつの変換を実行する。   In this embodiment, when image data of 128 pixels × 64 pixels is input in this way, the wavelet transform unit 20 inputs data that has already been subjected to a low-pass filter in the y direction for the data of components 1 and 2. It is considered that it was done. Therefore, in FIG. 6, stage 1 performs only horizontal conversion. Further, in subsequent stages 2 and 3, the conversion is executed once in both the vertical and horizontal directions.

このように処理を実行することで、コンポーネント1,2に対して最終的に得られる係数データは、3LL〜2HHまで及び1HLのみとなり、サブバンドの形状が、図11に示す構成において1LHを1HLに置き換えたものとなる。   By executing the processing in this manner, the coefficient data finally obtained for the components 1 and 2 is 3LL to 2HH and only 1HL, and the shape of the subband is 1HL in the configuration shown in FIG. Will be replaced with.

従って、以降の処理は、上記と同様に、コンポーネント1,2に関するサブバンドでは、1LHと1HHとの'0'ビットプレーンが存在するものと仮定し、1LHと1HHとの係数データを破棄してエントロピー符号化を実行し、JPEG−2000に準拠した符号を生成する。   Therefore, in the subsequent processing, in the same manner as described above, it is assumed that there are '0' bit planes of 1LH and 1HH in the subbands related to components 1 and 2, and the coefficient data of 1LH and 1HH are discarded. Entropy encoding is executed to generate a code conforming to JPEG-2000.

この場合においても、各サブバンドの領域の大きさが、全てのコンポーネントにおいて同じであると見なすことが可能であるため、符号化の制御方法も同じとなり、複雑な回路等を追加構成する必要なくJPEG−2000に準拠した符号を生成することができる。   Even in this case, since the size of each subband region can be regarded as the same in all components, the encoding control method is the same, and there is no need to add a complicated circuit or the like. A code compliant with JPEG-2000 can be generated.

・4:1:1(H1V1)フォーマットにサブサンプリングされた画像データを符号化する場合
また、本実施形態において、4:1:1(H1V1)フォーマットにサブサンプリングされた画像データを符号化する方法を説明する。
When encoding image data subsampled into 4: 1: 1 (H1V1) format In the present embodiment, a method of encoding image data subsampled into 4: 1: 1 (H1V1) format Will be explained.

図7は、4:1:1(H1V1)フォーマットの画像データに対して実行するウェーブレット変換をステージ毎に説明するための図である。   FIG. 7 is a diagram for explaining the wavelet transform executed for the image data in the 4: 1: 1 (H1V1) format for each stage.

図7を参照すると、コンポーネント1,2は、x方向及びy方向にサブサンプリング(間引き)がなされているため、縦横共に1/2の入力データ(64画素×64画素)となる。また、出力されるデータも同様に64画素×64画素の出力データとなる。   Referring to FIG. 7, since the components 1 and 2 are sub-sampled (thinned out) in the x direction and the y direction, the input data (64 pixels × 64 pixels) is halved both vertically and horizontally. Similarly, the output data is output data of 64 pixels × 64 pixels.

本実施形態では、このように64画素×64画素の画像データが入力されると、ウェーブレット変換部20において、コンポーネント1,2のデータに関しては既にx方向及びy方向に対してローパスフィルタがかかったデータが入力された、即ち、1LLのデータが入力されたとみなす。従って、本実施形態では、ステージ1,2において縦横共に1回ずつの変換を実行し、3回目の変換、即ち、ステージ3を省略する。   In this embodiment, when image data of 64 pixels × 64 pixels is input in this way, the wavelet transform unit 20 has already applied low-pass filters to the components 1 and 2 in the x and y directions. It is assumed that data has been input, that is, 1 LL data has been input. Therefore, in this embodiment, the conversion is executed once in both the vertical and horizontal directions in the stages 1 and 2, and the third conversion, that is, the stage 3 is omitted.

このように処理を実行することで、コンポーネント1,2に対して最終的に得られる係数データは、3LL〜2HHまでとなる。   By executing the processing in this way, the coefficient data finally obtained for the components 1 and 2 is 3LL to 2HH.

従って、以降の処理は、コンポーネント1,2に関するサブバンドでは、1HLと1LHと1HHとの'0'ビットプレーンが存在するものと仮定し、1HLと1LHと1HHとの係数データを破棄してエントロピー符号化を実行し、JPEG−2000に準拠した符号を生成する。   Therefore, the subsequent processing assumes that there are '0' bit planes of 1HL, 1LH, and 1HH in the subbands related to components 1 and 2, and discards the coefficient data of 1HL, 1LH, and 1HH and entropy Encoding is executed to generate a code compliant with JPEG-2000.

この場合においても、各サブバンドの領域の大きさが、全てのコンポーネントにおいて同じであると見なすことが可能であるため、符号化の制御方法も同じとなり、複雑な回路等を追加構成する必要なく、JPEG−2000に準拠した符号を生成することができる。   Even in this case, since the size of each subband region can be regarded as the same in all components, the encoding control method is the same, and there is no need to add a complicated circuit or the like. , A code compliant with JPEG-2000 can be generated.

このように、本実施形態では、何れのコンポーネントにおいてもサブバンドの形状が同一であるとみなすことが可能であるため、入力フォーマットの形式を意識することなく、一定の処理によるエントロピー符号化でJPEG−2000に準拠した符号を得ることが可能となる。   As described above, in this embodiment, it is possible to consider that the shape of the subband is the same in any component. Therefore, JPEG is obtained by entropy coding by a certain process without being aware of the format of the input format. It becomes possible to obtain a code compliant with −2000.

即ち、JPEG−2000による画像符号化を行う装置において、例えば色差データがサブサンプリングされたYCbCrなどの画像データを入力する際、そのサブサンプリングされたCb,Crに対するウェーブレット変換の次数を換えるのみで、JPEG−2000フォーマットに準拠した符号を生成することが可能となる。   That is, in an image encoding apparatus based on JPEG-2000, for example, when inputting image data such as YCbCr in which color difference data is subsampled, it is only necessary to change the order of wavelet transform for the subsampled Cb and Cr. A code compliant with the JPEG-2000 format can be generated.

(ウェーブレット変換を実行するための構成)
次に、本実施形態において、上記した符号化方法を実現する際のウェーブレット変換を実行する構成を図12のブロック図を用いて詳細に説明する。
(Configuration for executing wavelet transform)
Next, in the present embodiment, a configuration for executing wavelet transform when realizing the above-described encoding method will be described in detail with reference to the block diagram of FIG.

図12は、2次元離散ウェーブレット変換を行うウェーブレット変換部20の構成例を示すブロック図である。また、図12において、『H』はx方向の1次元離散ウェーブレット変換を実行するブロック(以下、水平方向1次元離散ウェーブレット変換部という)であり、『V』はy方向の1次元離散ウェーブレット変換を実行するブロック(以下、垂直方向1次元離散ウェーブレット変換部という)である。更に、図12では、『H』,『V』を各々3つ設けることで、レベル3の2次元離散ウェーブレット変換を実現するよう構成されている。   FIG. 12 is a block diagram illustrating a configuration example of the wavelet transform unit 20 that performs two-dimensional discrete wavelet transform. In FIG. 12, “H” is a block that executes a one-dimensional discrete wavelet transform in the x direction (hereinafter referred to as a horizontal one-dimensional discrete wavelet transform unit), and “V” is a one-dimensional discrete wavelet transform in the y direction. (Hereinafter, referred to as a vertical one-dimensional discrete wavelet transform unit). Furthermore, in FIG. 12, the level 3 two-dimensional discrete wavelet transform is realized by providing three “H” and “V”.

また、それぞれのステージにおいて『V』と『H』とは構成を入れ換えても良い。更に、図12中、各セレクタには、所定の制御部(例えばCPU300)から制御信号が入力され、何れの入力を出力するかが選択される。   In addition, “V” and “H” may be interchanged in each stage. Furthermore, in FIG. 12, each selector receives a control signal from a predetermined control unit (for example, CPU 300), and selects which input is output.

・4:4:4フォーマットの画像データが入力された場合
この構成において、4:4:4フォーマットの画像データが入力された場合、この画像データは、まず、V101においてy方向の1次元離散ウェーブレット変換が実行される。その後、V101から出力されたデータは、セレクタ102を介してH103に入力され、x方向の1次元離散ウェーブレット変換が実行される。これにより、ステージ1の処理が完了する。
When 4: 4: 4 format image data is input In this configuration, when 4: 4: 4 format image data is input, this image data is first converted to a one-dimensional discrete wavelet in the y direction in V101. Conversion is performed. Thereafter, the data output from V101 is input to H103 via the selector 102, and the one-dimensional discrete wavelet transform in the x direction is executed. Thereby, the processing of stage 1 is completed.

その後、H103から出力されたデータは、セレクタ104を介してV105に入力され、V105,H106によりステージ2の処理が実行される。更に、同様にV107,H108によりステージ3の処理が実行される。   Thereafter, the data output from H103 is input to V105 via the selector 104, and the processing of stage 2 is executed by V105 and H106. Further, the processing of stage 3 is similarly executed by V107 and H108.

このように、4:4:4フォーマットの画像データが入力された場合、本実施形態では、入力された画像データにおける全てのコンポーネントに対して3組全ての『H』,『V』が使用され、最終的な係数データが取得される。   As described above, when 4: 4: 4 format image data is input, in this embodiment, all three sets of “H” and “V” are used for all components in the input image data. The final coefficient data is obtained.

・4:2:2(H2V1)フォーマットの画像データが入力された場合
また、4:2:2(H2V1)フォーマットの画像データが入力された場合、コンポーネント0に関しては、上記4:4:4フォーマットの場合と同様に、3組全ての『H』,『V』を使用して、最終的な係数データを取得する。
When 4: 2: 2 (H2V1) format image data is input Also, when 4: 2: 2 (H2V1) format image data is input, the above component 4: 4: 4 format is used for component 0 As in the case of, final coefficient data is obtained using all three sets of “H” and “V”.

また、コンポーネント1,2に関しては、入力された画像データにV101においてy方向の1次元離散ウェーブレット変換が実行された後、これがセレクタ104を介してV105へ入力される。   For components 1 and 2, y-direction one-dimensional discrete wavelet transform is performed on the input image data in V 101, and this is input to V 105 via the selector 104.

即ち、4:2:2(H2V1)フォーマットの画像データが入力された場合、セレクタ104がV101から入力されたデータを出力するよう動作する。   That is, when image data in the 4: 2: 2 (H2V1) format is input, the selector 104 operates to output the data input from V101.

これにより、コンポーネント1,2に対するステージ1では、y方向の1次元離散ウェーブレット変換のみが実行され、x方向の1次元離散ウェーブレット変換が省略される。また、ステージ2,3の処理は、4:4:4フォーマットと同様に実行される。   Thus, in stage 1 for components 1 and 2, only the one-dimensional discrete wavelet transform in the y direction is executed, and the one-dimensional discrete wavelet transform in the x direction is omitted. Further, the processing in stages 2 and 3 is executed in the same manner as in the 4: 4: 4 format.

従って、4:2:2(H2V1)フォーマットの画像データが入力された場合、本実施形態では、入力された画像データにおけるコンポーネント0に対してのみ3組全ての『H』,『V』が使用され、コンポーネント1,2に対してはステージ1の『H』以外の『H』,『V』が使用され、最終的な係数データが取得される。   Therefore, when image data in 4: 2: 2 (H2V1) format is input, in this embodiment, all three sets of “H” and “V” are used only for component 0 in the input image data. For components 1 and 2, “H” and “V” other than “H” in stage 1 are used, and final coefficient data is acquired.

・4:2:2(H1V2)フォーマットの画像データが入力された場合
また、4:2:2(H1V2)フォーマットの画像データが入力された場合、コンポーネント0に関しては、上記4:4:4フォーマットの場合と同様に、3組全ての『H』,『V』を使用して、最終的な係数データを取得する。
When 4: 2: 2 (H1V2) format image data is input Also, when 4: 2: 2 (H1V2) format image data is input, the above-described 4: 4: 4 format is used for component 0 As in the case of, final coefficient data is obtained using all three sets of “H” and “V”.

また、コンポーネント1,2に関しては、入力された画像データが、セレクタ102を介してH103に入力され、x方向の1次元離散ウェーブレット変換が実行される。   For components 1 and 2, the input image data is input to H103 via the selector 102, and the one-dimensional discrete wavelet transform in the x direction is executed.

即ち、4:2:2(H1V2)フォーマットの画像データが入力された場合、この画像データは、V101には入力されず、セレクタ102に入力され、セレクタ102がこの画像データをH103へ出力する。   That is, when image data in the 4: 2: 2 (H1V2) format is input, this image data is not input to V101 but is input to the selector 102, and the selector 102 outputs this image data to H103.

これにより、コンポーネント1,2に対するステージ1では、x方向の1次元離散ウェーブレット変換のみが実行され、y方向の1次元離散ウェーブレット変換が省略される。また、ステージ2,3の処理は、4:4:4フォーマットと同様に実行される。   Thereby, in stage 1 for components 1 and 2, only the one-dimensional discrete wavelet transform in the x direction is executed, and the one-dimensional discrete wavelet transform in the y direction is omitted. Further, the processing in stages 2 and 3 is executed in the same manner as in the 4: 4: 4 format.

従って、4:2:2(H1V2)フォーマットの画像データが入力された場合、本実施形態では、入力された画像データにおけるコンポーネント0に対してのみ3組全ての『H』,『V』が使用され、コンポーネント1,2に対してはステージ1の『V』以外の『H』,『V』が使用され、最終的な係数データが取得される。   Therefore, when image data in 4: 2: 2 (H1V2) format is input, in this embodiment, all three sets of “H” and “V” are used only for component 0 in the input image data. For components 1 and 2, “H” and “V” other than “V” in stage 1 are used, and final coefficient data is acquired.

・4:1:1(H1V1)フォーマットの画像データが入力された場合
更に、4:1:1(H1V1)フォーマットの画像データが入力された場合、コンポーネント0に関しては、上記4:4:4フォーマットの場合と同様に、3組全ての『H』,『V』を使用して、最終的な係数データを取得する。
When the image data in the 4: 1: 1 (H1V1) format is input Further, when the image data in the 4: 1: 1 (H1V1) format is input, regarding the component 0, the above 4: 4: 4 format is used. As in the case of, final coefficient data is obtained using all three sets of “H” and “V”.

また、コンポーネント1,2に関しては、V101及びH103には入力されず、セレクタ104を介してH105に入力され、ステージ2以降の処理が実行される。   In addition, components 1 and 2 are not input to V101 and H103, but are input to H105 via the selector 104, and the processes after stage 2 are executed.

即ち、4:1:1(H1V1)フォーマットの画像データが入力された場合、この画像データは、セレクタ104に入力され、セレクタ104がこの画像データをV105へ出力する。   That is, when image data in the 4: 1: 1 (H1V1) format is input, this image data is input to the selector 104, and the selector 104 outputs this image data to V105.

これにより、コンポーネント1,2に対するステージ1では、ステージ1の処理が省略され、ステージ2,3の処理が、4:4:4フォーマットと同様に実行される。   Thereby, in stage 1 for components 1 and 2, the process in stage 1 is omitted, and the processes in stages 2 and 3 are executed in the same manner as in the 4: 4: 4 format.

従って、4:1:1(H1V1)フォーマットの画像データが入力された場合、本実施形態では、入力された画像データにおけるコンポーネント0に対してのみ3組全ての『H』,『V』が使用され、コンポーネント1,2に対してはステージ2以降の『H』,『V』が使用され、最終的な係数データが取得される。   Therefore, when image data in the 4: 1: 1 (H1V1) format is input, in this embodiment, all three sets of “H” and “V” are used only for the component 0 in the input image data. Then, “H” and “V” after stage 2 are used for the components 1 and 2 to obtain final coefficient data.

このように、ステージ1のブロックの前に切り替え器を設ける構成等のように、ウェーブレット処理に簡単な切り替え機能を追加することで、サブサンプリングされた画像データとサブサンプリングされていない画像データとに関係なく、全てのフォーマットに対応した2次元離散ウェーブレット変換を実現することが可能となる。   Thus, by adding a simple switching function to the wavelet processing, such as a configuration in which a switch is provided in front of the block of stage 1, subsampled image data and unsubsampled image data are added. Regardless, two-dimensional discrete wavelet transform corresponding to all formats can be realized.

即ち、JPEG−2000による画像符号化を行う装置において、例えば色差データがサブサンプリングされたYCbCrなどの画像データと、サブサンプリングされていないYCbCR,RGBなどの画像データとで、ウェーブレット変換の次数を換えることにより、両方の画像データに対して統一的にJPEG−2000フォーマットに準拠した符号を生成することが可能となる。   That is, in an apparatus that performs image coding by JPEG-2000, for example, the order of wavelet transform is changed between image data such as YCbCr in which color difference data is subsampled and image data such as YCbCR and RGB that are not subsampled. This makes it possible to generate a code that conforms to the JPEG-2000 format in a unified manner for both image data.

(逆ウェーブレット変換を実行するための構成)
次に、本実施形態において、逆ウェーブレット変換を実行する構成を図13のブロック図を用いて詳細に説明する。
(Configuration for performing inverse wavelet transform)
Next, in the present embodiment, a configuration for executing the inverse wavelet transform will be described in detail with reference to the block diagram of FIG.

図13は、2次元離散逆ウェーブレット変換を行うウェーブレット変換部20の構成例を示すブロック図である。また、図13において、『IH』はx方向の1次元離散逆ウェーブレット変換を実行するブロック(以下、水平方向1次元離散逆ウェーブレット変換部という)であり、『IV』はy方向の1次元離散逆ウェーブレット変換を実行するブロック(垂直方向1次元離散逆ウェーブレット変換部という)である。更に、図13では、『IH』,『IV』を各々3つ設けることで、レベル3の2次元離散逆ウェーブレット変換を実現するよう構成されている。   FIG. 13 is a block diagram illustrating a configuration example of the wavelet transform unit 20 that performs two-dimensional discrete inverse wavelet transform. In FIG. 13, “IH” is a block that executes a one-dimensional discrete inverse wavelet transform in the x direction (hereinafter referred to as a horizontal one-dimensional discrete inverse wavelet transform unit), and “IV” is a one-dimensional discrete in the y direction. This block executes inverse wavelet transform (referred to as a vertical one-dimensional discrete inverse wavelet transform unit). Further, in FIG. 13, three “IH” and “IV” are provided, respectively, so that a level 3 two-dimensional discrete inverse wavelet transform is realized.

また、それぞれのステージにおいて『IV』と『IH』とは構成を入れ換えても良い。更に、図13中、各セレクタには、所定の制御部(例えばCPU300)から制御信号が入力され、何れの入力を出力するかが選択される。   In each stage, “IV” and “IH” may be interchanged. Further, in FIG. 13, each selector receives a control signal from a predetermined control unit (for example, CPU 300) and selects which input is to be output.

また、この構成には、JPEG−2000標準に準拠した符号により得られたウェーブレットの係数データが入力される。   In addition, wavelet coefficient data obtained by a code compliant with the JPEG-2000 standard is input to this configuration.

・4:4:4フォーマットの画像データを出力する場合
この構成において、最終的に4:4:4フォーマットの画像データを出力させる場合、3組全ての『IH』,『IV』を使用して、2次元離散逆ウェーブレット変換を実行する。
When outputting 4: 4: 4 format image data In this configuration, when finally outputting 4: 4: 4 format image data, all three sets of “IH” and “IV” are used. Perform a two-dimensional discrete inverse wavelet transform.

即ち、セレクタ206は、IH205から入力された係数データをIV207に入力する。これにより、出力側では、全ての『IH』,『IV』を経て、IV207より出力された画像データが取得される。   That is, the selector 206 inputs the coefficient data input from the IH 205 to the IV 207. Thereby, on the output side, the image data output from the IV 207 is acquired through all the “IH” and “IV”.

・4:2:2(H2V1)フォーマットの画像データを出力する場合
これに対して、4:2:2(H2V1)フォーマットの画像データを出力させる場合、セレクタ206は、IV204より出力された係数データをIV207へ出力する。これにより、出力側では、IH205、即ち、ステージ3におけるx方向の1次元離散逆ウェーブレット変換が省略されて画像データが取得される。
When outputting image data in 4: 2: 2 (H2V1) format On the other hand, when outputting image data in 4: 2: 2 (H2V1) format, the selector 206 outputs the coefficient data output from the IV 204. Is output to IV207. Thereby, on the output side, the IH 205, that is, the one-dimensional discrete inverse wavelet transform in the x direction in the stage 3 is omitted, and the image data is acquired.

・4:2:2(H1V2)フォーマットの画像データを出力する場合
また、4:2:2(H1V2)フォーマットの画像データを出力させる場合、セレクタ206は、IH205より出力されたデータを出力し、出力側において、このセレクタ206から出力されたデータを取得する。これにより、出力側では、IV207、即ち、ステージ3におけるy方向の1次元離散逆ウェーブレット変換が省略されて画像データが取得される。
When outputting image data in 4: 2: 2 (H1V2) format When outputting image data in 4: 2: 2 (H1V2) format, the selector 206 outputs the data output from the IH205, On the output side, the data output from the selector 206 is acquired. Thereby, on the output side, IV207, that is, the one-dimensional discrete inverse wavelet transform in the y direction in stage 3, is omitted, and image data is acquired.

・4:1:1(H1V1)フォーマットの画像データを出力する場合
更に、4:1:1(H1V1)フォーマットの画像データを出力させる場合、出力側において、IV204から出力されたデータを取得する。これにより、出力側では、IH205及びIV207、即ち、ステージ3におけるx方向及びy方向の2次元離散逆ウェーブレット変換が省略されて画像データが取得される。
When outputting image data in the 4: 1: 1 (H1V1) format Further, when outputting image data in the 4: 1: 1 (H1V1) format, the data output from the IV 204 is acquired on the output side. Thereby, on the output side, the IH 205 and IV 207, that is, the two-dimensional discrete inverse wavelet transform in the x direction and the y direction in the stage 3 is omitted, and image data is acquired.

このように、ステージ3のブロックの前に切り替え器を設け、取得したい画像データのフォーマットに応じてステージ3の変換を切り替えることで、全てのフォーマットに対応した2次元離散逆ウェーブレット変換を実現し、色差データがサブサンプリングされたYCbCrなどの画像データの出力と、サブサンプリングされていない画像データの出力とを切り替えることが可能となる。   In this way, by providing a switch in front of the block of stage 3 and switching the conversion of stage 3 according to the format of the image data to be acquired, two-dimensional discrete inverse wavelet transform corresponding to all formats is realized, It is possible to switch between output of image data such as YCbCr in which color difference data is subsampled and output of image data that is not subsampled.

(画像データ入出力方法)
また、図2のように構成した符号化機能ブロックへ画像データを入力する際に好適な画像データ入出力方法について、以下に図面を用いて詳細に説明する。また、この画像データ入出力方法は、画像読取部5において動作するものである。
(Image data input / output method)
An image data input / output method suitable for inputting image data to the encoding function block configured as shown in FIG. 2 will be described below in detail with reference to the drawings. This image data input / output method operates in the image reading unit 5.

一般的に、NTSC方式などでは画素毎にコンポーネントを切り替えながらYCbCr信号を順番に入出力する構成となっているが、デジタルカメラなどではフレーム単位でコンポーネントの順番を切り替えてYCbCr信号を入出力する構成となっている。   Generally, in the NTSC system or the like, the YCbCr signal is input / output in order while switching the components for each pixel. However, in the digital camera or the like, the order of the components is switched in units of frames and the YCbCr signal is input / output. It has become.

しかしながら、図2に示す符号化機能ブロックに対し、フレーム単位でコンポーネントの順番を切り替えてYCbCr信号を入出力するよう構成した場合、画像データを一時格納するバッファに要求されるサイズが非常に大きなものとなり、これを搭載するLSIのチップサイズが巨大化してしまう。   However, when the encoding function block shown in FIG. 2 is configured to input and output YCbCr signals by switching the order of components in units of frames, the size required for a buffer for temporarily storing image data is very large. Thus, the chip size of the LSI on which this is mounted becomes enormous.

そこで、本実施形態では、入力された画像データを効率的にウェーブレット変換するために、以下に示す方法(画像データ入出力方法)で画像データを入力し、符号化機能ブロックへ出力するよう構成する。   Therefore, in the present embodiment, in order to efficiently perform wavelet transform on the input image data, the image data is input by the following method (image data input / output method) and output to the encoding function block. .

本実施形態による画像データ入出力方法では、図14に示すように、まず、画像データを基準となる画像単位(タイル)に分割する。その後、このタイルに分割された画像データを、タイル毎に順次入力し、これを図2に示す符号化機能ブロックへ出力する。   In the image data input / output method according to the present embodiment, as shown in FIG. 14, first, the image data is divided into reference image units (tiles). Thereafter, the image data divided into the tiles is sequentially input for each tile, and is output to the encoding function block shown in FIG.

また、各タイルに対しては、図15に示すように、例えば左上を始点とし、また、右下を終点としてラスタ順に画像データが入力され、これが出力される。   For each tile, as shown in FIG. 15, for example, image data is input in raster order with the upper left as a start point and the lower right as an end point, and this is output.

ここで、(表1)に本実施形態において入出力される画像データのフォーマットの一覧を例示する。   Here, (Table 1) illustrates a list of image data formats input and output in the present embodiment.

Figure 0004344391
(表1)に示すように、本実施形態では、各フォーマット(4:4:4,4:2:2(H2V1),4:2:2(H1V2),4:1:1(4:2:0))に対して、例えば8ビット又は10ビットの色形式が対応付けられている。また、色形式としては、RGB形式又はYCbCr形式が用いられている。
Figure 0004344391
As shown in Table 1, in this embodiment, each format (4: 4: 4, 4: 2: 2 (H2V1), 4: 2: 2 (H1V2), 4: 1: 1 (4: 2 : 0)) is associated with, for example, an 8-bit or 10-bit color format. As the color format, the RGB format or the YCbCr format is used.

・4:4:4フォーマット(RGB,YCbCr)
この中で、4:4:4フォーマットのRGB形式又はYCbCr形式による画像データを、時系列に従って入出力する際の動作を、図16の(a)を用いて説明する。
・ 4: 4: 4 format (RGB, YCbCr)
Among these, the operation when inputting / outputting image data in the 4: 4: 4 format RGB format or YCbCr format in time series will be described with reference to FIG.

図16の(a)において、4:4:4フォーマットのRGB形式又はYCbCr形式による画像データを入出力する際は、タイル中の画素をコンポーネント(R,G,B、又は、Y,Cb,Cr)を順次切り替えながら入力し、これを出力するよう動作する。   In (a) of FIG. 16, when inputting / outputting image data in the 4: 4: 4 format RGB format or YCbCr format, the pixels in the tile are converted into components (R, G, B, or Y, Cb, Cr). ) Are input while switching sequentially, and the operation is performed to output this.

即ち、本実施形態では、各コンポーネント(R,G,B、又は、Y,Cb,Cr)に対する処理が分離されずに実行されている。   That is, in the present embodiment, the processing for each component (R, G, B, or Y, Cb, Cr) is executed without being separated.

・4:2:2(H2V1)フォーマット(YCbCr)
また、4:2:2(H2V1)フォーマットのYCbCr形式による画像データを、時系列に従って入出力する際の動作を、図16の(b)を用いて説明する。
-4: 2: 2 (H2V1) format (YCbCr)
The operation when inputting / outputting image data in the 4: 2: 2 (H2V1) format in the YCbCr format in time series will be described with reference to FIG.

図16の(b)において、4:2:2(H2V1)フォーマットのYCbCr形式による画像データを入出力する際は、YとCb若しくはCrとのそれぞれのコンポーネントに対する処理が分離されて、実行される。   In (b) of FIG. 16, when inputting / outputting image data in the 4: 2: 2 (H2V1) format YCbCr format, the processing for each component of Y and Cb or Cr is separated and executed. .

即ち、図16の(b)において、コンポーネント1(=Y)に対する処理では、タイルが128×128画素のタイルとされているが、コンポーネント1(=Cb),2(=Cr)に対する処理では、タイルが64×128画素のタイルとされている。   That is, in FIG. 16B, the tile for the process for component 1 (= Y) is a 128 × 128 pixel tile, but in the process for component 1 (= Cb), 2 (= Cr), The tile is a 64 × 128 pixel tile.

・4:2:2(H1V2)フォーマット(YCbCr)
また、同様に、4:2:2(H1V2)フォーマットのYCbCr形式による画像データを入出力する際は、図16の(c)に示す図において、コンポーネント0(=Y)に対する処理でタイルが128×128画素とされ、コンポーネント1(=Cb),2(=Cr)に対する処理でタイルが128×64画素とされている。
-4: 2: 2 (H1V2) format (YCbCr)
Similarly, when inputting / outputting image data in the 4: 2: 2 (H1V2) format YCbCr format, in the diagram shown in (c) of FIG. 16, the tile is 128 in the process for the component 0 (= Y). The tiles are set to 128 × 64 pixels in the processing for the components 1 (= Cb) and 2 (= Cr).

従って、この場合でも、YとCb若しくはCrとのそれぞれのコンポーネントに対する処理が分離されて、実行されている。   Accordingly, even in this case, the processes for the components Y and Cb or Cr are separated and executed.

・4:1:1(4:2:0)フォーマット(YCbCr)
更に、4:1:1(4:2:0)フォーマットのYCbCr形式による画像データを入出力する際は、図16の(d)に示す図において、コンポーネント0(=Y)に対する処理でタイルが128×128画素とされ、コンポーネント1(=Cb),2(=Cr)に対する処理でタイルが64×64画素とされている。
・ 4: 1: 1 (4: 2: 0) format (YCbCr)
Furthermore, when inputting / outputting image data in the YCbCr format of the 4: 1: 1 (4: 2: 0) format, in the diagram shown in FIG. 16 (d), the tile is processed by the process for the component 0 (= Y). The tiles are set to 128 × 128 pixels, and the tiles are set to 64 × 64 pixels by the processing for the components 1 (= Cb) and 2 (= Cr).

従って、この場合でも、YとCb若しくはCrとのそれぞれのコンポーネントに対する処理が分離されて、実行されている。   Accordingly, even in this case, the processes for the components Y and Cb or Cr are separated and executed.

このように、本実施形態では、間引きされていない画像データを入出力する際は、各コンポーネントに対する処理を分離せずに実行し、Cb,Crに対する画素が間引きされた画像データを入出力する際は、Yのコンポーネントに対する処理とCb若しくはCrのコンポーネントに対する処理とを分離して実行している。これにより、各フォーマットに応じて適切な画像データ入出力方法が実現される。   As described above, in this embodiment, when inputting / outputting image data that has not been thinned out, the processing for each component is executed without being separated, and when inputting / outputting image data in which pixels for Cb and Cr are thinned out. The process for the Y component and the process for the Cb or Cr component are executed separately. Thereby, an image data input / output method appropriate for each format is realized.

(画像データ入出力方法の具体例)
次に、以下に示す(表2)〜(表13)を用いて、(表1)に示した入出力画像フォーマット毎の画像データ入出力方法の具体例を挙げ、これを時系列に従って説明する。
(Specific example of image data input / output method)
Next, a specific example of the image data input / output method for each input / output image format shown in (Table 1) will be given using (Table 2) to (Table 13) shown below, and this will be described in time series. .

但し、以下に示す各表において、画素データは、R(赤),G(緑),B(青)、又は、Y(照度),Cb・Cr(色差)により構成されている。   However, in each table shown below, pixel data is composed of R (red), G (green), B (blue), Y (illuminance), and Cb · Cr (color difference).

また、表中『クロック#』は、画素データの入力(出力)開始からのクロック数を示すものであり、『サイクル#』は、繰り返される処理の周期をクロックに準じて示すものであり、『画素#』は、処理対象の画素の番号(図16に示すタイルにおいて各画素に付されている番号:但し、コンポーネント0(=Y)に関する)を示すものであり、画素データ(又は画素データ3,2,1,0)は、各画素をコンポーネント毎に読み取った際の値を示すものである。   In the table, “clock #” indicates the number of clocks from the start of pixel data input (output), and “cycle #” indicates the cycle of repeated processing according to the clock. “Pixel #” indicates the number of the pixel to be processed (the number assigned to each pixel in the tile shown in FIG. 16; however, regarding component 0 (= Y)), and pixel data (or pixel data 3). , 2, 1, 0) indicate values when each pixel is read for each component.

更に、表中、画素データにおける『×』は、画素データの入出力無しを示し、説明中'n'は任意の正の整数である。   Further, in the table, “x” in the pixel data indicates that there is no input / output of pixel data, and “n” in the description is an arbitrary positive integer.

・4:4:4フォーマット(RGB,YCbCr)の入出力(シリアル)   ・ 4: 4: 4 format (RGB, YCbCr) input / output (serial)

Figure 0004344391
(表2)は、4:4:4フォーマット(RGB,YCbCr)の画素データを画素順にシリアルに入出力する際の流れを時系列に従って説明するための表である。
Figure 0004344391
(Table 2) is a table for explaining the flow when serially inputting / outputting pixel data of 4: 4: 4 format (RGB, YCbCr) in pixel order in chronological order.

(表2)を参照すると、サイクル'0'で画素'n'の照度'Yn'(又は'Rn')が入力(出力)され、サイクル'1'で画素'n'の色差'Cbn'(又は'Gn')が入力され、サイクル'2'で画素'n'の色差'Crn'(又は'Bn')が入力(出力)される。また、(表2)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えば128×128画素のタイルであれば16383個の画素)に対して完了するまで繰り返される。   Referring to Table 2, the illuminance “Yn” (or “Rn”) of the pixel “n” is input (output) at the cycle “0”, and the color difference “Cbn” (at the cycle “1”) of the pixel “n”. Or “Gn”) is input, and the color difference “Crn” (or “Bn”) of the pixel “n” is input (output) in cycle “2”. In Table 2, this series of operations is one cycle. This cycle is repeated until completion for all pixels (for example, 16383 pixels for a 128 × 128 pixel tile).

このように、(表2)では、3クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 2), pixel data of one pixel is input / output in three clocks.

・4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の入出力(シリアル)   -4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) input / output (serial)

Figure 0004344391
また、(表3)は、4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順にシリアルに入出力する際の流れを時系列に従って説明するための表である。但し、(表3)は、画素単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
Further, (Table 3) is a table for explaining the flow when serially inputting / outputting pixel data of 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) in pixel order in time series. is there. However, (Table 3) shows a flow in a case where Cb and Cr are alternately input / output in units of pixels.

(表3)の(a)を参照すると、サイクル'0'で画素'n'の色差'Cbn'が入力(出力)され、サイクル'1'で画素'n'の照度'Yn'が入力(出力)され、サイクル'2'で画素'n'の色差'Crn'が入力(出力)され、サイクル'3'で画素'n+1'の照度'Yn+1'が入力(出力)される。また、(表3)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては64×128画素の8191画素))に対して完了するまで繰り返される。   Referring to (a) in (Table 3), the color difference “Cbn” of the pixel “n” is input (output) in the cycle “0”, and the illuminance “Yn” of the pixel “n” is input (output) in the cycle “1” ( The color difference “Crn” of the pixel “n” is input (output) in the cycle “2”, and the illuminance “Yn + 1” of the pixel “n + 1” is input (output) in the cycle “3”. In Table 3, this series of operations is one cycle. In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, 8191 pixels of 64 × 128 pixels for components 1 and 2)) ) Until it is completed.

このように、(表3)では、4クロックで2画素の画素データの入出力が行われる。   As described above, in (Table 3), pixel data of two pixels is input / output in four clocks.

但し、4:1:1フォーマットの画素データを読み出す場合、(表3)の(b)に示すように、コンポーネント0(=Y)におけるラインにおいて、上から偶数番目のラインに対して行われる画素データの入出力で、色差Cb,Crの画素データが入力(出力)されない。   However, when pixel data in the 4: 1: 1 format is read, as shown in (b) of (Table 3), pixels to be performed on the even-numbered line from the top in the line in the component 0 (= Y) The pixel data of the color differences Cb and Cr are not input (output) during data input / output.

・4:2:2(H1V2)フォーマット(YCbCr)の入出力(シリアル)   -4: 2: 2 (H1V2) format (YCbCr) input / output (serial)

Figure 0004344391
また、(表4)は、4:2:2(H1V2)フォーマット(YCbCr)の画素データを画素順にシリアルに入出力する際の流れを時系列に従って説明するための表である。但し、(表4)は、ライン単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
Further, (Table 4) is a table for explaining the flow when serially inputting / outputting pixel data in the 4: 2: 2 (H1V2) format (YCbCr) in the order of pixels in time series. However, (Table 4) shows a flow in a case where Cb and Cr are alternately input / output in line units.

コンポーネント0(=Y)における奇数番目のラインにおいては、(表4)の(a)に示すように、例えばサイクル'0'で画素'n'の色差'Cbn'が入力(出力)され、サイクル'1'で画素'n'の照度'Yn'が入力(出力)される。また、コンポーネント0(=Y)における奇数番目のラインにおいては、(表4)の(b)に示すように、例えばサイクル'0'(例えばクロック'256':但し、1タイルが128×128画素とする)で画素'n(0)'の色差'Crn(Cr0)'が入力(出力)され、サイクル'1'(クロック'257')で画素'n+127(128)'の照度'Yn+127(Y128)'が入力(出力)される。   In the odd-numbered line in the component 0 (= Y), as shown in (a) of (Table 4), for example, the color difference “Cbn” of the pixel “n” is input (output) in cycle “0”, and the cycle “1” inputs (outputs) the illuminance “Yn” of the pixel “n”. In addition, in the odd-numbered line in the component 0 (= Y), as shown in (b) of (Table 4), for example, cycle “0” (for example, clock “256”: where 1 tile is 128 × 128 pixels) The color difference “Crn (Cr0)” of the pixel “n (0)” is input (output), and the illuminance “Yn + 127 (Y128) of the pixel“ n + 127 (128) ”in the cycle“ 1 ”(clock“ 257 ”). ) 'Is input (output).

このように、(表4)では、2クロックを1サイクルとし、ライン毎に入出力色差Cb,Crを入れ換えている。   Thus, in (Table 4), two clocks are set as one cycle, and input / output color differences Cb and Cr are exchanged for each line.

また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては128×64画素の8191画素))に対して行われるまで繰り返される。   In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, for components 1 and 2 are 8191 pixels of 128 × 64 pixels)) ) Until it is done.

このように、(表4)では、2クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 4), pixel data of one pixel is input / output in two clocks.

・4:2:2(H2V1,H1V2)フォーマット(YCbCr)の入出力(シリアル)   -4: 2: 2 (H2V1, H1V2) format (YCbCr) input / output (serial)

Figure 0004344391
また、(表5)は、4:2:2(H2V1,H1V2)フォーマット(YCbCr)の画素データをタイル順にシリアルに入出力する際の流れを時系列に従って説明するための表である。但し、(表5)は、タイル単位でYを入出力し、次にタイル単位でCb,Crを交互に入出力するよう構成した場合の流れを示している。
Figure 0004344391
(Table 5) is a table for explaining the flow when inputting / outputting pixel data in 4: 2: 2 (H2V1, H1V2) format (YCbCr) serially in the tile order in time series. However, (Table 5) shows a flow in a case where Y is input / output in tile units and then Cb and Cr are input / output alternately in tile units.

即ち、(表5)の(a)において、まず、クロック'0'〜'16383'までの動作で、1タイル分の照度信号Y('Y0'〜'Y16383')を入出力し、次に、(表5)の(b)において、クロック'16384'〜'32767'までの動作で、1タイル分の色差信号Cb,Cr('Cb0'〜'Cb8191','Cr0'〜'Cr8191')を交互に入出力する。   That is, in (a) of (Table 5), first, the illuminance signal Y ('Y0' to 'Y16383') for one tile is input / output by the operation from the clock '0' to '16383', and then In (b) of (Table 5), the color difference signals Cb and Cr ('Cb0' to 'Cb8191', 'Cr0' to 'Cr8191') for one tile are obtained by the operations from clocks '16384' to '32767'. Are alternately input and output.

従って、(表5)では、2クロックで1画素の画素データの入出力が行われる。   Accordingly, in (Table 5), pixel data of one pixel is input / output in two clocks.

・4:4:4フォーマット(RGB,YCbCr)の入出力(2データパラレル)   ・ 4: 4: 4 format (RGB, YCbCr) input / output (2 data parallel)

Figure 0004344391
(表6)は、4:4:4フォーマット(RGB,YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。
Figure 0004344391
(Table 6) is a table for explaining the flow when inputting / outputting pixel data of 4: 4: 4 format (RGB, YCbCr) in parallel in pixel order for each two pixel data in time series.

(表6)を参照すると、サイクル'0'で画素'n'の照度'Yn'(又は'Rn')及び色差'Cbn'(又は'Gn')が入力(出力)され、サイクル'1'で画素'n'の色差'Crn'(又は'Bn')が入力される。また、(表6)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えば128×128画素のタイルであれば16383個の画素)に対して完了するまで繰り返される。   Referring to (Table 6), the illuminance “Yn” (or “Rn”) and the color difference “Cbn” (or “Gn”) of the pixel “n” are input (output) in the cycle “0”, and the cycle “1”. The color difference “Crn” (or “Bn”) of the pixel “n” is input. In Table 6, this series of operations is one cycle. This cycle is repeated until completion for all pixels (for example, 16383 pixels for a 128 × 128 pixel tile).

このように、(表6)では、2クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 6), pixel data of one pixel is input / output in two clocks.

・4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の入出力(2データパラレル)   -4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) input / output (2 data parallel)

Figure 0004344391
また、(表7)は、4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。但し、(表7)は、画素単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
(Table 7) explains the flow when inputting / outputting pixel data in 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) in parallel in order of two pieces of pixel data in order of pixels. It is a table for doing. However, (Table 7) shows a flow in a case where Cb and Cr are alternately input / output in units of pixels.

(表7)の(a)を参照すると、サイクル'0'で画素'n'の照度'Yn'及び色差'Cbn'が入力(出力)され、サイクル'1'で画素'n+1'の照度'Yn+1'と画素'n'の色差'Crn'が入力(出力)される。また、(表7)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては64×128画素の8191画素))に対して完了するまで繰り返される。   Referring to (a) of (Table 7), the illuminance “Yn” and the color difference “Cbn” of the pixel “n” are input (output) in the cycle “0”, and the illuminance of the pixel “n + 1” in the cycle “1”. The color difference 'Crn' between Yn + 1 'and pixel' n 'is input (output). In Table 7, this series of operations is one cycle. In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, 8191 pixels of 64 × 128 pixels for components 1 and 2)) ) Until it is completed.

このように、(表7)では、4クロックで2画素の画素データの入出力が行われる。   As described above, in (Table 7), input / output of pixel data of two pixels is performed in four clocks.

但し、4:1:1フォーマットの画素データを読み出す場合、(表7)の(b)に示すように、コンポーネント0(=Y)におけるラインにおいて、上から偶数番目のラインに対して行われる画素データの入出力で、色差Cb,Crの画素データが入力(出力)されない。   However, when pixel data in the 4: 1: 1 format is read out, as shown in (b) of (Table 7), in the line in the component 0 (= Y), the pixels to be applied to the even-numbered line from the top The pixel data of the color differences Cb and Cr are not input (output) during data input / output.

・4:2:2(H1V2)フォーマット(YCbCr)の入出力(2データパラレル)   ・ Input and output of 4: 2: 2 (H1V2) format (YCbCr) (2 data parallel)

Figure 0004344391
また、(表8)は、4:2:2(H1V2)フォーマット(YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。但し、(表8)は、ライン単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
Further, (Table 8) is a table for explaining the flow when inputting / outputting pixel data in the 4: 2: 2 (H1V2) format (YCbCr) in parallel in order of each pixel data in the order of pixels. . However, (Table 8) shows a flow in a case where Cb and Cr are alternately input / output in line units.

コンポーネント0(=Y)における奇数番目のラインにおいては、(表8)の(a)に示すように、例えばサイクル'0'で画素'n'の照度'Yn'及び色差'Cbn'が入力(出力)される。また、コンポーネント0(=Y)における奇数番目のラインにおいては、(表8)の(b)に示すように、例えばサイクル'0'(例えばクロック'256,257':但し、1タイルが128×128画素とする)で画素'n+127(128)'の照度'Yn+127(Y128)'及び画素'n(0)'の色差'Crn(Cr0)'が入力(出力)される。   In the odd-numbered line in the component 0 (= Y), as shown in (a) of (Table 8), for example, the illuminance “Yn” and the color difference “Cbn” of the pixel “n” are input (cycle “0”) ( Output). In addition, in the odd-numbered line in the component 0 (= Y), as shown in (b) of (Table 8), for example, cycle “0” (for example, clock “256, 257”: where 1 tile is 128 × The illuminance “Yn + 127 (Y128)” of the pixel “n + 127 (128)” and the color difference “Crn (Cr0)” of the pixel “n (0)” are input (output).

このように、(表8)では、2クロックを1サイクルとし、ライン毎に入出力色差Cb,Crを入れ換えている。   Thus, in (Table 8), two clocks are set as one cycle, and the input / output color differences Cb and Cr are exchanged for each line.

また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては128×64画素の8191画素))に対して行われるまで繰り返される。   In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, for components 1 and 2 are 8191 pixels of 128 × 64 pixels)) ) Until it is done.

このように、(表8)では、2クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 8), pixel data of one pixel is input / output in two clocks.

・4:4:4フォーマット(RGB,YCbCr)の入出力(3データパラレル)   ・ 4: 4: 4 format (RGB, YCbCr) input / output (3 data parallel)

Figure 0004344391
(表9)は、4:4:4フォーマット(RGB,YCbCr)の画素データを画素順に3つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。
Figure 0004344391
(Table 9) is a table for explaining the flow when inputting / outputting pixel data of 4: 4: 4 format (RGB, YCbCr) in parallel in order of pixels for every three pieces of pixel data in time series.

(表9)を参照すると、サイクル'0'で画素'n'の照度'Yn'(又は'Rn')及び色差'Cbn'(又は'Gn')及び色差'Crn'(又は'Bn')が入力される。また、(表9)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えば128×128画素のタイルであれば16383個の画素)に対して完了するまで繰り返される。   Referring to (Table 9), the illuminance “Yn” (or “Rn”) and the color difference “Cbn” (or “Gn”) and the color difference “Crn” (or “Bn”) of the pixel “n” in the cycle “0”. Is entered. In (Table 9), this series of operations is one cycle. This cycle is repeated until completion for all pixels (for example, 16383 pixels for a 128 × 128 pixel tile).

このように、(表9)では、2クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 9), pixel data of one pixel is input / output in two clocks.

・4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の入出力(4データパラレル)   -4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) input / output (4 data parallel)

Figure 0004344391
また、(表10)は、4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順に4つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。但し、(表10)は、画素単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
(Table 10) explains the flow when inputting / outputting pixel data in 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) in parallel in pixel order for each of the four pixel data in time series. It is a table for doing. However, (Table 10) shows a flow in a case where Cb and Cr are alternately input / output in units of pixels.

(表10)の(a)を参照すると、サイクル'0'で画素'n'の照度'Yn'及び色差'Cbn'及び色差'Crn'と画素'n+1'の照度'Yn+1'とが入力(出力)される。また、(表10)では、この一連の動作が1サイクルとされている。また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては64×128画素の8191画素))に対して完了するまで繰り返される。   Referring to (a) of (Table 10), the illuminance 'Yn' and the color difference 'Cbn' and the color difference 'Crn' of the pixel 'n' and the illuminance 'Yn + 1' of the pixel 'n + 1' are input in the cycle '0' ( Output). In Table 10, this series of operations is one cycle. In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, 8191 pixels of 64 × 128 pixels for components 1 and 2)) ) Until it is completed.

このように、(表10)では、4クロックで2画素の画素データの入出力が行われる。   As described above, in (Table 10), pixel data of two pixels is input / output in four clocks.

但し、4:1:1フォーマットの画素データを読み出す場合、(表10)の(b)に示すように、コンポーネント0(=Y)におけるラインにおいて、上から偶数番目のラインに対して行われる画素データの入出力で、色差Cb,Crの画素データが入力(出力)されない。   However, when pixel data in the 4: 1: 1 format is read out, as shown in (b) of (Table 10), in the line in the component 0 (= Y), the pixels to be applied to the even-numbered line from the top The pixel data of the color differences Cb and Cr are not input (output) during data input / output.

・4:2:2(H1V2)フォーマット(YCbCr)の入出力(4データパラレル)   -4: 2: 2 (H1V2) format (YCbCr) input / output (4 data parallel)

Figure 0004344391
また、(表11)は、4:2:2(H1V2)フォーマット(YCbCr)の画素データを画素順に4つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。但し、(表11)は、ライン単位でCb,Crが交互に入出力されるよう構成した場合の流れを示している。
Figure 0004344391
Further, (Table 11) is a table for explaining the flow when inputting / outputting pixel data of 4: 2: 2 (H1V2) format (YCbCr) in parallel in order of pixels for every four pixel data in time series. . However, (Table 11) shows a flow in a case where Cb and Cr are alternately input / output in line units.

コンポーネント0(=Y)における奇数番目のラインにおいては、(表11)の(a)に示すように、例えばサイクル'0'で画素'n'の照度'Yn'及び色差'Cbn'と画素'n+1'の照度'Yn+1'及び色差'Cbn+1'とが入力(出力)される。また、コンポーネント0(=Y)における奇数番目のラインにおいては、(表11)の(b)に示すように、例えばサイクル'0'(例えばクロック'256,257,258,259':但し、1タイルが128×128画素とする)で画素'n+127(128)'の照度'Yn+127(Y128)'及び画素'n(0)'の色差'Crn(Cr0)'と画素'n+128(129)'の照度'Yn+128(Y129)'及び画素'n+1(1)'の色差'Crn+1(Cr1)'とが入力(出力)される。   In the odd-numbered line in component 0 (= Y), as shown in (a) of (Table 11), for example, in cycle “0”, the illuminance “Yn” of pixel “n” and the color difference “Cbn” and pixel “ An illuminance “Yn + 1” of n + 1 ”and a color difference“ Cbn + 1 ”are input (output). In addition, in the odd-numbered line in the component 0 (= Y), as shown in (b) of (Table 11), for example, cycle “0” (for example, clocks “256, 257, 258, 259”: The illuminance 'Yn + 127 (Y128)' of the pixel 'n + 127 (128)' and the color difference 'Crn (Cr0)' and the pixel 'n + 128 (129)' of the pixel 'n (127)' and the pixel 'n (0)' The illuminance “Yn + 128 (Y129)” and the color difference “Crn + 1 (Cr1)” of the pixel “n + 1 (1)” are input (output).

このように、(表11)では、4クロックを1サイクルとし、ライン毎に入出力色差Cb,Crを入れ換えている。   Thus, in (Table 11), four clocks are set as one cycle, and input / output color differences Cb and Cr are exchanged for each line.

また、このサイクルは、全ての画素(例えばコンポーネント0(=Y)が128×128画素のタイルであれば16383個の画素(但し、コンポーネント1,2に対しては128×64画素の8191画素))に対して行われるまで繰り返される。   In addition, this cycle includes all pixels (for example, if component 0 (= Y) is a tile of 128 × 128 pixels, 16383 pixels (however, for components 1 and 2 are 8191 pixels of 128 × 64 pixels)) ) Until it is done.

このように、(表11)では、4クロックで2画素の画素データの入出力が行われる。   Thus, in (Table 11), input / output of pixel data of two pixels is performed in four clocks.

・グレイスケールフォーマットの入出力(シリアル)   -Grayscale format input / output (serial)

Figure 0004344391
(表12)は、グレイスケールフォーマットの画素データを画素順にシリアルに入出力する際の流れを時系列に従って説明するための表である。
Figure 0004344391
(Table 12) is a table for explaining the flow when serially inputting / outputting pixel data in the gray scale format in the pixel order in time series.

(表12)を参照すると、サイクル'0'で画素'n'の照度'Yn'が入力(出力)される。また、(表12)では、この動作が1サイクルとされている。また、このサイクルは、全ての画素(例えば128×128画素のタイルであれば16383個の画素)に対して完了するまで繰り返される。   Referring to (Table 12), the illuminance “Yn” of the pixel “n” is input (output) in cycle “0”. In Table 12, this operation is one cycle. This cycle is repeated until completion for all pixels (for example, 16383 pixels for a 128 × 128 pixel tile).

このように、(表12)では、2クロックで1画素の画素データの入出力が行われる。   As described above, in (Table 12), input / output of pixel data of one pixel is performed in two clocks.

・グレイスケールフォーマットの入出力(2データパラレル)   -Grayscale format input / output (2 data parallel)

Figure 0004344391
(表13)は、グレイスケールフォーマットの画素データを画素順に2つの画素データ毎パラレルに入出力する際の流れを時系列に従って説明するための表である。
Figure 0004344391
(Table 13) is a table for explaining the flow when inputting / outputting pixel data in gray scale format in parallel in the order of pixels for every two pieces of pixel data in time series.

(表13)を参照すると、サイクル'0'で画素'n'の照度'Yn'及び画素'n+1'の照度'Yn+1'が入力される。また、(表13)では、この動作が1サイクルとされている。また、このサイクルは、全ての画素(例えば128×128画素のタイルであれば16383個の画素)に対して完了するまで繰り返される。   Referring to (Table 13), the illuminance “Yn” of the pixel “n” and the illuminance “Yn + 1” of the pixel “n + 1” are input in the cycle “0”. In Table 13, this operation is one cycle. This cycle is repeated until completion for all pixels (for example, 16383 pixels for a 128 × 128 pixel tile).

このように、(表13)では、4クロックで2画素の画素データの入出力が行われる。   As described above, in (Table 13), pixel data of two pixels is input / output in four clocks.

以上のような手順で入出力を行うことにより、4:4:4フォーマット(RGB,YCbCr)の画像データに対しては、画素単位で順次入出力処理を実行し、それ以外のフォーマットの画像データに対しては、画素データを照度(Y)と色差(Cb,Cr)とを分離してタイル単位で入出力することが可能となる。   By performing input / output in the above-described procedure, input / output processing is sequentially performed on a pixel-by-pixel basis for image data in 4: 4: 4 format (RGB, YCbCr), and image data in other formats. On the other hand, pixel data can be input / output in units of tiles by separating illuminance (Y) and color difference (Cb, Cr).

また、上記(表6)〜(表11),(表13)に示すように、本実施形態では、複数の画素データをパラレルで処理することも可能である。   Further, as shown in the above (Table 6) to (Table 11) and (Table 13), in the present embodiment, a plurality of pixel data can be processed in parallel.

(タイミングチャート例)
次に、上記(表7)で示した、4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際のタイミングチャート例を図17を用いて説明する。
(Timing chart example)
Next, a timing chart when inputting / outputting pixel data of 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) shown in the above (Table 7) in parallel every two pixel data in pixel order. An example will be described with reference to FIG.

図17を参照すると、4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際の動作では、4クロックを1サイクルとし、1サイクルを2クロックずつのサイクル'0'とサイクル'1'とに分割している。   Referring to FIG. 17, in the operation for inputting / outputting pixel data of 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) in parallel in order of each pixel data, four clocks are one cycle. One cycle is divided into two cycles of cycle “0” and cycle “1”.

従って、まず、サイクル'0'が開始されると、画素データ1,0として画素'0'の照度'Y0'及び色差'Cb0'が入力(出力)される。次に、サイクル'1'が開始されると、画素データ1,0として画素'1'の照度'Y1'と画素'0'の色差'Cr0'とが入力(出力)される。以降の動作は、これが繰り返される。   Therefore, first, when the cycle “0” is started, the illuminance “Y0” and the color difference “Cb0” of the pixel “0” are input (output) as the pixel data 1, 0. Next, when the cycle “1” is started, the illuminance “Y1” of the pixel “1” and the color difference “Cr0” of the pixel “0” are input (output) as the pixel data 1 and 0. This is repeated in subsequent operations.

また、他の表に関しても、各々に基づいて図17のようなタイミングチャートを作成することが可能である。   Further, for other tables, a timing chart as shown in FIG. 17 can be created based on each table.

このような手順で画像読取部5において画像データを入力し、これを符号化/復号化処理部2(符号化機能ブロック)に入力することにより、本実施形態では効率的な符号化処理を実現することが可能となる。   By inputting image data in the image reading unit 5 in such a procedure and inputting it to the encoding / decoding processing unit 2 (encoding function block), an efficient encoding process is realized in this embodiment. It becomes possible to do.

〔他の実施形態〕
また、上記した各実施形態は、本発明を好適に実施した形態の一例に過ぎず、本発明は、その主旨を逸脱しない限り、種々変形して実施することが可能なものである。
[Other Embodiments]
Further, each of the above-described embodiments is merely an example of a preferred embodiment of the present invention, and the present invention can be implemented with various modifications without departing from the gist thereof.

以上、説明したように、本発明によれば、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することが可能になる。   As described above, according to the present invention, it is possible to easily generate code data from subsampled image data without increasing a complicated circuit and an amount of data.

更に、本発明の参考発明によれば、サブサンプリングされた画像データに応じて、容易に符号データを生成することが可能になる。   Furthermore, according to the reference invention of the present invention, code data can be easily generated according to subsampled image data.

更に、本発明の参考発明によれば、圧縮率が高い符号データを生成することが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to generate code data having a high compression rate.

また、本発明の参考発明によれば、サブサンプリングされた画像データに対して適切なウェーブレット変換を行なうことが可能となり、複雑な回路やデータ量の増加を伴うことなく、容易に符号データを生成することが可能になる。   Further, according to the reference invention of the present invention, it is possible to perform an appropriate wavelet transform on the subsampled image data, and it is possible to easily generate code data without increasing complicated circuits and data amount. It becomes possible to do.

更に、本発明の参考発明によれば、サブサンプリングされた画像データとサブサンプリングされていない画像データとを区別し、それぞれに応じた適切なウェーブレット変換を行なうことが可能となり、複雑な回路やデータ量の増加を伴うことなく、容易に符号データを生成することが可能になる。   Furthermore, according to the reference invention of the present invention, it is possible to distinguish between subsampled image data and non-subsampled image data, and to perform appropriate wavelet transforms corresponding to each of them. It is possible to easily generate code data without increasing the amount.

また、本発明の参考発明によれば、目的に応じてサブサンプリングされた画像データ出力することが可能になる。   Further, according to the reference invention of the present invention, it is possible to output image data subsampled according to the purpose.

更に、本発明の参考発明によれば、サブサンプリングされた画像データとサブサンプリングされていない画像データとを容易に切り替えて出力することが可能になる。   Furthermore, according to the reference invention of the present invention, it is possible to easily switch and output subsampled image data and non-subsampled image data.

また、本発明の参考発明によれば、目的に応じて適切な逆ウェーブレット変換が行なわれて作成された、サブサンプリングされた画像データ出力することが可能になる。   Further, according to the reference invention of the present invention, it is possible to output subsampled image data generated by performing an appropriate inverse wavelet transform according to the purpose.

更に、本発明の参考発明によれば、目的の画像データが、サブサンプリングされた画像データであるかサブサンプリングされていない画像データであるかを区別し、これに応じて適切な逆ウェーブレット変換を施すことが可能となる。   Furthermore, according to the reference invention of the present invention, it is distinguished whether the target image data is subsampled image data or non-subsampled image data, and an appropriate inverse wavelet transform is performed accordingly. Can be applied.

また、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となる。   In addition, according to the reference invention of the present invention, it is possible to input and output image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となるだけでなく、画素データを並列に読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible not only to input / output image data but also to read pixel data in parallel so that a buffer required for performing wavelet transform does not increase. It becomes possible.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、複雑な回路やデータ量の増加を伴うことなく、サブサンプリングされた画像データから容易に符号データを生成することが可能になる。   Furthermore, according to the reference invention of the present invention, it is possible to easily generate code data from subsampled image data without increasing a complicated circuit or an amount of data.

更に、本発明の参考発明によれば、サブサンプリングされた画像データに応じて、容易に符号データを生成することが可能になる。   Furthermore, according to the reference invention of the present invention, code data can be easily generated according to subsampled image data.

更に、本発明の参考発明によれば、圧縮率が高い符号データを生成することが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to generate code data having a high compression rate.

また、本発明の参考発明によれば、目的に応じてサブサンプリングされた画像データ出力することが可能になる。   Further, according to the reference invention of the present invention, it is possible to output image data subsampled according to the purpose.

更に、本発明の参考発明によれば、サブサンプリングされた画像データとサブサンプリングされていない画像データとを容易に切り替えて出力することが可能になる。   Furthermore, according to the reference invention of the present invention, it is possible to easily switch and output subsampled image data and non-subsampled image data.

また、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となる。   In addition, according to the reference invention of the present invention, it is possible to input and output image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、画像データを入出力することが可能となるだけでなく、画素データを並列に読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible not only to input / output image data but also to read pixel data in parallel so that a buffer required for performing wavelet transform does not increase. It becomes possible.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

更に、本発明の参考発明によれば、ウェーブレット変換を行なう際に必要となるバッファが大きくならないように、適切にサブサンプリングされた画像データを読み取ることが可能となる。   Furthermore, according to the reference invention of the present invention, it is possible to read appropriately subsampled image data so that a buffer required for performing wavelet transform does not become large.

本発明の第1の実施形態による画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing device according to a first embodiment of the present invention. 本発明の第1の実施形態による符号化/復号化処理部2の符号化機能ブロックの構成例を示すブロック図である。It is a block diagram which shows the structural example of the encoding functional block of the encoding / decoding process part 2 by the 1st Embodiment of this invention. 4:4:4,4:2:2(H2V1),4:2:2(H1V2),4:1:1,グレイスケールの各入出力フォーマットにおけるx方向及びy方向の画素比の例を示す図である。Examples of pixel ratios in the x and y directions in 4: 4: 4, 4: 2: 2 (H2V1), 4: 2: 2 (H1V2), 4: 1: 1, grayscale input / output formats FIG. 4:4:4フォーマットの画像データに対して実行される2次元離散ウェーブレット変換をステージ毎に説明するための図である。It is a figure for demonstrating the two-dimensional discrete wavelet transformation performed with respect to the image data of 4: 4: 4 format for every stage. 本発明の第1の実施形態において4:2:2(H2V1)フォーマットの画像データに対して実行される2次元離散ウェーブレット変換をステージ毎に説明するための図である。It is a figure for demonstrating for each stage two-dimensional discrete wavelet transformation performed with respect to the image data of 4: 2: 2 (H2V1) format in the 1st Embodiment of this invention. 本発明の第1の実施形態において4:2:2(H1V2)フォーマットの画像データに対して実行される2次元離散ウェーブレット変換をステージ毎に説明するための図である。It is a figure for demonstrating the two-dimensional discrete wavelet transformation performed with respect to the image data of 4: 2: 2 (H1V2) format for every stage in the 1st Embodiment of this invention. 本発明の第1の実施形態において4:1:1フォーマットの画像データに対して実行される2次元離散ウェーブレット変換をステージ毎に説明するための図である。It is a figure for demonstrating the two-dimensional discrete wavelet transformation performed with respect to the image data of a 4: 1: 1 format in the 1st Embodiment of this invention for every stage. サブサンプリングされていないコンポーネントに対してレベル3の2次元離散ウェーブレット変換を施すことにより生成されるサブバンドの形状例を説明するための図である。It is a figure for demonstrating the example of the shape of the subband produced | generated by performing the level 3 two-dimensional discrete wavelet transform with respect to the component which is not subsampled. 従来技術において4:2:2(H2V1)フォーマットの画像データに対して実行される2次元離散ウェーブレット変換をステージ毎に説明するための図である。It is a figure for demonstrating the two-dimensional discrete wavelet transformation performed with respect to the image data of 4: 2: 2 (H2V1) format for every stage in a prior art. 図9に示す2次元離散ウェーブレット変換により生成されるサブバンドの形状例を説明するための図である。It is a figure for demonstrating the example of a shape of the subband produced | generated by the two-dimensional discrete wavelet transform shown in FIG. 図5に示す2次元離散ウェーブレット変換により生成されるサブバンドの系条例を説明するための図である。It is a figure for demonstrating the system regulations of the subband produced | generated by the two-dimensional discrete wavelet transform shown in FIG. 本発明の第1の実施形態によるウェーブレット変換を実行するウェーブレット変換部20の構成例を示すブロック図である。It is a block diagram which shows the structural example of the wavelet transformation part 20 which performs the wavelet transformation by the 1st Embodiment of this invention. 本発明の第1の実施形態による逆ウェーブレット変換を実行するウェーブレット変換部20の構成例を示すブロック図である。It is a block diagram which shows the structural example of the wavelet transformation part 20 which performs the inverse wavelet transformation by the 1st Embodiment of this invention. 本発明の第1の実施形態による画像データ入出力方法において画像データが分割されて作成されるタイルの構成を示すブロック図である。It is a block diagram which shows the structure of the tile produced | generated by dividing image data in the image data input / output method by the 1st Embodiment of this invention. 図14において分割された各タイルにおける画素データを読み出す順序を説明するための図である。It is a figure for demonstrating the order which reads the pixel data in each tile divided | segmented in FIG. 本発明の第1の実施形態において画像データを時系列に従って入出力する際の動作を説明するための図であり、(a)は4:4:4フォーマットのRGB形式又はYCbCr形式による画像データを入出力する際の動作を説明するための図であり、(b)は4:2:2(H2V1)フォーマットのYCbCr形式による画像データを入出力する際の動作を説明するための図であり、(c)は4:2:2(H1V2)フォーマットのYCbCr形式による画像データを入出力する際の動作を説明するための図であり、(d)は4:1:1(4:2:0)フォーマットのYCbCr形式の画像データを入出力する際の動作を説明するための図である。It is a figure for demonstrating the operation | movement at the time of inputting / outputting image data according to the time series in the 1st Embodiment of this invention, (a) is image data by the RGB format or YCbCr format of 4: 4: 4 format. It is a figure for demonstrating the operation | movement at the time of inputting / outputting, (b) is a figure for demonstrating the operation | movement at the time of inputting / outputting the image data by YCbCr format of 4: 2: 2 (H2V1) format, (C) is a figure for demonstrating the operation | movement at the time of inputting / outputting the image data by the 4: 2: 2 (H1V2) format YCbCr format, (d) is 4: 1: 1 (4: 2: 0). It is a figure for demonstrating the operation | movement at the time of inputting / outputting the image data of a format YCbCr format. (表7)で示した4:2:2(H2V1)又は4:1:1フォーマット(YCbCr)の画素データを画素順に2つの画素データ毎パラレルに入出力する際の流れを示すタイミングチャートである。8 is a timing chart showing a flow when pixel data in 4: 2: 2 (H2V1) or 4: 1: 1 format (YCbCr) shown in (Table 7) is input / output in parallel for each pixel data in pixel order. .

符号の説明Explanation of symbols

1 バス
2 符号化/復号化処理部
3 CPU
4 メモリ
5 画像読取部
6 A/D変換部
7 I/Oインタフェース
8 RAM
10 カラー変換部
20 ウェーブレット変換部
30 量子化部
40 係数順序制御部
50 係数モデリング部
60 エントロピー符号化部
101,105,107 垂直方向1次元離散ウェーブレット変換部(V)
102,104,206 セレクタ
103,106,108 水平方向1次元離散ウェーブレット変換部(H)
201,203,205 水平方向1次元離散逆ウェーブレット変換部(IH)
202,204,207 垂直方向1次元離散逆ウェーブレット変換部(IV)
1 Bus 2 Encoding / Decoding Processing Unit 3 CPU
4 Memory 5 Image Reading Unit 6 A / D Conversion Unit 7 I / O Interface 8 RAM
DESCRIPTION OF SYMBOLS 10 Color conversion part 20 Wavelet conversion part 30 Quantization part 40 Coefficient order control part 50 Coefficient modeling part 60 Entropy encoding part 101,105,107 Vertical direction one-dimensional discrete wavelet conversion part (V)
102, 104, 206 Selectors 103, 106, 108 Horizontal one-dimensional discrete wavelet transform unit (H)
201, 203, 205 Horizontal one-dimensional discrete inverse wavelet transform unit (IH)
202,204,207 Vertical one-dimensional discrete inverse wavelet transform unit (IV)

Claims (1)

複数のコンポーネントからなる画像データの前記コンポーネント毎に水平方向及び/又は垂直方向のウェーブレット変換を1以上のステージにおいて行い、前記ステージ毎に出力されるサブバンドの係数データを、前記コンポーネント毎にビットプレーンに分割して符号化する画像符号化装置であって、
前記ウェーブレット変換を行うウェーブレット変換手段と、
前記ウェーブレット変換手段において作成された係数データを符号化する符号化手段とを有し、
前記ウェーブレット変換手段は、所定のステージにおいて、前記コンポーネントのうちサブサンプルされているコンポーネントの、当該サブサンプルの方向のウェーブレット変換を行わず、
前記符号化手段は、前記ウェーブレット変換を行わないステージにおける前記サブサンプルの方向の係数データをゼロビットプレーンとして破棄し、該ゼロビットプレーンを表すデータを生成して符号化し、
さらに、前記ステージにおいて、所定のフォーマットで画像データを入出力する際に、
前記入出力する画像データが間引きされていない場合は、前記コンポーネントに対する処理を分離せずに実行し、前記入出力する画像データが間引きされている場合は、前記コンポーネントに対する処理を分離して実行することを特徴とする画像符号化装置
Wavelet transform in the horizontal direction and / or vertical direction is performed in one or more stages for each component of the image data composed of a plurality of components, and subband coefficient data output for each stage is converted into a bit plane for each component. An image encoding device that divides and encodes
Wavelet transform means for performing the wavelet transform;
Encoding means for encoding the coefficient data created in the wavelet transform means,
The wavelet transform means does not perform wavelet transform in the direction of the subsample of the component that is subsampled among the components at a predetermined stage,
The encoding means discards the coefficient data in the direction of the subsample in a stage where the wavelet transform is not performed as a zero bit plane, generates and encodes data representing the zero bit plane,
Furthermore, in the stage, when inputting and outputting image data in a predetermined format,
If the input / output image data is not thinned out, the process for the component is executed without separation. If the input / output image data is thinned out, the process for the component is executed separately. An image encoding apparatus characterized by that .
JP2007096758A 2007-04-02 2007-04-02 Image processing device Expired - Fee Related JP4344391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007096758A JP4344391B2 (en) 2007-04-02 2007-04-02 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007096758A JP4344391B2 (en) 2007-04-02 2007-04-02 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001292590A Division JP4267848B2 (en) 2001-09-25 2001-09-25 Image encoding device, image decoding device, image encoding method, and image decoding method

Publications (2)

Publication Number Publication Date
JP2007251967A JP2007251967A (en) 2007-09-27
JP4344391B2 true JP4344391B2 (en) 2009-10-14

Family

ID=38595714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007096758A Expired - Fee Related JP4344391B2 (en) 2007-04-02 2007-04-02 Image processing device

Country Status (1)

Country Link
JP (1) JP4344391B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5053204B2 (en) 2008-08-08 2012-10-17 株式会社リコー Semiconductor integrated circuit device, optical scanning device using semiconductor integrated circuit device, return light identification method, and image forming apparatus using optical scanning device
JP2011035190A (en) 2009-08-03 2011-02-17 Ricoh Co Ltd Multi-beam laser light-intensity control circuit, and optical scanning apparatus including the same

Also Published As

Publication number Publication date
JP2007251967A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4267848B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
US8503809B2 (en) Information processing apparatus and method to entropy code upon processing of predetermined number of precincts
JP5640371B2 (en) Camera system and image processing method
EP2134092B1 (en) Information processing apparatus and method, and program
JP2002516540A (en) Color image compression based on two-dimensional discrete wavelet transform resulting in perceptually lossless images
EP2819415B1 (en) Image decoding apparatus
JP2010041505A (en) Image processor, image processing method, computer program, and information recording medium
TWI539794B (en) Image encoding system and method thereof
JP4344391B2 (en) Image processing device
Richter et al. Bayer pattern compression with JPEG XS
US8787686B2 (en) Image processing device and image processing method
US7940991B2 (en) Image signal processing apparatus
JP2007251968A (en) Unit and method for processing image
US7787700B2 (en) Signal processing method, signal processing apparatus, computer-readable medium and a data recording medium
KR102247196B1 (en) Vc-2 decoding using parallel decoding paths
JP4987364B2 (en) Line memory mounting apparatus and television receiving apparatus
US8861880B2 (en) Image processing device and image processing method
US11765366B2 (en) Method for processing transform coefficients
JP2005508100A (en) Scalable programmable video system
JP2003143625A (en) Image compressor, image compression method, image compression program, electronic camera processor, and electronic camera processing method
CN108989820B (en) Data compression method and device adopting respective corresponding chroma sampling formats at all stages
JP2005217896A (en) Image encoding device
JP2005142699A (en) Image companding apparatus
CN110971913A (en) Bayer image compression method based on filling Y channel
REZA JPEG2000 Hardware Implementation Procedures and Issues

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090710

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4344391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees