JP2021090097A - Encoder, imaging apparatus, control method, and program - Google Patents

Encoder, imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2021090097A
JP2021090097A JP2019218081A JP2019218081A JP2021090097A JP 2021090097 A JP2021090097 A JP 2021090097A JP 2019218081 A JP2019218081 A JP 2019218081A JP 2019218081 A JP2019218081 A JP 2019218081A JP 2021090097 A JP2021090097 A JP 2021090097A
Authority
JP
Japan
Prior art keywords
dwt
pixel data
pixel
quantization
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019218081A
Other languages
Japanese (ja)
Other versions
JP7419044B2 (en
Inventor
貴史 村田
Takashi Murata
貴史 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019218081A priority Critical patent/JP7419044B2/en
Publication of JP2021090097A publication Critical patent/JP2021090097A/en
Application granted granted Critical
Publication of JP7419044B2 publication Critical patent/JP7419044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To achieve both encoding considering the feature of an image over a vertical direction and a reduction in circuit scale.SOLUTION: An encoder 150 has: a pixel line buffer 1505 that holds pixel data; a wavelet transformation unit 1500 that executes wavelet transformation on the pixel data to generate a subband coefficient; a quantization unit 1503 that quantizes the subband coefficient in accordance with a quantization parameter; and a quantization control unit 1502 that determines the quantization parameter. The quantization control unit 1502 determines the quantization parameter based on the pixel data held by the pixel line buffer 1505 and corresponding to the subband coefficient to be quantized and pixel data corresponding to a subband coefficient located in a vertical direction of the above-mentioned subband coefficient.SELECTED DRAWING: Figure 15

Description

本発明は、画素データに対する量子化および符号化を実行する符号化装置、撮像装置、制御方法、およびプログラムに関する。 The present invention relates to a coding device, an imaging device, a control method, and a program for performing quantization and coding on pixel data.

従来の撮像装置は、撮像素子を用いて撮像した生の画像(RAW画像)を、デベイヤー処理(デモザイク処理)によって変換した輝度と色差とを示す信号に対して、ノイズ除去、光学的な歪補正、画像の適正化を含む現像処理を実行する。そして、以上の撮像装置は、現像処理した輝度信号および色差信号を圧縮符号化して記録媒体に記録する。 A conventional image pickup device removes noise and corrects optical distortion for a signal indicating brightness and color difference converted by a debayer process (demosaic process) from a raw image (RAW image) captured by an image sensor. , Perform development processing including image optimization. Then, the above imaging device compresses and encodes the developed luminance signal and the color difference signal and records them on the recording medium.

他の従来の撮像装置は、撮像素子を用いて撮像した未現像のデータ(RAW画像)を記録媒体に格納する。RAW画像は、撮像素子によって取得された色情報を損なうこと無く色階調数を維持したまま記録媒体に記録されるから、自由度の高い編集が可能である。しかしながら、RAW画像のデータ量は現像された画像のデータ量と比較して大きいから、記録媒体の容量を圧迫するというデメリットも存在する。したがって、RAW画像に対しても圧縮符号化を実行してデータ量を削減すると好適である。 In other conventional image pickup devices, undeveloped data (RAW image) captured by the image pickup device is stored in a recording medium. Since the RAW image is recorded on the recording medium while maintaining the number of color gradations without damaging the color information acquired by the image sensor, editing with a high degree of freedom is possible. However, since the amount of data in the RAW image is larger than the amount of data in the developed image, there is a demerit that the capacity of the recording medium is squeezed. Therefore, it is preferable to perform compression coding on the RAW image to reduce the amount of data.

RAW画像のデータ(RAWデータ)を符号化する技術においては、RAWデータから生成した複数のカラーチャネルに2次元のウェーブレット変換を実行して複数のサブバンドを生成し、各サブバンドを量子化して符号化する(例えば、特許文献1、2)。 In the technique of encoding RAW image data (RAW data), two-dimensional wavelet transform is performed on a plurality of color channels generated from RAW data to generate a plurality of subbands, and each subband is quantized. Encode (for example, Patent Documents 1 and 2).

特開2019− 4428号公報Japanese Unexamined Patent Publication No. 2019-4428 特開2019− 29802号公報Japanese Unexamined Patent Publication No. 2019-29002

特許文献1の技術では、水平方向に亘って存在する画素ライン単位のサブバンド係数に基づいて量子化パラメータが生成される。したがって、量子化パラメータの生成、ひいては符号化において、水平方向の特徴は考慮されるが垂直方向の特徴は考慮されない。 In the technique of Patent Document 1, the quantization parameter is generated based on the subband coefficient of each pixel line existing in the horizontal direction. Therefore, in the generation of quantization parameters, and thus in the coding, horizontal features are considered but vertical features are not.

特許文献2の技術では、垂直方向に亘るサブバンド係数も考慮して量子化パラメータが生成される。しかしながら、以上の構成では、垂直方向の特徴を特定するのに用いるサブバンド係数が取得されるまで量子化および符号化を実行できない。すなわち、量子化パラメータが生成されるまでサブバンド係数を保持しておくためのラインバッファを設けることが必要なので、符号化装置の回路規模が肥大化する。 In the technique of Patent Document 2, the quantization parameter is generated in consideration of the subband coefficient over the vertical direction. However, in the above configuration, quantization and coding cannot be performed until the subband coefficients used to identify the vertical features are obtained. That is, since it is necessary to provide a line buffer for holding the subband coefficient until the quantization parameter is generated, the circuit scale of the coding apparatus becomes bloated.

以上の事情に鑑み、本発明は、垂直方向に亘る画像の特徴を考慮した符号化と回路規模の抑制とを両立できる符号化装置、撮像装置、制御方法、およびプログラムを提供することを目的とする。 In view of the above circumstances, it is an object of the present invention to provide a coding device, an imaging device, a control method, and a program capable of achieving both coding in consideration of image features in the vertical direction and suppression of circuit scale. To do.

上記目的を達成するために、本発明の符号化装置は、入力される画素データを一時的に保持するバッファ手段と、前記画素データに対してウェーブレット変換を実行して複数のサブバンド係数を生成する変換手段と、量子化パラメータに従って前記サブバンド係数を量子化する量子化手段と、前記量子化パラメータを決定する量子化制御手段と、を有し、前記量子化制御手段は、前記バッファ手段に保持された、前記量子化手段により量子化されるサブバンド係数に対応する画素データと、当該サブバンド係数の垂直方向に位置するサブバンド係数に対応する画素データとに基づいて、前記量子化パラメータを決定する、ことを特徴とする。 In order to achieve the above object, the coding apparatus of the present invention uses a buffer means for temporarily holding input pixel data and performing wavelet conversion on the pixel data to generate a plurality of subband coefficients. The conversion means is provided, the quantization means for quantizing the subband coefficient according to the quantization parameter, and the quantization control means for determining the quantization parameter, and the quantization control means is used as the buffer means. The quantization parameter is based on the retained pixel data corresponding to the subband coefficient quantized by the quantization means and the pixel data corresponding to the subband coefficient located in the direction perpendicular to the subband coefficient. It is characterized by determining.

本発明によれば、垂直方向に亘る画像の特徴を考慮した効率のよい符号化と回路規模の抑制とを両立できる。 According to the present invention, it is possible to achieve both efficient coding in consideration of the characteristics of the image in the vertical direction and suppression of the circuit scale.

符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of a coding apparatus. ベイヤー配列の画像データ(RAWデータ)を示す図である。It is a figure which shows the image data (RAW data) of a Bayer array. ウェーブレット変換によるサブバンド分割の説明図である。It is explanatory drawing of the subband division by a wavelet transform. サブバンド係数を用いた特徴情報の生成手法の説明図である。It is explanatory drawing of the generation method of the feature information using a subband coefficient. サブバンド係数を用いた垂直エッジの検出方法の説明図である。It is explanatory drawing of the detection method of a vertical edge using a subband coefficient. サブバンド係数を用いた水平エッジの検出方法の説明図である。It is explanatory drawing of the detection method of a horizontal edge using a subband coefficient. 明度情報と複雑度情報を用いた特徴分類の基本概念の説明図である。It is explanatory drawing of the basic concept of a feature classification using lightness information and complexity information. エッジ情報に基づいて特徴分類を変更する手法の説明図である。It is explanatory drawing of the method of changing a feature classification based on edge information. DWT変換によってDWT係数が出力されるタイミングの説明図である。It is explanatory drawing of the timing which DWT coefficient is output by DWT conversion. 画面の端部(左端)におけるDWT変換の実行手法の説明図である。It is explanatory drawing of the execution method of the DWT conversion at the edge (left edge) of a screen. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 垂直DWT変換におけるラインバッファの状態の説明図である。It is explanatory drawing of the state of the line buffer in the vertical DWT transform. 符号化装置の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of a coding apparatus. 符号化装置における処理の時系列を示すタイミングチャートである。It is a timing chart which shows the time series of processing in a coding apparatus. 本発明の第1実施形態における水平エッジの検出方法の説明図である。It is explanatory drawing of the detection method of the horizontal edge in 1st Embodiment of this invention. 本発明の第1実施形態に係る符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the coding apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る符号化装置における処理の時系列を示すタイミングチャートである。It is a timing chart which shows the time series of the processing in the coding apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態におけるサブバンド係数と画素データとの対応を示す図である。It is a figure which shows the correspondence between the subband coefficient and pixel data in 1st Embodiment of this invention. 本発明の第1実施形態におけるサブバンド係数と画素データとの対応を示す図である。It is a figure which shows the correspondence between the subband coefficient and pixel data in 1st Embodiment of this invention. サブバンド係数を用いた暗部の検出手法の説明図である。It is explanatory drawing of the detection method of a dark part using a subband coefficient. 本発明の第1実施形態における2×2画素の画素平均値を用いた暗部の検出手法の説明図である。It is explanatory drawing of the dark part detection method using the pixel average value of 2 × 2 pixels in the 1st Embodiment of this invention. 本発明の第1実施形態におけるエッジ情報に基づいて特徴分類を変更する手法の説明図である。It is explanatory drawing of the method of changing a feature classification based on the edge information in 1st Embodiment of this invention. 本発明の第2実施形態における水平エッジの検出方法の説明図である。It is explanatory drawing of the detection method of the horizontal edge in 2nd Embodiment of this invention. 本発明の第2実施形態に係る符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the coding apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る符号化装置における処理の時系列を示すタイミングチャートである。It is a timing chart which shows the time series of processing in the coding apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態におけるサブバンド係数と画素データとの対応を示す図である。It is a figure which shows the correspondence between the subband coefficient and the pixel data in the 2nd Embodiment of this invention. 本発明の第2実施形態におけるサブバンド係数と画素データとの対応を示す図である。It is a figure which shows the correspondence between the subband coefficient and the pixel data in the 2nd Embodiment of this invention.

本発明の実施形態の説明に先立って実施形態の前提となる符号化装置100の構成および符号化装置100が実行する処理について説明する。以下の説明において、符号化装置100は、水平方向および垂直方向におけるサブバンド係数の特徴を考慮して生成した量子化パラメータに基づいて符号化を実行する。 Prior to the description of the embodiment of the present invention, the configuration of the coding device 100 and the processing executed by the coding device 100, which are the premise of the embodiment, will be described. In the following description, the coding apparatus 100 performs coding based on the quantization parameters generated in consideration of the characteristics of the subband coefficients in the horizontal direction and the vertical direction.

図1は、符号化装置100の構成を示すブロック図である。符号化装置100は、撮像部101、プレーン変換部102、ウェーブレット変換部103、特徴情報生成部104、量子化制御部105、量子化部106、エントロピー符号化部107、および記録媒体108を含む。 FIG. 1 is a block diagram showing a configuration of a coding device 100. The coding device 100 includes an imaging unit 101, a plane conversion unit 102, a wavelet conversion unit 103, a feature information generation unit 104, a quantization control unit 105, a quantization unit 106, an entropy coding unit 107, and a recording medium 108.

撮像部101は、光学レンズ、絞り、フォーカス制御部、およびレンズ駆動部を含み光学ズーム可能なレンズ光学系と、レンズ光学系を介して入射した光情報を電気信号に変換する撮像素子とを含む。したがって、本例の符号化装置100は、撮像装置として機能する。撮像素子は、例えば、CCDイメージセンサーまたはCMOSセンサーであって、水平方向2画素×垂直方向2画素の4画素を繰り返し単位とするベイヤー配列のカラーフィルタを有する。撮像素子は、電気信号(アナログ信号)をディジタル信号に変換したRAWデータを、プレーン変換部102に出力する。本明細書における非限定的な例示として、RAWデータは、図2に示すベイヤー配列のR(赤)、G1(緑)、G2(緑)、B(青)の4つの色要素で構成される。 The imaging unit 101 includes a lens optical system that includes an optical lens, an aperture, a focus control unit, and a lens driving unit and is capable of optical zoom, and an imaging element that converts optical information incident through the lens optical system into an electric signal. .. Therefore, the coding device 100 of this example functions as an imaging device. The image pickup device is, for example, a CCD image sensor or a CMOS sensor, and has a Bayer array color filter having 4 pixels of 2 pixels in the horizontal direction and 2 pixels in the vertical direction as a repeating unit. The image sensor outputs RAW data obtained by converting an electric signal (analog signal) into a digital signal to the plane conversion unit 102. As a non-limiting example herein, RAW data is composed of four color elements of the Bayer sequence shown in FIG. 2, R (red), G1 (green), G2 (green), and B (blue). ..

プレーン変換部102は、撮像部101から入力されるRAWデータを読み出して、4つの独立したプレーンデータに変換する。以上のように変換して取得された4つのプレーンデータは、プレーン変換部102からウェーブレット変換部103に出力される。4つの色要素(R、G1、G2、B)で構成されるRAWデータからプレーンデータへの変換は、以下の4つの式を含む式(1)に従って実行される。式(1)によって、RAWデータが、輝度プレーン(Y)とその他のプレーン(C0、C1、C2)に近似的に変換される。 The plane conversion unit 102 reads the RAW data input from the imaging unit 101 and converts it into four independent plane data. The four plane data obtained by the conversion as described above are output from the plane conversion unit 102 to the wavelet conversion unit 103. The conversion from RAW data composed of four color elements (R, G1, G2, B) to plain data is executed according to equation (1) including the following four equations. According to the equation (1), the RAW data is approximately converted into the luminance plane (Y) and the other planes (C0, C1, C2).

Y =(R+G1+G2+B)/4
C0=R−B
C1=(G1+G2)/2−(R+B)/2
C2=G1−G2 ……式(1)
Y = (R + G1 + G2 + B) / 4
C0 = RB
C1 = (G1 + G2) / 2- (R + B) / 2
C2 = G1-G2 …… Equation (1)

なお、RAWデータとプレーンデータとの変換式は、以上の式(1)に限定されず、例えば、RAWデータをR、G1、G2、Bに分離してプレーンデータとしてもよい。 The conversion formula between the RAW data and the plane data is not limited to the above formula (1). For example, the RAW data may be separated into R, G1, G2, and B to be plain data.

ウェーブレット変換部103は、プレーン変換部102から入力されるプレーンデータを読み出して、ウェーブレット変換を施して変換係数(サブバンド係数)を取得する。変換係数は、対象データ(すなわち、プレーンデータ)とウェーブレットとの相関を示す値である。取得された変換係数は、特徴情報生成部104および量子化部106に出力される。 The wavelet transform unit 103 reads out the plane data input from the plane transform unit 102, performs wavelet transform, and acquires a conversion coefficient (sub-band coefficient). The transform coefficient is a value indicating the correlation between the target data (that is, plain data) and the wavelet. The acquired conversion coefficient is output to the feature information generation unit 104 and the quantization unit 106.

図3を参照して、上記のウェーブレット変換によるサブバンド分割を例示的に説明する。図3は、プレーンデータに対して垂直方向の1回のウェーブレット変換および水平方向の1回のウェーブレット変換を施して取得された、分解レベル1に相当するサブバンドを示している。図3において、サブバンドLLは低周波成分を示し、他のサブバンドLH、HL、HHは高周波成分を示す。 With reference to FIG. 3, the subband division by the wavelet transform described above will be exemplified. FIG. 3 shows a subband corresponding to decomposition level 1 obtained by performing one vertical wavelet transform and one horizontal wavelet transform on plain data. In FIG. 3, the subband LL shows a low frequency component, and the other subbands LH, HL, and HH show a high frequency component.

特徴情報生成部104は、ウェーブレット変換部103から入力されるYプレーンのサブバンド係数を用いて、明度、複雑度、およびエッジ有無を含む3つの特徴情報を生成する。生成された特徴情報の各々は、特徴情報生成部104から量子化制御部105に出力される。特徴情報の生成手法については後述される。 The feature information generation unit 104 uses the subband coefficients of the Y plane input from the wavelet transform unit 103 to generate three feature information including brightness, complexity, and the presence or absence of edges. Each of the generated feature information is output from the feature information generation unit 104 to the quantization control unit 105. The method for generating feature information will be described later.

量子化制御部105は、特徴情報生成部104から入力される特徴情報に対応する量子化パラメータを生成して量子化部106に出力する。特徴情報と量子化パラメータとの関係性については後述される。 The quantization control unit 105 generates a quantization parameter corresponding to the feature information input from the feature information generation unit 104 and outputs the quantization parameter to the quantization unit 106. The relationship between the feature information and the quantization parameter will be described later.

量子化部106は、ウェーブレット変換部103から入力されるサブバンドデータに対して、量子化制御部105から入力される量子化パラメータを用いて変換係数(サブバンド係数)の量子化を実行する。量子化された変換係数は、量子化部106からエントロピー符号化部107に出力される。 The quantization unit 106 executes the quantization of the conversion coefficient (sub-band coefficient) with respect to the sub-band data input from the wavelet conversion unit 103 by using the quantization parameter input from the quantization control unit 105. The quantized conversion coefficient is output from the quantization unit 106 to the entropy coding unit 107.

エントロピー符号化部107は、量子化部106において量子化された変換係数(サブバンド係数)を符号化して符号化データを取得する。以上の圧縮符号化は、例えば、ゴロム符号化等のエントロピー符号化である。符号化データは、エントロピー符号化部107から記録媒体108に出力される。 The entropy coding unit 107 encodes the conversion coefficient (subband coefficient) quantized in the quantization unit 106 to acquire the coded data. The above compression coding is, for example, entropy coding such as Golomb coding. The coded data is output from the entropy coding unit 107 to the recording medium 108.

記録媒体108は、例えば、不揮発性メモリによって構成される記録メディアであって、エントロピー符号化部107から入力される符号化データを格納する。 The recording medium 108 is, for example, a recording medium composed of a non-volatile memory, and stores coded data input from the entropy coding unit 107.

プレーン変換部102からエントロピー符号化部107までの機能ブロックは、符号化装置100が有する1つ以上のCPU等のプロセッサが、不揮発性メモリに格納されたプログラムを揮発性メモリに展開して実行することによって実現される。 In the functional blocks from the plane conversion unit 102 to the entropy coding unit 107, one or more processors such as a CPU of the coding device 100 expand the program stored in the non-volatile memory into the volatile memory and execute the program. It is realized by.

次いで、特徴情報と量子化パラメータとの関係性について、以下に説明する。前述したように、特徴情報として、明度を示す特徴情報、複雑度を示す特徴情報、およびエッジ有無を示す特徴情報が例示される。 Next, the relationship between the feature information and the quantization parameter will be described below. As described above, as the feature information, feature information indicating brightness, feature information indicating complexity, and feature information indicating the presence or absence of edges are exemplified.

明度は、RAWデータの輝度レベルを示す。量子化処理においては、輝度レベルが低い領域(暗部領域)に対して粗い量子化(量子化ビット数の小さい量子化)を施すと、量子化後の係数が0になりやすい。すなわち、暗部領域に対して粗い量子化を施すと微細な情報が失われやすい。また、RAWデータに対して、データ記録後の処理(ポスト処理)においてガンマ補正やトーンカーブ補正のような輝度レベル調整が実行される。以上の輝度レベル調整においては、一般的に、暗部領域の輝度レベルが増大されると共に明部領域の輝度レベルが低減される。そのため、同一の量子化パラメータを用いて暗部領域と明部領域との双方の量子化を行うと、輝度レベルが大きく増大される暗部領域では、量子化歪みの増幅度も大きいので画質劣化が目立ちやすい。一方で、輝度レベルが低減される明部領域では、量子化歪みの増幅度が小さいので画質劣化が目立ちにくい。以上の傾向に基づき、画質劣化が目立ちやすい暗部領域では量子化歪みが小さくなるように細かく量子化し、画質劣化が目立ちにくい明部領域では符号量が増大しないように粗く量子化すると好適である。 The brightness indicates the brightness level of the RAW data. In the quantization process, if coarse quantization (quantization with a small number of quantization bits) is performed on a region with a low luminance level (dark region), the coefficient after quantization tends to be zero. That is, when coarse quantization is applied to the dark region, fine information is likely to be lost. Further, for RAW data, brightness level adjustment such as gamma correction and tone curve correction is executed in processing (post processing) after data recording. In the above luminance level adjustment, in general, the luminance level in the dark region is increased and the luminance level in the bright region is decreased. Therefore, when both the dark region and the bright region are quantized using the same quantization parameter, the degree of amplification of the quantization distortion is large in the dark region where the brightness level is greatly increased, so that the image quality deterioration is conspicuous. Cheap. On the other hand, in the bright region where the brightness level is reduced, the degree of amplification of the quantization distortion is small, so that the deterioration of image quality is not noticeable. Based on the above tendency, it is preferable to finely quantize so that the quantization distortion becomes small in the dark region where the deterioration of image quality is conspicuous, and coarsely quantize the code amount so as not to increase in the bright region where the deterioration of image quality is not conspicuous.

複雑度は、RAWデータの空間周波数の高さを示す。エッジ有無は、輝度レベルが急激に変化する部分であるエッジの存在を示す。RAWデータにおいて、空間周波数が低いほど平坦な領域であり、空間周波数が高いほど複雑な領域である。一般的に、画像圧縮においては、平坦領域の情報を削減すると視覚的な劣化が目立ちやすい一方、複雑領域の情報を削減しても視覚的な劣化は目立ちにくい。ただし、複雑領域(空間周波数が高い領域)であっても、輝度レベルが急激に変化する部分であるエッジを含む領域は、情報を削減すると視覚的な劣化が目立ちやすい。以上の傾向に基づき、視覚的な劣化が目立ちやすい平坦領域や含エッジ領域では細かく量子化し、視覚的な劣化が目立ちにくい複雑領域では粗く量子化すると好適である。 Complexity indicates the height of the spatial frequency of the RAW data. The presence or absence of an edge indicates the presence or absence of an edge, which is a portion where the brightness level changes rapidly. In RAW data, the lower the spatial frequency, the flatter the region, and the higher the spatial frequency, the more complex the region. Generally, in image compression, visual deterioration is easily noticeable when information in a flat region is reduced, while visual deterioration is not noticeable even when information in a complex region is reduced. However, even in a complicated region (a region having a high spatial frequency), in a region including an edge, which is a portion where the brightness level changes rapidly, visual deterioration is likely to be noticeable when information is reduced. Based on the above tendency, it is preferable to finely quantize in a flat region or an edge-containing region where visual deterioration is easily noticeable, and coarsely quantize in a complicated region where visual deterioration is not noticeable.

次いで、各々の特徴情報の生成手法について、図4から図6を参照して以下に説明する。特徴情報生成部104は、Yプレーンのサブバンド係数を特徴量として、明度、複雑度、およびエッジ有無をそれぞれ示す特徴情報を所定のブロック単位で生成する。 Next, each feature information generation method will be described below with reference to FIGS. 4 to 6. The feature information generation unit 104 uses the subband coefficient of the Y plane as a feature amount to generate feature information indicating brightness, complexity, and the presence / absence of edges in predetermined block units.

図4を参照して、水平方向に亘る特徴情報の生成について説明する。本例では、分解レベル1のサブバンドにおいて水平方向に連続する4つの変換係数(水平4係数)を用いて、特徴情報の生成単位であるブロック401〜404ごとに特徴情報を生成する。分解レベル1のサブバンド形成図400において、ブロック401〜404はそれぞれ同一の空間座標を指している。 The generation of characteristic information in the horizontal direction will be described with reference to FIG. In this example, the feature information is generated for each block 401 to 404, which is a generation unit of the feature information, by using four conversion coefficients (horizontal four coefficients) that are continuous in the horizontal direction in the subband of the decomposition level 1. Subband formation at decomposition level 1 In FIG. 400, blocks 401 to 404 point to the same spatial coordinates.

前述のように、明度の特徴情報は、RAWデータの輝度レベルを示す。したがって、明度P1は、画像のDC成分である1LLサブバンド係数のブロック401を用いて生成することができる。明度P1は、ブロック401内の係数A0、A1、A2、A3を用いて、以下の式(2)によって表される。 As mentioned above, the brightness feature information indicates the luminance level of the RAW data. Therefore, the brightness P1 can be generated by using the block 401 having a 1LL subband coefficient which is a DC component of the image. The brightness P1 is represented by the following equation (2) using the coefficients A0, A1, A2, and A3 in the block 401.

P1=(A0+A1+A2+A3+2)>>2 ……式(2) P1 = (A0 + A1 + A2 + A3 + 2) >> 2 …… Equation (2)

また、複雑度の特徴情報(複雑度P2)は、画像のAC成分である1HLサブバンド係数のブロック402、1LHサブバンド係数のブロック403、および1HHサブバンド係数のブロック404に基づいて生成することができる。複雑度P2は、ブロック402について生成される中間評価値PHL、ブロック403について生成される中間評価値PLH、およびブロック404について生成される中間評価値PHHのうちの最大値であって、以下の式(3)によって表される。 Further, the complexity feature information (complexity P2) is generated based on the block 402 of the 1HL subband coefficient, which is the AC component of the image, the block 403 of the 1LH subband coefficient, and the block 404 of the 1HH subband coefficient. Can be done. The complexity P2 is the maximum value of the intermediate evaluation value PHL generated for the block 402, the intermediate evaluation value PLH generated for the block 403, and the intermediate evaluation value PHH generated for the block 404, and is expressed by the following equation. It is represented by (3).

P2=MAX(PHL,PLH,PHH) ……式(3) P2 = MAX (PHL, PLH, PHH) …… Equation (3)

式(3)における中間評価値PHLは、ブロック402内の係数B0、B1、B2、B3を用いて以下の式(4)によって表される。同様に、中間評価値PLHは、ブロック403内の係数C0、C1、C2、C3を用いて以下の式(5)によって表され、中間評価値PHHは、ブロック404内の係数D0、D1、D2、D3を用いて以下の式(6)によって表される。式(4)〜式(6)において、ABSは絶対値変換処理を示している。 The intermediate evaluation value PHL in the formula (3) is represented by the following formula (4) using the coefficients B0, B1, B2, and B3 in the block 402. Similarly, the intermediate evaluation value PLH is represented by the following equation (5) using the coefficients C0, C1, C2, C3 in the block 403, and the intermediate evaluation value PHH is the coefficients D0, D1, D2 in the block 404. , D3 is expressed by the following equation (6). In equations (4) to (6), ABS indicates an absolute value conversion process.

PHL={ABS(B0)+ABS(B1)+ABS(B2)+ABS(B3)+2}>>2 ……式(4)
PLH={ABS(C0)+ABS(C1)+ABS(C2)+ABS(C3)+2}>>2 ……式(5)
PHH={ABS(D0)+ABS(D1)+ABS(D2)+ABS(D3)+2}>>2 ……式(6)
PHL = {ABS (B0) + ABS (B1) + ABS (B2) + ABS (B3) +2} >> 2 …… Equation (4)
PLH = {ABS (C0) + ABS (C1) + ABS (C2) + ABS (C3) +2} >> 2 …… Equation (5)
PHH = {ABS (D0) + ABS (D1) + ABS (D2) + ABS (D3) +2} >> 2 …… Equation (6)

図5を参照して、上記した水平4係数に垂直方向のエッジ(垂直エッジ)が含まれるか否かを検出する処理について説明する。図5(a)は、本例における垂直エッジの検出に用いられる周波数成分(水平4係数(n〜n+3))を例示している。水平方向に対する周波数成分に関するHLサブバンドの係数を用いて検出処理を実行することで、水平方向に対する高周波成分である垂直エッジを検出することができる。本例の検出処理においては、各係数が、所定の閾値を上回る場合に「振幅値大」と判定される一方、所定の閾値以下である場合に「振幅値小」と判定される。そして、以上の判定値(「振幅値大」または「振幅値小」)の配列に従って、垂直エッジが水平4係数に含まれるか否か判定される。 A process of detecting whether or not an edge in the vertical direction (vertical edge) is included in the above-mentioned four horizontal coefficients will be described with reference to FIG. FIG. 5A illustrates the frequency components (horizontal 4 coefficients (n to n + 3)) used for detecting the vertical edge in this example. By executing the detection process using the coefficient of the HL subband with respect to the frequency component in the horizontal direction, the vertical edge, which is the high frequency component in the horizontal direction, can be detected. In the detection process of this example, when each coefficient exceeds a predetermined threshold value, it is determined to be "large amplitude value", while when it is equal to or less than a predetermined threshold value, it is determined to be "small amplitude value". Then, according to the array of the above determination values (“large amplitude value” or “small amplitude value”), it is determined whether or not the vertical edge is included in the horizontal 4 coefficients.

図5(b)は、垂直エッジが含まれると判定される水平4係数の配列を例示している。図5(b)における水平軸上の水平座標位置(n〜n+3)は、図5(a)の水平4係数(n〜n+3)に対応している。図5(b)における垂直軸は、各水平座標位置における係数値に相当する。図示の通り、水平座標位置における判定値は、それぞれ、n=振幅値小、n+1=振幅値小、n+2=振幅値大、n+3=振幅値小であって、水平座標位置がnからn+3に変化する際に閾値を跨ぐ振幅値(係数値)の変化が生じている。以上のように閾値を跨ぐ振幅値の変化が生じていることは、水平4係数に相当する箇所において画像の水平方向の連続性が破れていることを示すので、垂直エッジが存在すると判定される。 FIG. 5B illustrates an array of horizontal 4 coefficients that are determined to include vertical edges. The horizontal coordinate positions (n to n + 3) on the horizontal axis in FIG. 5 (b) correspond to the horizontal 4 coefficients (n to n + 3) in FIG. 5 (a). The vertical axis in FIG. 5B corresponds to the coefficient value at each horizontal coordinate position. As shown in the figure, the judgment values at the horizontal coordinate position are n = small amplitude value, n + 1 = small amplitude value, n + 2 = large amplitude value, n + 3 = small amplitude value, and the horizontal coordinate position changes from n to n + 3. When doing so, the amplitude value (coordinate value) changes across the threshold. The fact that the amplitude value changes across the threshold value as described above indicates that the horizontal continuity of the image is broken at the portion corresponding to the horizontal 4 coefficient, and therefore it is determined that the vertical edge exists. ..

図6を参照して、垂直方向に連続する3つの変換係数(垂直3係数)に水平方向のエッジ(水平エッジ)が含まれるか否かを検出する処理について説明する。図6(a)は、本例における水平エッジの検出に用いられる周波数成分(垂直3係数(m−1〜m+1))を例示している。垂直方向に対する周波数成分に関するLHサブバンドの係数を用いて検出処理を実行することで、垂直方向に対する高周波成分である水平エッジを検出することができる。本例の検出処理においては、各係数が、所定の閾値を上回る場合に「振幅値大」と判定される一方、所定の閾値以下である場合に「振幅値小」と判定される。そして、以上の判定値(同前)の配列に従って、水平エッジが垂直3係数に含まれるか否か判定される。 With reference to FIG. 6, a process for detecting whether or not a horizontal edge (horizontal edge) is included in three vertically continuous conversion coefficients (vertical three coefficients) will be described. FIG. 6A illustrates the frequency components (vertical 3 coefficients (m-1 to m + 1)) used for detecting the horizontal edge in this example. By executing the detection process using the coefficient of the LH subband with respect to the frequency component in the vertical direction, the horizontal edge, which is the high frequency component in the vertical direction, can be detected. In the detection process of this example, when each coefficient exceeds a predetermined threshold value, it is determined to be "large amplitude value", while when it is equal to or less than a predetermined threshold value, it is determined to be "small amplitude value". Then, according to the array of the above determination values (same as above), it is determined whether or not the horizontal edge is included in the vertical three coefficients.

図6(b)は、水平エッジが含まれると判定される垂直3係数の配列を例示している。図6(b)における水平軸上の垂直座標位置(m−1〜m+1)は、図6(a)の垂直3係数(m−1〜m+1)に対応している。図6(b)における垂直軸は、各垂直座標位置における係数値に相当する。図示の通り、垂直座標位置における判定値は、それぞれ、m−1=振幅値小、m=振幅値大、m+1=振幅値小であって、垂直座標位置がm−1からm+1に変化する際に閾値を跨ぐ振幅値(係数値)の変化が生じている。以上のように閾値を跨ぐ振幅値の変化が生じていることは、垂直3係数に相当する箇所において画像の垂直方向の連続性が破れていることを示すので、水平エッジが存在すると判定される。 FIG. 6B illustrates an array of vertical 3 coefficients that are determined to include horizontal edges. The vertical coordinate positions (m-1 to m + 1) on the horizontal axis in FIG. 6B correspond to the vertical 3 coefficients (m-1 to m + 1) in FIG. 6A. The vertical axis in FIG. 6B corresponds to the coefficient value at each vertical coordinate position. As shown in the figure, the judgment values at the vertical coordinate position are m-1 = small amplitude value, m = large amplitude value, and m + 1 = small amplitude value, respectively, when the vertical coordinate position changes from m-1 to m + 1. There is a change in the amplitude value (coordinate value) across the threshold. The fact that the amplitude value changes across the threshold value as described above indicates that the vertical continuity of the image is broken at the portion corresponding to the vertical three coefficients, so that it is determined that the horizontal edge exists. ..

図7を参照して、量子化制御部105が実行する特徴分類の基本概念について説明する。図7に示される特徴分類表において、閾値TH0は、輝度P1を低輝度と中輝度とのいずれかに分類する閾値であり、閾値TH1は、輝度P1を中輝度と高輝度とのいずれかに分類する閾値である。また、閾値TH2は、空間周波数を示す複雑度P2を低周波と中周波とのいずれかに分類する閾値であり、閾値TH3は、複雑度Pを中周波と高周波とのいずれかに分類する閾値である。以上の4つの閾値TH0〜TH3は、それぞれ、画像のビット深度等の条件に応じて任意に設定可能なパラメータである。以上の4つの閾値TH0〜TH3と輝度P1、複雑度P2との大小関係に応じて各ブロックの特徴が分類される。 With reference to FIG. 7, the basic concept of feature classification executed by the quantization control unit 105 will be described. In the feature classification table shown in FIG. 7, the threshold value TH0 is a threshold value for classifying the luminance P1 into either low-luminance or medium-luminance, and the threshold TH1 indicates that the luminance P1 is classified into either medium-luminance or high-luminance. It is a threshold to classify. Further, the threshold value TH2 is a threshold value for classifying the complexity P2 indicating the spatial frequency into either low frequency or medium frequency, and the threshold value TH3 is a threshold value for classifying the complexity P into either medium frequency or high frequency. Is. The above four thresholds TH0 to TH3 are parameters that can be arbitrarily set according to conditions such as the bit depth of the image. The characteristics of each block are classified according to the magnitude relationship between the above four thresholds TH0 to TH3, the brightness P1, and the complexity P2.

補正量Q0〜Q8は、閾値TH0〜TH3に基づいて分類された特徴情報(輝度P1、複雑度P2)に適用すべき量子化パラメータの補正量である。なお、補正量Q0〜Q8を適用すべき領域を、それぞれ、同じ符号を用いて領域Q0〜Q8と称することがある。補正量Q0〜Q8の大小関係を以下の式(7)に例示する。 The correction amounts Q0 to Q8 are correction amounts of quantization parameters to be applied to the feature information (luminance P1, complexity P2) classified based on the threshold values TH0 to TH3. The regions to which the correction amounts Q0 to Q8 should be applied may be referred to as regions Q0 to Q8 using the same reference numerals. The magnitude relationship between the correction amounts Q0 to Q8 is illustrated by the following equation (7).

Q0<Q1≦Q3≦Q2≦Q4≦Q6<Q5≦Q7<Q8 ……式(7) Q0 <Q1 ≦ Q3 ≦ Q2 ≦ Q4 ≦ Q6 <Q5 ≦ Q7 <Q8 …… Equation (7)

量子化パラメータは、視覚特性を考慮して、輝度が低く平坦な領域Q0において最も小さくなり、輝度が高く複雑な領域Q8において最も大きくなるように重み付けされると好適である。式(7)における補正量の大小関係は、領域Q0から他の各領域Q1〜Q7までの距離に基づいて設定されている。 It is preferable that the quantization parameter is weighted so as to be the smallest in the low-luminance and flat region Q0 and the largest in the high-luminance and complex region Q8 in consideration of visual characteristics. The magnitude relation of the correction amount in the equation (7) is set based on the distance from the region Q0 to each of the other regions Q1 to Q7.

図8を参照して、エッジの存在を考慮した特徴分類について説明する。前述した垂直エッジおよび水平エッジの判定においてエッジが存在すると判定された場合、図7に示される特徴分類表が図8に示すように変更される。例えば、量子化制御部105は、領域Q3、Q6(領域801)に分類される要素を、領域Q0(領域802)に分類されるように変更する。同様に、量子化制御部105は、領域Q4、Q7(領域803)に分類される要素を領域Q1(領域804)に、領域Q5、Q8(領域805)に分類される要素を領域Q2(領域806)に分類されるように変更する。以上の構成によれば、視覚的な劣化が目立ちやすいエッジ領域の量子化パラメータを低く維持することができる。 The feature classification considering the existence of the edge will be described with reference to FIG. When it is determined that an edge exists in the above-mentioned determination of the vertical edge and the horizontal edge, the feature classification table shown in FIG. 7 is changed as shown in FIG. For example, the quantization control unit 105 changes the elements classified into the regions Q3 and Q6 (region 801) so as to be classified into the region Q0 (region 802). Similarly, the quantization control unit 105 sets the elements classified into the regions Q4 and Q7 (region 803) into the region Q1 (region 804) and the elements classified into the regions Q5 and Q8 (region 805) into the region Q2 (region Q2). It is changed so that it is classified into 806). According to the above configuration, the quantization parameter of the edge region where visual deterioration is easily noticeable can be kept low.

次いで、ウェーブレット変換のタイミングとラインバッファについて、図9から図11を参照して以下に説明する。以下の例においては、ウェーブレット変換部103において、可逆5−3タップフィルタを用いたウェーブレット変換(以下、DWT変換と称する)が実行される。 Next, the timing of the wavelet transform and the line buffer will be described below with reference to FIGS. 9 to 11. In the following example, the wavelet transform unit 103 executes wavelet transform (hereinafter, referred to as DWT transform) using a reversible 5-3 tap filter.

図9を参照して、ウェーブレット係数(以下、DWT係数と称する)が出力されるタイミングを説明する。本例のDWT係数(サブバンド係数)は、リフティング構造を用いたDWT変換によって取得される。図9(a)の状態が図9(b)の状態および図9(c)の状態に遷移するに従って、画素データが逐次に追加されている。 The timing at which the wavelet coefficient (hereinafter referred to as the DWT coefficient) is output will be described with reference to FIG. The DWT coefficient (subband coefficient) of this example is obtained by the DWT transform using the lifting structure. Pixel data is sequentially added as the state of FIG. 9A transitions to the state of FIG. 9B and the state of FIG. 9C.

図9(a)において、入力される画素データa〜eは、水平方向に連続的に配置された画素に対応している。DWT係数bは、画素データa、b、cを用いて以下の式(8−1)に従って生成された分解レベル1の高周波成分の係数である。DWT係数dは、画素データc、d、eを用いて以下の式(8−2)に従って生成された分解レベル1の高周波成分の係数である。DWT係数cはDWT係数b、DWT係数d、および画素データcを用いて以下の式(8−3)に従って生成された分解レベル1の低周波成分の係数である。 In FIG. 9A, the input pixel data a to e correspond to pixels continuously arranged in the horizontal direction. The DWT coefficient b H is a coefficient of the high frequency component of the decomposition level 1 generated according to the following equation (8-1) using the pixel data a, b, and c. The DWT coefficient d H is a coefficient of the high frequency component of the decomposition level 1 generated according to the following equation (8-2) using the pixel data c, d, and e. The DWT coefficient c L is a coefficient of the low frequency component of the decomposition level 1 generated according to the following equation (8-3) using the DWT coefficient b H , the DWT coefficient d H, and the pixel data c.

=b−(a+c)/2 ……式(8−1)
=d−(c+e)/2 ……式(8−2)
=c+(b+d+2)/4 ……式(8−3)
b H = b− (a + c) / 2 …… Equation (8-1)
d H = d− (c + e) / 2 …… Equation (8-2)
c L = c + (b H + d H + 2) / 4 …… Equation (8-3)

図9(b)は、図9(a)の状態に対して、水平方向に画素データfが新たに入力された状態を示す。図9(b)から理解されるように、1つの画素データfが追加されても新たなDWT変換を実行するには画素データ数が不足しているので、新たなDWT係数は出力されない。 FIG. 9B shows a state in which pixel data f is newly input in the horizontal direction with respect to the state of FIG. 9A. As can be understood from FIG. 9B, even if one pixel data f is added, the number of pixel data is insufficient to execute the new DWT conversion, so that the new DWT coefficient is not output.

図9(c)は、図9(b)の状態に対して、水平方向に画素データgが新たに入力された状態を示す。図9(c)から理解されるように、図9(a)と比較して2つの画素データf、gが追加されているので、新たなDWT変換を実行することができる。結果として、高周波成分のDWT係数fおよび低周波成分のDWT係数eが出力される。 FIG. 9C shows a state in which pixel data g is newly input in the horizontal direction with respect to the state of FIG. 9B. As can be understood from FIG. 9 (c), since the two pixel data f and g are added as compared with FIG. 9 (a), a new DWT transform can be executed. As a result, the DWT coefficient f H of the high frequency component and the DWT coefficient e L of the low frequency component are output.

以上のように、水平方向に2画素分の画素データが入力されるごとに1回の水平方向におけるDWT変換(以下、水平DWT変換と称する)が実行される。以上の関係性は垂直方向においても同様であって、垂直方向に2画素分の画素データが入力されるごとに1回の垂直方向におけるDWT変換(以下、垂直DWT変換と称する)が実行される。 As described above, every time the pixel data for two pixels is input in the horizontal direction, the DWT conversion in the horizontal direction (hereinafter, referred to as horizontal DWT conversion) is executed once. The above relationship is the same in the vertical direction, and one vertical DWT conversion (hereinafter referred to as vertical DWT conversion) is executed every time pixel data for two pixels is input in the vertical direction. ..

画素データの数に関して、図3に示すように、分解レベル1の各サブバンドのサイズは水平方向および垂直方向の各々において入力画素データの半分である。したがって、各サブバンド係数の数は、オリジナル画像の画素数の1/4である。 Regarding the number of pixel data, as shown in FIG. 3, the size of each subband of decomposition level 1 is half of the input pixel data in each of the horizontal direction and the vertical direction. Therefore, the number of each subband coefficient is 1/4 of the number of pixels of the original image.

図10を参照して、画面の端部(左端)におけるDWT変換の実行手法について説明する。図10において、入力される3つの画素データa、b、cは、画面左端から水平方向に連続的に配置された画素に対応している。図10に示すように、画面の左端で水平DWT変換を実行する場合、左端に最も近い画素データaを基準に左右対称となるように画素データb、cをコピーすることによって、不足する画素データ(左端よりも左に位置すべき画素データ)を拡張する。以上のデータ拡張によって、左端においても水平DWT変換を実行することができる。なお、右端においても同様に水平DWT変換を実行することができる。さらに、上端および下端においても同様に垂直DWT変換を実行することができる。 A method of executing the DWT conversion at the edge (left edge) of the screen will be described with reference to FIG. In FIG. 10, the three input pixel data a, b, and c correspond to pixels continuously arranged in the horizontal direction from the left edge of the screen. As shown in FIG. 10, when the horizontal DWT conversion is executed at the left edge of the screen, the missing pixel data is obtained by copying the pixel data b and c so as to be symmetrical with respect to the pixel data a closest to the left edge. Extend (pixel data that should be located to the left of the left edge). With the above data expansion, the horizontal DWT transform can be executed even at the left end. The horizontal DWT transform can be similarly executed at the right end. Further, the vertical DWT transform can be similarly performed at the upper end and the lower end.

図11Aから図11Gを参照して、リフティング構造を用いた垂直DWT変換について説明する。本例のDWT変換においては、1ライン分の画素データが順次に入力される。図11Aから図11Gにおける画素データa〜gは、1ライン分の入力画素データを示す。図11Aから図11Gまでの時系列において、画素データa〜gが入力されるのに伴って、画素ラインバッファおよび垂直DWTラインバッファに格納されるデータが変化していく。画素ラインバッファは、低周波成分のDWT係数および高周波成分のDWT係数を算出するために1ライン分の画素データをバッファリングする。垂直DWTラインバッファは、低周波成分のDWT係数を算出するために1ライン分の高周波成分のDWT係数をバッファリングする。 The vertical DWT transform using the lifting structure will be described with reference to FIGS. 11A to 11G. In the DWT transform of this example, pixel data for one line is sequentially input. Pixel data a to g in FIGS. 11A to 11G show input pixel data for one line. In the time series from FIG. 11A to FIG. 11G, the data stored in the pixel line buffer and the vertical DWT line buffer changes as the pixel data a to g are input. The pixel line buffer buffers pixel data for one line in order to calculate the DWT coefficient of the low frequency component and the DWT coefficient of the high frequency component. The vertical DWT line buffer buffers the DWT coefficient of one line of high frequency components in order to calculate the DWT coefficient of the low frequency components.

図11Aに示すように、ウェーブレット変換部103は、1ライン分の画素データaが入力されると、画素ラインバッファLine_Buffer0に画素データaを格納する。 As shown in FIG. 11A, when the pixel data a for one line is input, the wavelet transform unit 103 stores the pixel data a in the pixel line buffer Line_Buffer0.

図11Bに示すように、ウェーブレット変換部103は、次の1ライン分の画素データbが入力されると、画素ラインバッファLine_Buffer1に画素データbを格納する。 As shown in FIG. 11B, when the pixel data b for the next one line is input, the wavelet transform unit 103 stores the pixel data b in the pixel line buffer Line_Buffer1.

図11Cに示すように、ウェーブレット変換部103は、次の1ライン分の画素データcが入力されると、画素データcと画素ラインバッファLine_Buffer0、1の画素データa、bとを用いて分解レベル1の高周波成分のDWT係数bを算出する。さらに、ウェーブレット変換部103は、算出されたDWT係数bと画素ラインバッファLine_Buffer0に格納されている画素データaとを用いて分解レベル1の低周波成分のDWT係数aを算出する。ウェーブレット変換部103は、DWT係数aを算出した後、画素ラインバッファLine_Buffer0の画像データaを画像データcで上書きする。ウェーブレット変換部103は、算出したDWT係数aを、水平方向のDWT変換を実行する水平DWT変換部へ出力する。ウェーブレット変換部103は、算出したDWT係数bを、水平DWT変換部に出力すると共に、垂直DWTラインバッファLine_Buffer2に格納する。 As shown in FIG. 11C, when the pixel data c for the next one line is input, the wavelet transform unit 103 uses the pixel data c and the pixel data a and b of the pixel line buffer Line_Buffer0 and 1 to perform the decomposition level. calculating the DWT coefficients b H the first high frequency component. Further, the wavelet transform unit 103 calculates the DWT coefficient a L of the low frequency component of the decomposition level 1 by using the calculated DWT coefficient b H and the pixel data a stored in the pixel line buffer Line_Buffer0. After calculating the DWT coefficient a L , the wavelet transform unit 103 overwrites the image data a of the pixel line buffer Line_Buffer0 with the image data c. The wavelet transform unit 103 outputs the calculated DWT coefficient a L to the horizontal DWT transform unit that executes the horizontal DWT transform. The wavelet transform unit 103, the calculated DWT coefficients b H, and outputs to the horizontal DWT transform unit, and stores the vertical DWT line buffer Line_Buffer2.

図11Dに示すように、ウェーブレット変換部103は、次の1ライン分の画素データdが入力されると、画素ラインバッファLine_Buffer1の画像データbを画像データdで上書きする。 As shown in FIG. 11D, when the pixel data d for the next one line is input, the wavelet transform unit 103 overwrites the image data b of the pixel line buffer Line_Buffer1 with the image data d.

図11Eに示すように、ウェーブレット変換部103は、次の1ライン分の画素データeが入力されると、画素データeと画素ラインバッファLine_Buffer0、1の画素データc、dとを用いて分解レベル1の高周波成分のDWT係数dを算出する。さらに、ウェーブレット変換部103は、算出されたDWT係数dと画素ラインバッファLine_Buffer0の画素データcと垂直DWTラインバッファLine_Buffer2のDWT係数bとを用いて分解レベル1の低周波成分のDWT係数cを算出する。ウェーブレット変換部103は、DWT係数cを算出した後、画素ラインバッファLine_Buffer0の画像データcを画像データeで上書きする。ウェーブレット変換部103は、算出したDWT係数cを水平DWT変換部へ出力する。ウェーブレット変換部103は、算出したDWT係数dを、水平DWT変換部に出力すると共に、垂直DWTラインバッファLine_Buffer3に格納する。 As shown in FIG. 11E, when the pixel data e for the next one line is input, the wavelet transform unit 103 uses the pixel data e and the pixel data c and d of the pixel line buffer Line_Buffer0 and 1 to perform the decomposition level. The DWT coefficient d H of the high frequency component of 1 is calculated. Furthermore, the wavelet transform unit 103, calculated DWT coefficients d H and DWT coefficients of DWT coefficients b H and a low-frequency component of the decomposition level 1 with the pixel data c and the vertical DWT line buffer Line_Buffer2 pixel line buffers Line_Buffer0 c Calculate L. After calculating the DWT coefficient c L , the wavelet transform unit 103 overwrites the image data c of the pixel line buffer Line_Buffer0 with the image data e. The wavelet transform unit 103 outputs the calculated DWT coefficient c L to the horizontal DWT transform unit. The wavelet transform unit 103, the calculated DWT coefficients d H, and outputs to the horizontal DWT transform unit, and stores the vertical DWT line buffer Line_Buffer3.

図11Fに示すように、ウェーブレット変換部103は、次の1ライン分の画素データfが入力されると、画素ラインバッファLine_Buffer1の画像データdを画像データfで上書きする。 As shown in FIG. 11F, when the pixel data f for the next one line is input, the wavelet transform unit 103 overwrites the image data d of the pixel line buffer Line_Buffer1 with the image data f.

図11Gに示すように、ウェーブレット変換部103は、次の1ライン分の画素データgが入力されると、画素データgと画素ラインバッファLine_Buffer0、1の画素データe、fとを用いて分解レベル1の高周波成分のDWT係数fを算出する。さらに、ウェーブレット変換部103は、算出されたDWT係数fと画素ラインバッファLine_Buffer0の画素データeと垂直DWTラインバッファLine_Buffer2のDWT係数dとを用いて分解レベル1の低周波成分のDWT係数eを算出する。ウェーブレット変換部103は、DWT係数eを算出した後、画素ラインバッファLine_Buffer0の画像データeを画像データgで上書きする。ウェーブレット変換部103は、算出したDWT係数eを水平DWT変換部へ出力する。ウェーブレット変換部103は、算出したDWT係数fを、水平DWT変換部に出力すると共に、垂直DWTラインバッファLine_Buffer2に格納されているDWT係数bに上書きする。 As shown in FIG. 11G, when the pixel data g for the next one line is input, the wavelet transform unit 103 uses the pixel data g and the pixel data e and f of the pixel line buffer Line_Buffer0 and 1 to perform the decomposition level. The DWT coefficient f H of the high frequency component of 1 is calculated. Furthermore, the wavelet transform unit 103, the calculated DWT coefficients f H and DWT coefficients of low frequency components at the decomposition level 1 with the DWT coefficients d H pixel data e and the vertical DWT line buffer Line_Buffer2 pixel line buffers Line_Buffer0 e Calculate L. After calculating the DWT coefficient e L , the wavelet transform unit 103 overwrites the image data e of the pixel line buffer Line_Buffer0 with the image data g. The wavelet transform unit 103 outputs the calculated DWT coefficient e L to the horizontal DWT transform unit. The wavelet transform unit 103, the calculated DWT coefficients f H, and outputs to the horizontal DWT transform unit, and overwrites the DWT coefficients b H stored in the vertical DWT line buffer Line_Buffer2.

以降、ウェーブレット変換部103は、同様の処理を、最終ラインの画素データに至るまで繰り返して実行する。以上から理解されるように、本例の垂直DWT変換を実行するには、少なくとも、2ラインの画素ラインバッファLine_Buffer0、1と2ラインの垂直DWTラインバッファLine_Buffer2、3とが必要である。 After that, the wavelet transform unit 103 repeatedly executes the same process until the pixel data of the final line is reached. As can be seen from the above, in order to execute the vertical DWT transform of this example, at least two lines of pixel line buffers Line_Buffer0 and 1 and two lines of vertical DWT line buffers Line_Buffer2 and 3 are required.

図12は、プレーン変換後の上記した処理を実行可能な符号化装置100の詳細構成を例示するブロック図である。符号化装置100は、ウェーブレット変換部1200、特徴情報生成部1201、量子化制御部1202、量子化部1203、およびエントロピー符号化部1204を有する。以上の要素は、それぞれ、図1のウェーブレット変換部103、特徴情報生成部104、量子化制御部105、量子化部106、およびエントロピー符号化部107に対応している。図12において不図示の要素は、図1と同様に構成されると好適である。 FIG. 12 is a block diagram illustrating a detailed configuration of the coding apparatus 100 capable of executing the above-mentioned processing after the plane conversion. The coding device 100 includes a wavelet transform unit 1200, a feature information generation unit 1201, a quantization control unit 1202, a quantization unit 1203, and an entropy coding unit 1204. The above elements correspond to the wavelet transform unit 103, the feature information generation unit 104, the quantization control unit 105, the quantization unit 106, and the entropy coding unit 107 of FIG. 1, respectively. It is preferable that the elements (not shown) in FIG. 12 are configured in the same manner as in FIG.

ウェーブレット変換部1200は、分解レベル1のDWT変換に用いられる画素ラインバッファ1205、垂直DWT変換部1206、垂直DWTラインバッファ1207、水平DWT変換部1208、および水平DWTラインバッファ1209を有する。特徴情報生成部1201は、水平エッジの判定に用いられる水平エッジ判定ラインバッファ1210を有する。 The wavelet transform unit 1200 has a pixel line buffer 1205, a vertical DWT transform unit 1206, a vertical DWT line buffer 1207, a horizontal DWT transform unit 1208, and a horizontal DWT line buffer 1209 used for DWT transform of decomposition level 1. The feature information generation unit 1201 has a horizontal edge determination line buffer 1210 used for determining a horizontal edge.

図13は、図12に示す符号化装置100において実行されるDWT変換、特徴情報生成、並びに量子化およびエントロピー符号化の時系列を示すタイミングチャートである。本例では、符号化装置100が、ラスタ順に入力されたプレーン変換後の画素データに対して分解レベル1まで垂直DWT変換および水平DWT変換を実行する。 FIG. 13 is a timing chart showing a time series of DWT transform, feature information generation, and quantization and entropy coding performed in the coding apparatus 100 shown in FIG. In this example, the coding apparatus 100 executes vertical DWT conversion and horizontal DWT conversion up to decomposition level 1 on the pixel data after plane conversion input in raster order.

図13の横軸は時間の推移を示している。期間t0〜t10において、それぞれ、1ライン分の画素データa〜kが入力される。画像データの入力は期間t0から開始する。以下、各行に示される矩形バー(以下、単に「バー」と称する)について説明する。 The horizontal axis of FIG. 13 shows the transition of time. In the periods t0 to t10, pixel data a to k for one line are input, respectively. The input of image data starts from the period t0. Hereinafter, the rectangular bar (hereinafter, simply referred to as “bar”) shown in each line will be described.

「画素データ」行に示されるバーa〜kは、対応期間において画素ラインバッファ1205に入力される1ライン分の画素データa〜kを示す。図示の通り、全期間に亘って「画素データ」行にバーが示されているので、全期間に亘って1ライン分の画素データが画素ラインバッファ1205に入力される。例えば、期間t0において、1ライン分の画素データaが画素ラインバッファ1205に入力される。また、期間t1において、1ライン分の画素データbが画素ラインバッファ1205に入力される。 Bars a to k shown in the "pixel data" line indicate pixel data a to k for one line input to the pixel line buffer 1205 during the corresponding period. As shown in the figure, since the bar is shown in the "pixel data" line over the entire period, one line of pixel data is input to the pixel line buffer 1205 over the entire period. For example, in the period t0, one line of pixel data a is input to the pixel line buffer 1205. Further, in the period t1, the pixel data b for one line is input to the pixel line buffer 1205.

「画素ラインバッファ」行に示されるバーa〜jは、入力された1ライン分の画素データが、対応期間において画素ラインバッファ1205に一時的に保持されていることを示す。例えば、期間t1において、画素データaが画素ラインバッファLine_Buffer0に保持されている。また、期間t2において、画素データa、bが、それぞれ画素ラインバッファLine_Buffer0、1に保持されている。 The bars a to j shown in the "pixel line buffer" line indicate that the input pixel data for one line is temporarily held in the pixel line buffer 1205 during the corresponding period. For example, in the period t1, the pixel data a is held in the pixel line buffer Line_Buffer0. Further, in the period t2, the pixel data a and b are held in the pixel line buffers Line_Buffer0 and 1, respectively.

「垂直DWT変換」行(「Lev1−L」行および「Lev1−H」行)に示されるバーa〜i、b〜jは、対応期間において垂直DWT変換部1206が分解レベル1の垂直DWT変換を実行することを示す。以上の垂直DWT変換後のDWT係数データは、垂直DWTラインバッファ1207または水平DWT変換部1208に出力される。例えば、期間t1において、垂直DWT変換は実行されない。また、期間t2において、分解レベル1の垂直DWT変換が実行され、DWT係数a、bが出力される。 The bars a L to i L and b H to j H shown in the "vertical DWT transform" line ("Lev1-L" line and "Lev1-H" line) are set to the decomposition level 1 by the vertical DWT transform unit 1206 during the corresponding period. Indicates that the vertical DWT transform of is performed. The above DWT coefficient data after vertical DWT conversion is output to the vertical DWT line buffer 1207 or the horizontal DWT conversion unit 1208. For example, in period t1, no vertical DWT transform is performed. Further, in the period t2, the vertical DWT transform of the decomposition level 1 is executed, and the DWT coefficients a L and b H are output.

「垂直DWTラインバッファ」行に示されるバーb、d、f、hは、垂直DWT変換部1206からのDWT係数が、対応期間において垂直DWTラインバッファ1207に一時的に保持されていることを示す。例えば、期間t3において、1ライン分のDWT係数bが垂直DWTラインバッファLine_Buffer2に保持される。また、期間t5において、1ライン分のDWT係数bが垂直DWTラインバッファLine_Buffer2に保持され、1ライン分のDWT係数dが垂直DWTラインバッファLine_Buffer3に保持される。 For the bars b H , d H , f H , and h H shown in the "Vertical DWT line buffer" line, the DWT coefficient from the vertical DWT converter 1206 is temporarily held in the vertical DWT line buffer 1207 during the corresponding period. Indicates that you are. For example, in the period t3, DWT coefficients b H for one line is held in a vertical DWT line buffer Line_Buffer2. Further, in the period t5, DWT coefficients b H for one line are held in a vertical DWT line buffer Line_Buffer2, DWT coefficients d H of one line is held in a vertical DWT line buffer Line_Buffer3.

「水平DWT変換」行(「Lev1−LL」行、「Lev1−HL」行、「Lev1−LH」行、「Lev1−HH」行)に示されるバーaXX〜jXX(Xは、LまたはH)は、対応期間において分解レベル1の水平DWT変換が実行されることを示す。以上の水平DWT変換は、水平DWT変換部1208によって実行される。水平DWT変換後のDWT係数データは、水平DWTラインバッファ1209に出力される。例えば、期間t0、t1において、水平DWT変換は実行されない。また、期間t2において、分解レベル1の水平DWT変換が実行され、DWT係数aLL、aHL、bLH、bHHが水平DWTラインバッファ1209に出力される。 Bars a XX to j XX (X is L or L or) shown in the "horizontal DWT transform" line ("Lev1-LL" line, "Lev1-HL" line, "Lev1-LH" line, "Lev1-HH" line). H) indicates that the decomposition level 1 horizontal DWT transform is performed during the corresponding period. The above horizontal DWT conversion is executed by the horizontal DWT conversion unit 1208. The DWT coefficient data after the horizontal DWT conversion is output to the horizontal DWT line buffer 1209. For example, in the periods t0 and t1, the horizontal DWT transform is not performed. Further, in the period t2, the horizontal DWT transform of the decomposition level 1 is executed, and the DWT coefficients a LL , a HL , b LH , and b HH are output to the horizontal DWT line buffer 1209.

「水平DWTラインバッファ」行に示されるバーaXX〜hXXは、水平DWT変換部1208からのDWT係数が、対応期間において水平DWTラインバッファ1209に一時的に保持されていることを示す。例えば、期間t3〜t4において、0.5ライン分のDWT係数aLL、aHL、bLH、bHHが水平DWTラインバッファ1209に保持される。また、期間t5〜t6において、0.5ライン分のDWT係数cLL、cHL、dLH、dHHが水平DWTラインバッファ1209に保持される。 The bars a XX to h XX shown in the "horizontal DWT line buffer" line indicate that the DWT coefficient from the horizontal DWT converter 1208 is temporarily held in the horizontal DWT line buffer 1209 during the corresponding period. For example, during periods t3 to t4, 0.5 lines of DWT coefficients a LL , a HL , b LH , and b HH are held in the horizontal DWT line buffer 1209. Further, in the period t5 to t6, the DWT coefficients c LL , c HL , d LH , and d HH for 0.5 lines are held in the horizontal DWT line buffer 1209.

「水平エッジ判定ラインバッファ」行に示されるバーbLH、dLH、fLHは、水平DWTラインバッファ1209からのDWT係数のLH成分が、対応期間において水平エッジ判定ラインバッファ1210に一時的に保持されていることを示す。例えば、期間t5〜t6において、0.5ライン分のDWT係数bLHが水平エッジ判定ラインバッファ1210に保持される。また、期間t7〜t8において、0.5ライン分のDWT係数dLHが水平エッジ判定ラインバッファ1210に保持される。 The bars b LH , d LH , and f LH shown in the "horizontal edge determination line buffer" line are such that the LH component of the DWT coefficient from the horizontal DWT line buffer 1209 is temporarily held in the horizontal edge determination line buffer 1210 during the corresponding period. Indicates that it has been done. For example, in the period t5 to t6, the DWT coefficient b LH for 0.5 lines is held in the horizontal edge determination line buffer 1210. Further, in the periods t7 to t8, the DWT coefficient d LH for 0.5 lines is held in the horizontal edge determination line buffer 1210.

「量子化・エントロピー符号化」行に示されるバーaXX〜hXXは、水平DWT変換後のDWT係数データを、対応期間において量子化部1203およびエントロピー符号化部1204が量子化および符号化することを示す。例えば、期間t4において、水平DWT変換後のDWT係数aLL、aHL、bLH、bHHが量子化およびエントロピー符号化される。また、期間t6において、水平DWT変換後のDWT係数データcLL、cHL、dLH、dHHが量子化およびエントロピー符号化される。 Bars a XX to h XX shown in the "Quantization / entropy coding" line quantize and encode the DWT coefficient data after horizontal DWT conversion by the quantization unit 1203 and the entropy coding unit 1204 during the corresponding period. Show that. For example, in period t4, the DWT coefficients a LL , a HL , b LH , b HH after the horizontal DWT transform are quantized and entropy encoded. Further, in the period t6, the DWT coefficient data c LL , c HL , d LH , and d HH after the horizontal DWT transform are quantized and entropy encoded.

図12に示す符号化装置100が図13に示す期間において実行する符号化処理を以下に時系列的に説明する。 The coding process executed by the coding apparatus 100 shown in FIG. 12 during the period shown in FIG. 13 will be described below in chronological order.

期間t0において、1ライン分の画素データaが、ウェーブレット変換部1200の画素ラインバッファ1205に入力される。期間t1において、1ライン分の画素データbが画素ラインバッファ1205に入力される。以上の期間t0、t1では、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部1200に入力されていない。したがって、入力された画素データa、bは画素ラインバッファLine_Buffer0、1に保持されるが、垂直DWT変換は実行されない。 In the period t0, the pixel data a for one line is input to the pixel line buffer 1205 of the wavelet transform unit 1200. In the period t1, one line of pixel data b is input to the pixel line buffer 1205. During the above periods t0 and t1, the pixel data of the number of lines required to execute the vertical DWT transform is not input to the wavelet transform unit 1200. Therefore, the input pixel data a and b are held in the pixel line buffers Line_Buffer0 and 1, but the vertical DWT transform is not executed.

期間t2において、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データa、bおよび入力された画素データcを用いてDWT係数bを算出する。算出されたDWT係数bは、垂直DWTラインバッファ1207(Line_Buffer2)と水平DWT変換部1208とに出力される。また、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データaと算出されたDWT係数bとを用いてDWT係数aを算出し、水平DWT変換部1208に出力する。水平DWT変換部1208は、入力されるDWT係数a、bに水平DWT変換を実行して、DWT係数aLL、aHL、bLH、bHHを算出し水平DWTラインバッファ1209へ出力する。なお、画素ラインバッファLine_Buffer0の画像データaは、DWT係数aの算出後に画素データcで上書きされる。 In the period t2, the vertical DWT transform unit 1206 calculates the DWT coefficients b H using pixel data a, b and the input pixel data c in the pixel line buffer 1205. Calculated DWT coefficients b H is output to the vertical DWT line buffer 1207 and (Line_Buffer2) and horizontal DWT transform unit 1208. Further, the vertical DWT conversion unit 1206 calculates the DWT coefficient a L using the pixel data a in the pixel line buffer 1205 and the calculated DWT coefficient b H, and outputs the DWT coefficient a L to the horizontal DWT conversion unit 1208. The horizontal DWT conversion unit 1208 executes horizontal DWT conversion on the input DWT coefficients a L and b H , calculates the DWT coefficients a LL , a HL , b LH , and b HH, and outputs them to the horizontal DWT line buffer 1209. .. The image data a of the pixel line buffer Line_Buffer0 is overwritten with the pixel data c after the calculation of the DWT coefficient a L.

期間t3において、1ライン分の画素データdが、画素データbを保持している画素ラインバッファ1205(Line_Buffer1)に上書きされる。期間t0〜t1と同様、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部1200に入力されていないので、垂直DWT変換は実行されない。 In the period t3, the pixel data d for one line is overwritten by the pixel line buffer 1205 (Line_Buffer1) holding the pixel data b. Similar to the periods t0 to t1, the vertical DWT transform is not executed because the pixel data of the number of lines required to execute the vertical DWT transform is not input to the wavelet transform unit 1200.

期間t4において、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データc、dおよび入力された画素データeを用いてDWT係数dを算出する。算出されたDWT係数dは、垂直DWTラインバッファ1207(Line_Buffer3)と水平DWT変換部1208とに出力される。また、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データcと算出されたDWT係数dとを用いてDWT係数cを算出し、水平DWT変換部1208に出力する。水平DWT変換部1208は、入力されるDWT係数c、dに水平DWT変換を実行して、DWT係数cLL、cHL、dLH、dHHを算出する。同時に、水平DWTラインバッファ1209は、保持しているDWT係数aLL、aHL、bLH、bHHを特徴情報生成部1201に出力する。特徴情報生成部1201は、DWT係数aLLを用いて明度を生成し、DWT係数aHL、bLH、bHHを用いて複雑度を生成し、DWT係数aHLを用いて垂直エッジ情報を生成し、量子化制御部1202に出力する。量子化制御部1202は、特徴情報生成部1201からの特徴情報(明度、複雑度、エッジ情報)に対応する量子化パラメータを生成して量子化部1203に出力する。量子化部1203は、量子化制御部1202から入力された量子化パラメータを用いて、水平DWTラインバッファ1209に保持されているDWT係数aLL、aHL、bLH、bHHを量子化する。量子化されたDWT係数aLL、aHL、bLH、bHHは、量子化部1203からエントロピー符号化部1204に出力される。 In the period t4, the vertical DWT transform unit 1206 calculates the DWT coefficients d H using the pixel data c, d and the input pixel data e in the pixel line buffer 1205. The calculated DWT coefficient d H is output to the vertical DWT line buffer 1207 (Line_Buffer3) and the horizontal DWT converter 1208. Further, the vertical DWT conversion unit 1206 calculates the DWT coefficient c L using the pixel data c in the pixel line buffer 1205 and the calculated DWT coefficient d H, and outputs the DWT coefficient c L to the horizontal DWT conversion unit 1208. The horizontal DWT transform unit 1208 executes horizontal DWT transform on the input DWT coefficients c L and d H to calculate the DWT coefficients c LL , c HL , d LH and d HH. At the same time, the horizontal DWT line buffer 1209 outputs the held DWT coefficients a LL , a HL , b LH , and b HH to the feature information generation unit 1201. The feature information generation unit 1201 generates brightness using the DWT coefficient a LL , generates complexity using the DWT coefficients a HL , b LH , and b HH , and generates vertical edge information using the DWT coefficient a HL. Then, it is output to the quantization control unit 1202. The quantization control unit 1202 generates quantization parameters corresponding to the feature information (brightness, complexity, edge information) from the feature information generation unit 1201 and outputs the quantization parameters to the quantization unit 1203. The quantization unit 1203 uses the quantization parameters input from the quantization control unit 1202 to quantize the DWT coefficients a LL , a HL , b LH , and b HH held in the horizontal DWT line buffer 1209. The quantized DWT coefficients a LL , a HL , b LH , and b HH are output from the quantized unit 1203 to the entropy encoding unit 1204.

なお、画像の上端部分を処理する際には、上端より上側に位置するラインのDWT係数が存在しないので、図6を参照して説明した水平エッジの判定は実行されずに量子化パラメータが生成される。画像の下端部分を処理する際も、下端より下側に位置するラインのDWT係数が存在しないので、同様に水平エッジの判定は実行されない。 When processing the upper end portion of the image, since the DWT coefficient of the line located above the upper end does not exist, the determination of the horizontal edge described with reference to FIG. 6 is not executed and the quantization parameter is generated. Will be done. Even when processing the lower end portion of the image, since the DWT coefficient of the line located below the lower end does not exist, the determination of the horizontal edge is not executed in the same manner.

上述のように、水平DWT変換部1208は、DWT係数cLL、cHL、dLH、dHHを出力し、水平DWTラインバッファ1209に格納する。下ラインに対応するDWT係数fLHが未算出であるので、DWT係数cLL、cHL、dLH、dHHを用いた水平エッジ判定はまだ実行できない。量子化およびエントロピー符号化に用いられ不要となったDWT係数aLL、aHL、bLH、bHHは、水平DWT変換部1208が出力するDWT係数cLL、cHL、dLH、dHHによって上書きされる。DWT係数bLHは、以上の上書き前に水平エッジ判定ラインバッファ1210に格納される。画素ラインバッファLine_Buffer0の画像データcは、DWT係数cの算出後に画素データeで上書きされる。 As described above, the horizontal DWT transform unit 1208 outputs the DWT coefficients c LL , c HL , d LH , and d HH and stores them in the horizontal DWT line buffer 1209. Since the DWT coefficient f LH corresponding to the lower line has not been calculated, the horizontal edge determination using the DWT coefficients c LL , c HL , d LH , and d HH cannot be performed yet. The DWT coefficients a LL , a HL , b LH , and b HH that are used for quantization and entropy coding and are no longer needed are obtained by the DWT coefficients c LL , c HL , d LH , and d HH output by the horizontal DWT transform unit 1208. It will be overwritten. The DWT coefficient b LH is stored in the horizontal edge determination line buffer 1210 before overwriting. The image data c of the pixel line buffer Line_Buffer0 is overwritten with the pixel data e after the calculation of the DWT coefficient c L.

期間t5において、1ライン分の画素データfが、画素データdを保持している画素ラインバッファ1205(Line_Buffer1)に上書きされる。期間t0〜t1、t3と同様、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部1200に入力されていないので、垂直DWT変換は実行されない。 In the period t5, the pixel data f for one line is overwritten by the pixel line buffer 1205 (Line_Buffer1) holding the pixel data d. Similar to the periods t0 to t1 and t3, the vertical DWT transform is not executed because the pixel data of the number of lines required to execute the vertical DWT transform is not input to the wavelet transform unit 1200.

期間t6において、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データe、fおよび入力された画素データgを用いてDWT係数fを算出する。算出されたDWT係数fは、垂直DWTラインバッファ1207(Line_Buffer2)と水平DWT変換部1208とに出力される。また、垂直DWT変換部1206は、画素ラインバッファ1205内の画素データeと算出されたDWT係数fとを用いてDWT係数eを算出し、水平DWT変換部1208に出力する。水平DWT変換部1208は、入力されるDWT係数e、fに水平DWT変換を実行して、DWT係数eLL、eHL、fLH、fHHを算出する。DWT係数fLHは特徴情報生成部1201に出力される。同時に、水平DWTラインバッファ1209は、保持しているDWT係数cLL、cHL、dLH、dHHを特徴情報生成部1201に出力する。加えて、水平エッジ判定ラインバッファ1210は、保持しているDWT係数bLHを特徴情報生成部1201に出力する。特徴情報生成部1201は、DWT係数cLLを用いて明度を生成し、DWT係数cHL、dLH、dHHを用いて複雑度を生成し、DWT係数cHLを用いて垂直エッジ情報を生成し、量子化制御部1202に出力する。加えて、特徴情報生成部1201は、DWT係数bLH、dLH、fLHを用いて水平エッジ情報を生成し、量子化制御部1202に出力する。量子化制御部1202は、特徴情報生成部1201からの特徴情報(明度、複雑度、エッジ情報)に対応する量子化パラメータを生成して量子化部1203に出力する。量子化部1203は、量子化制御部1202から入力された量子化パラメータを用いて、水平DWTラインバッファ1209に保持されているDWT係数cLL、cHL、dLH、dHHを量子化する。量子化されたDWT係数cLL、cHL、dLH、dHHは、量子化部1203からエントロピー符号化部1204に出力される。 In the period t6, the vertical DWT transform unit 1206 calculates the DWT coefficients f H with the pixel data e, f and input pixel data g in the pixel line buffer 1205. Calculated DWT coefficients f H is output to the vertical DWT line buffer 1207 and (Line_Buffer2) and horizontal DWT transform unit 1208. Further, the vertical DWT conversion unit 1206 calculates the DWT coefficient e L using the pixel data e in the pixel line buffer 1205 and the calculated DWT coefficient f H, and outputs the DWT coefficient e L to the horizontal DWT conversion unit 1208. Horizontal DWT transform unit 1208, DWT coefficients e L inputted, running horizontally DWT converted to f H, DWT coefficients e LL, e HL, f LH , to calculate the f HH. The DWT coefficient f LH is output to the feature information generation unit 1201. At the same time, the horizontal DWT line buffer 1209 outputs the held DWT coefficients c LL , c HL , d LH , and d HH to the feature information generation unit 1201. In addition, the horizontal edge determination line buffer 1210 outputs the held DWT coefficient b LH to the feature information generation unit 1201. The feature information generation unit 1201 generates brightness using the DWT coefficient c LL , generates complexity using the DWT coefficients c HL , d LH , and d HH , and generates vertical edge information using the DWT coefficient c HL. Then, it is output to the quantization control unit 1202. In addition, the feature information generation unit 1201 generates horizontal edge information using the DWT coefficients b LH , d LH , and f LH , and outputs the horizontal edge information to the quantization control unit 1202. The quantization control unit 1202 generates quantization parameters corresponding to the feature information (brightness, complexity, edge information) from the feature information generation unit 1201 and outputs the quantization parameters to the quantization unit 1203. The quantization unit 1203 uses the quantization parameters input from the quantization control unit 1202 to quantize the DWT coefficients c LL , c HL , d LH , and d HH held in the horizontal DWT line buffer 1209. The quantized DWT coefficients c LL , c HL , d LH , and d HH are output from the quantized unit 1203 to the entropy encoding unit 1204.

上述のように、水平DWT変換部1208は、DWT係数eLL、eHL、fLH、fHHを出力し、水平DWTラインバッファ1209に格納する。下ラインに対応するDWT係数hLHが未算出であるので、DWT係数eLL、eHL、fLH、fHHを用いた水平エッジ判定はまだ実行できない。量子化およびエントロピー符号化に用いられ不要となったDWT係数cLL、cHL、dLH、dHHは、水平DWT変換部1208が出力するDWT係数eLL、eHL、fLH、fHHによって上書きされる。DWT係数dLHは、以上の上書き前に水平エッジ判定ラインバッファ1210(DWT係数bLHが格納されている箇所)に上書きされ格納される。画素ラインバッファLine_Buffer0の画像データeは、DWT係数eの算出後に画素データgで上書きされる。 As described above, the horizontal DWT transform unit 1208 outputs the DWT coefficients e LL , e HL , f LH , and f HH and stores them in the horizontal DWT line buffer 1209. Since the DWT coefficient h LH corresponding to the lower line has not been calculated, the horizontal edge determination using the DWT coefficients e LL , e HL , f LH , and f HH cannot be performed yet. The DWT coefficients c LL , c HL , d LH , and d HH used for quantization and entropy coding are obtained by the DWT coefficients e LL , e HL , f LH , and f HH output by the horizontal DWT transform unit 1208. It will be overwritten. The DWT coefficient d LH is overwritten and stored in the horizontal edge determination line buffer 1210 (where the DWT coefficient b LH is stored) before the above overwriting. The image data e of the pixel line buffer Line_Buffer0 is overwritten with the pixel data g after the calculation of the DWT coefficient e L.

以降、同様にして最終ラインの画像データまで処理が繰り返し実行される。 After that, the process is repeatedly executed up to the image data of the final line in the same manner.

以上の構成、特に、図12および図13の構成から理解されるように、下ラインに対応するDWT係数(例えば、hLH)が算出されるまでは量子化パラメータを決定することができない。したがって、下ラインに対応するDWT係数が算出されるまでは、水平DWTラインバッファ1209にDWT係数(例えば、eLL、eHL、fLH、fHH)を保持しておく必要がある。つまり、サブバンドごとに合計2ライン分のラインバッファが必要であるから、以上のような構成では、符号化装置100の回路規模が肥大化してしまう。以上の課題を解決可能な本発明の実施形態を、以下に説明する。 As can be understood from the above configurations, in particular, the configurations of FIGS. 12 and 13, the quantization parameters cannot be determined until the DWT coefficient (for example, h LH) corresponding to the lower line is calculated. Therefore, it is necessary to hold the DWT coefficient (for example, e LL , e HL , f LH , f HH ) in the horizontal DWT line buffer 1209 until the DWT coefficient corresponding to the lower line is calculated. That is, since a total of two lines of line buffers are required for each subband, the circuit scale of the coding apparatus 100 becomes bloated in the above configuration. An embodiment of the present invention capable of solving the above problems will be described below.

以下に説明される各実施形態は、本発明を実現可能な構成の一例に過ぎない。以下の各実施形態は、本発明が適用される装置の構成や各種の条件に応じて適宜に修正または変更することが可能である。したがって、本発明の範囲は、以下の各実施形態に記載される構成によって限定されるものではない。例えば、相互に矛盾のない限りにおいて実施形態内に記載された複数の構成を組み合わせた構成も採用可能である。 Each embodiment described below is merely an example of a configuration in which the present invention can be realized. Each of the following embodiments can be appropriately modified or modified according to the configuration of the apparatus to which the present invention is applied and various conditions. Therefore, the scope of the present invention is not limited by the configurations described in each of the following embodiments. For example, a configuration in which a plurality of configurations described in the embodiment are combined can be adopted as long as there is no mutual contradiction.

<第1実施形態>
上記した例では、LHサブバンド係数に基づいて水平エッジの判定が実行される。本発明の第1実施形態では、画素値(画素平均値)に基づいて水平エッジの判定が実行される。詳細は以下の通りである。
<First Embodiment>
In the above example, the determination of the horizontal edge is performed based on the LH subband coefficient. In the first embodiment of the present invention, the determination of the horizontal edge is executed based on the pixel value (pixel average value). The details are as follows.

図3等を参照して上記したように、分解レベル1の各サブバンドのサイズは水平方向および垂直方向の各々において入力画素データの半分である。各サブバンド係数の数はオリジナル画像の画素数の1/4である。すなわち、1つのサブバンド係数は、水平方向2画素×垂直方向2画素に対応する。そこで、本発明の第1実施形態においては、1つのサブバンド係数に対応する2×2画素(水平方向2画素×垂直方向2画素)に基づいて水平エッジの判定を実行する。 As described above with reference to FIG. 3 and the like, the size of each subband of decomposition level 1 is half of the input pixel data in each of the horizontal direction and the vertical direction. The number of each subband coefficient is 1/4 of the number of pixels of the original image. That is, one subband coefficient corresponds to 2 pixels in the horizontal direction × 2 pixels in the vertical direction. Therefore, in the first embodiment of the present invention, the determination of the horizontal edge is executed based on 2 × 2 pixels (2 pixels in the horizontal direction × 2 pixels in the vertical direction) corresponding to one subband coefficient.

図14を参照して、本発明の第1実施形態の水平エッジの検出手法について説明する。図14(a)は、サブバンド係数を用いた上記例(左側)による検出手法と、2×2画素値を用いた本実施形態の検出手法(右側)とを対比している。2×2画素を含む画素群1404は、座標m−1のサブバンド係数1401に対応する。同様に、画素群1405は座標mのサブバンド係数1402に対応し、画素群1406は座標m+1のサブバンド係数1403に対応する。 The horizontal edge detection method of the first embodiment of the present invention will be described with reference to FIG. FIG. 14A compares the detection method according to the above example (left side) using the subband coefficient with the detection method (right side) of the present embodiment using the 2 × 2 pixel value. The pixel group 1404 including 2 × 2 pixels corresponds to the subband coefficient 1401 at coordinate m-1. Similarly, the pixel group 1405 corresponds to the subband coefficient 1402 of the coordinate m, and the pixel group 1406 corresponds to the subband coefficient 1403 of the coordinate m + 1.

本実施形態では、上記例におけるサブバンド係数に代えて、2×2画素の画素平均値を用いて水平エッジを判定する。本実施形態の検出処理においては、各画素平均値が、所定の閾値を上回る場合に「振幅値大」と判定される一方、所定の閾値以下である場合に「振幅値小」と判定される。そして、以上の判定値(「振幅値大」または「振幅値小」)の配列に従って、水平エッジが垂直3係数に含まれるか否か判定される。 In the present embodiment, the horizontal edge is determined by using the pixel average value of 2 × 2 pixels instead of the subband coefficient in the above example. In the detection process of the present embodiment, when the average value of each pixel exceeds a predetermined threshold value, it is determined to be "large amplitude value", while when it is equal to or less than a predetermined threshold value, it is determined to be "small amplitude value". .. Then, according to the array of the above determination values (“large amplitude value” or “small amplitude value”), it is determined whether or not the horizontal edge is included in the vertical three coefficients.

図14(b)は、水平エッジが含まれると判定される判定値の配列を例示している。図14(b)における水平軸上の垂直座標位置(m−1〜m+1)は、図14(a)の3つの画素群(m−1〜m+1)に対応している。図14(b)における垂直軸は、各垂直座標位置における画素平均値に相当する。図示の通り、垂直座標位置における判定値は、それぞれ、m−1=振幅値小、m=振幅値大、m+1=振幅値小であって、垂直座標位置がm−1からm+1に変化する際に閾値を跨ぐ振幅値(画素平均値)の変化が生じている。以上のように閾値を跨ぐ振幅値の変化が生じていることは、3つの画素群に相当する箇所において画像の垂直方向の連続性が破れていることを示すので、水平エッジが存在すると判定される。 FIG. 14B illustrates an array of determination values that are determined to include horizontal edges. The vertical coordinate positions (m-1 to m + 1) on the horizontal axis in FIG. 14B correspond to the three pixel groups (m-1 to m + 1) in FIG. 14A. The vertical axis in FIG. 14B corresponds to the pixel average value at each vertical coordinate position. As shown in the figure, the judgment values at the vertical coordinate position are m-1 = small amplitude value, m = large amplitude value, and m + 1 = small amplitude value, respectively, when the vertical coordinate position changes from m-1 to m + 1. There is a change in the amplitude value (pixel average value) across the threshold. The fact that the amplitude value changes across the threshold value as described above indicates that the vertical continuity of the image is broken at the locations corresponding to the three pixel groups, and thus it is determined that the horizontal edge exists. To.

図15は、上記した判定処理を実行可能な本実施形態に係る符号化装置150の構成を例示するブロック図である。符号化装置150は、ウェーブレット変換部1500、特徴情報生成部1501、量子化制御部1502、量子化部1503、およびエントロピー符号化部1504を有する。以上の要素は、それぞれ、図12のウェーブレット変換部1200、特徴情報生成部1201、量子化制御部1202、量子化部1203、およびエントロピー符号化部1204に対応している。図15において不図示の要素、特にプレーン変換部以前の要素は、図1および図12と同様に構成されると好適である。したがって、本実施形態の符号化装置150は、撮像部を有する撮像装置として機能する。 FIG. 15 is a block diagram illustrating the configuration of the coding device 150 according to the present embodiment capable of executing the above-mentioned determination process. The coding device 150 includes a wavelet transform unit 1500, a feature information generation unit 1501, a quantization control unit 1502, a quantization unit 1503, and an entropy coding unit 1504. The above elements correspond to the wavelet transform unit 1200, the feature information generation unit 1201, the quantization control unit 1202, the quantization unit 1203, and the entropy coding unit 1204, respectively, of FIG. It is preferable that the elements (not shown) in FIG. 15, particularly the elements before the plane conversion unit, are configured in the same manner as in FIGS. 1 and 12. Therefore, the coding device 150 of the present embodiment functions as an image pickup device having an image pickup unit.

ウェーブレット変換部1500は、分解レベル1のDWT変換に用いられる画素ラインバッファ1505、垂直DWT変換部1506、垂直DWTラインバッファ1507、および水平DWT変換部1508を有する。なお、上記例と異なり、ウェーブレット変換部1500は水平DWTラインバッファを有さない。特徴情報生成部1501は、水平エッジの判定に用いられる水平エッジ判定ラインバッファ1509を有する。 The wavelet transform unit 1500 includes a pixel line buffer 1505, a vertical DWT transform unit 1506, a vertical DWT line buffer 1507, and a horizontal DWT transform unit 1508 used for DWT conversion of decomposition level 1. Note that unlike the above example, the wavelet transform unit 1500 does not have a horizontal DWT line buffer. The feature information generation unit 1501 has a horizontal edge determination line buffer 1509 used for determining a horizontal edge.

上記例と同様、符号化装置150が有する機能ブロックは、符号化装置150が有する1つ以上のCPU等のプロセッサが、不揮発性メモリに格納されたプログラムを揮発性メモリに展開して実行することによって実現される。 Similar to the above example, in the functional block included in the coding device 150, one or more processors such as a CPU included in the coding device 150 expand the program stored in the non-volatile memory into the volatile memory and execute the program. Realized by.

図16は、図15に示す符号化装置150において実行されるDWT変換、特徴情報生成、並びに量子化およびエントロピー符号化の時系列を示すタイミングチャートである。本実施形態では、符号化装置150が、ラスタ順に入力されたプレーン変換後の画素データに対して分解レベル1まで垂直DWT変換および水平DWT変換を実行する。 FIG. 16 is a timing chart showing a time series of DWT transform, feature information generation, and quantization and entropy coding performed in the coding apparatus 150 shown in FIG. In the present embodiment, the coding apparatus 150 executes vertical DWT conversion and horizontal DWT conversion up to decomposition level 1 on the pixel data after plane conversion input in raster order.

図16は、上記例の図13に対応しているが、少なくとも以下の点において相違する。図16の「水平エッジ判定ラインバッファ」行に示されるバーは、画素ラインバッファ1505から出力される2×2画素ごとの画素平均値Mが、対応期間において水平エッジ判定ラインバッファ1509に一時的に保持されていることを示す。例えば、期間t4〜t5において、画素データa、bに基づいた0.5ライン分の2×2画素ごとの画素平均値M(a+b)が水平エッジ判定ラインバッファ1509に保持される。また、期間t6〜t7において、画素データc、dに基づいた0.5ライン分の2×2画素ごとの画素平均値M(c+d)が水平エッジ判定ラインバッファ1509に保持される。なお、各図においては、上線(オーバーライン)を用いて画素平均値Mが表される。 FIG. 16 corresponds to FIG. 13 of the above example, but differs in at least the following points. In the bar shown in the “horizontal edge determination line buffer” line of FIG. 16, the pixel average value M for each 2 × 2 pixels output from the pixel line buffer 1505 temporarily enters the horizontal edge determination line buffer 1509 during the corresponding period. Indicates that it is retained. For example, in the periods t4 to t5, the pixel average value M (a + b) for every 2 × 2 pixels for 0.5 lines based on the pixel data a and b is held in the horizontal edge determination line buffer 1509. Further, in the periods t6 to t7, the pixel average value M (c + d) for every 2 × 2 pixels for 0.5 lines based on the pixel data c and d is held in the horizontal edge determination line buffer 1509. In each figure, the pixel average value M is represented by using an overline.

図15に示す符号化装置150が図16に示す期間において実行する符号化処理を以下に時系列的に説明する。 The coding process executed by the coding apparatus 150 shown in FIG. 15 during the period shown in FIG. 16 will be described below in chronological order.

期間t0、t1、t2において、それぞれ、画素データa、b、cが画素ラインバッファ1505に入力される。入力された画素データa、b、cは、それぞれ、画素ラインバッファLine_Buffer0、1、2に保持されるが、垂直DWT変換は実行されない。 In the periods t0, t1, and t2, the pixel data a, b, and c are input to the pixel line buffer 1505, respectively. The input pixel data a, b, and c are held in the pixel line buffers Line_Buffer0, 1, and 2, respectively, but the vertical DWT transform is not executed.

期間t3において、垂直DWT変換部1506は、画素ラインバッファ1505内の画素データa、b、cを用いてDWT係数bを算出する。算出されたDWT係数bは、垂直DWTラインバッファ1507(Line_Buffer3)と水平DWT変換部1508とに出力される。また、垂直DWT変換部1506は、画素ラインバッファ1505内の画素データaと算出されたDWT係数bとを用いてDWT係数aを算出し、水平DWT変換部1508に出力する。水平DWT変換部1508は、入力されるDWT係数a、bに水平DWT変換を実行して、DWT係数aLL、aHL、bLH、bHHを算出し、特徴情報生成部1501および量子化部1503に出力する。 In the period t3, the vertical DWT transform unit 1506 calculates the DWT coefficients b H using pixel data a in the pixel line buffer 1505, b, or c. Calculated DWT coefficients b H is output to the vertical DWT line buffer 1507 and (Line_Buffer3) and horizontal DWT transform unit 1508. Further, the vertical DWT conversion unit 1506 calculates the DWT coefficient a L using the pixel data a in the pixel line buffer 1505 and the calculated DWT coefficient b H, and outputs the DWT coefficient a L to the horizontal DWT conversion unit 1508. The horizontal DWT transform unit 1508 executes horizontal DWT transform on the input DWT coefficients a L and b H , calculates the DWT coefficients a LL , a HL , b LH and b HH, and calculates the feature information generation unit 1501 and the quantum. Output to the conversion unit 1503.

特徴情報生成部1501は、DWT係数aLLを用いて明度を生成し、DWT係数aHL、bLH、bHHを用いて複雑度を生成し、DWT係数aHLを用いて垂直エッジ情報(第1特徴情報)を生成し、量子化制御部1502に出力する。量子化制御部1502は、特徴情報生成部1501からの特徴情報(明度、複雑度、エッジ情報)に対応する量子化パラメータを生成して量子化部1503に出力する。量子化部1503は、量子化制御部1502から入力された量子化パラメータを用いて、水平DWT変換部1508から入力されたDWT係数aLL、aHL、bLH、bHHを量子化し、エントロピー符号化部1504に出力する。図6の例と同様、図14の構成においても、画像の上端部分または下端部分を処理する際には水平エッジの判定が実行されない。 The feature information generation unit 1501 generates brightness using the DWT coefficient a LL , generates complexity using the DWT coefficients a HL , b LH , and b HH, and uses the DWT coefficient a HL to generate vertical edge information (the first). 1 Feature information) is generated and output to the quantization control unit 1502. The quantization control unit 1502 generates quantization parameters corresponding to the feature information (brightness, complexity, edge information) from the feature information generation unit 1501 and outputs the quantization parameters to the quantization unit 1503. The quantization unit 1503 quantizes the DWT coefficients a LL , a HL , b LH , and b HH input from the horizontal DWT conversion unit 1508 using the quantization parameters input from the quantization control unit 1502, and the entropy code. Output to the conversion unit 1504. Similar to the example of FIG. 6, in the configuration of FIG. 14, the determination of the horizontal edge is not executed when processing the upper end portion or the lower end portion of the image.

水平エッジ判定ラインバッファ1509は、画素ラインバッファ1505に格納されている画素データa、bに基づいた画素平均値M(a+b)を格納する。なお、2×2画素ごとに算出された画素平均値に対する閾値判定(図14)によって取得された判定結果を1ビットのフラグ情報として保持することで、ラインバッファへの複数ビットの格納を回避してもよい。画素ラインバッファLine_Buffer0の画像データaは画素データdで上書きされる。 The horizontal edge determination line buffer 1509 stores the pixel average value M (a + b) based on the pixel data a and b stored in the pixel line buffer 1505. By holding the determination result acquired by the threshold value determination (FIG. 14) for the pixel average value calculated for each 2 × 2 pixel as 1-bit flag information, storage of a plurality of bits in the line buffer is avoided. You may. The image data a of the pixel line buffer Line_Buffer0 is overwritten with the pixel data d.

期間t4において、画素データeが、画素データbを保持している画素ラインバッファ1505(Line_Buffer1)に上書きされる。垂直DWT変換は実行されない。 In the period t4, the pixel data e is overwritten by the pixel line buffer 1505 (Line_Buffer1) holding the pixel data b. No vertical DWT transform is performed.

期間t5において、垂直DWT変換部1506は、画素ラインバッファ1505内の画素データc、d、eを用いてDWT係数dを算出する。算出されたDWT係数dは、垂直DWTラインバッファ1507(Line_Buffer4)と水平DWT変換部1508とに出力される。また、垂直DWT変換部1506は、算出されたDWT係数dと画素ラインバッファ1505内の画素データcと垂直DWTラインバッファ1507内のDWT係数bとを用いてDWT係数cを算出し、水平DWT変換部1508に出力する。水平DWT変換部1508は、入力されるDWT係数c、dに水平DWT変換を実行して、DWT係数cLL、cHL、dLH、dHHを算出し、特徴情報生成部1501および量子化部1503に出力する。 In the period t5, the vertical DWT transform unit 1506 calculates the DWT coefficient d H using the pixel data c, d, and e in the pixel line buffer 1505. The calculated DWT coefficient d H is output to the vertical DWT line buffer 1507 (Line_Buffer4) and the horizontal DWT converter 1508. Further, the vertical DWT conversion unit 1506 calculates the DWT coefficient c L using the calculated DWT coefficient d H , the pixel data c in the pixel line buffer 1505, and the DWT coefficient b H in the vertical DWT line buffer 1507. Output to the horizontal DWT converter 1508. The horizontal DWT conversion unit 1508 executes horizontal DWT conversion on the input DWT coefficients c L and d H , calculates the DWT coefficients c LL , c HL , d LH and d HH, and calculates the feature information generation unit 1501 and the quantum. Output to the conversion unit 1503.

同時に、画素データa、bの2×2画素ごとの画素平均値M(a+b)、画素データc、dの2×2画素ごとの画素平均値M(c+d)、および画素データe、fの2×2画素ごとの画素平均値M(e+f)が特徴情報生成部1501に出力される。画素平均値M(a+b)は水平エッジ判定ラインバッファ1509に保持されている。画素データc、dは画素ラインバッファ1505(Line_Buffer2、0)に保持されている。画素データeは、画素ラインバッファ1505(Line_Buffer1)に保持され、画素データfは期間t5で入力されたものである。 At the same time, the pixel average value M (a + b) for each 2 × 2 pixels of the pixel data a and b, the pixel average value M (c + d) for each 2 × 2 pixels of the pixel data c and d, and the pixel data e and f2. The pixel average value M (e + f) for each × 2 pixel is output to the feature information generation unit 1501. The pixel average value M (a + b) is held in the horizontal edge determination line buffer 1509. The pixel data c and d are held in the pixel line buffer 1505 (Line_Buffer2, 0). The pixel data e is held in the pixel line buffer 1505 (Line_Buffer1), and the pixel data f is input in the period t5.

特徴情報生成部1501は、期間t3と同様に、DWT係数cLL、cHL、dLH、dHHを用いて明度、複雑度、およびエッジ情報を生成して量子化制御部1502に出力する。本実施形態において、水平エッジ情報(第2特徴情報)は、図17の右側に示すように、領域1704の画素平均値M(a+b)、領域1705の画素平均値M(c+d)、および領域1706の画素平均値M(e+f)を用いて生成される。なお、図17の左側は、前述例(図12、図13等)における1LHのサブバンド係数1701〜1703を用いた水平エッジ情報の生成を対比的に示している。量子化制御部1502は、期間t3と同様に量子化パラメータを生成して量子化部1503に出力する。量子化部1503は、量子化制御部1502から入力された量子化パラメータを用いて、水平DWT変換部1508から入力されたDWT係数cLL、cHL、dLH、dHHを量子化し、エントロピー符号化部1504に出力する。 Similar to the period t3, the feature information generation unit 1501 generates brightness, complexity, and edge information using the DWT coefficients c LL , c HL , d LH , and d HH , and outputs the lightness, complexity, and edge information to the quantization control unit 1502. In the present embodiment, as shown on the right side of FIG. 17, the horizontal edge information (second feature information) includes the pixel average value M (a + b) of the region 1704, the pixel average value M (c + d) of the region 1705, and the region 1706. It is generated using the pixel average value M (e + f) of. The left side of FIG. 17 contrasts the generation of horizontal edge information using the 1LH subband coefficients 1701 to 1703 in the above examples (FIGS. 12, 13, etc.). The quantization control unit 1502 generates a quantization parameter in the same manner as in the period t3 and outputs the quantization parameter to the quantization unit 1503. The quantization unit 1503 quantizes the DWT coefficients c LL , c HL , d LH , and d HH input from the horizontal DWT conversion unit 1508 using the quantization parameters input from the quantization control unit 1502, and the entropy code. Output to the conversion unit 1504.

水平エッジ判定ラインバッファ1509は、画素ラインバッファ1505に格納されている画素データc、dに基づいた画素平均値M(c+d)を、画素平均値M(a+b)に上書きして格納する。画素ラインバッファLine_Buffer2の画像データcは画素データfで上書きされる。 The horizontal edge determination line buffer 1509 overwrites and stores the pixel average value M (c + d) based on the pixel data c and d stored in the pixel line buffer 1505 with the pixel average value M (a + b). The image data c of the pixel line buffer Line_Buffer2 is overwritten with the pixel data f.

期間t6において、画素データgが、画素データdを保持している画素ラインバッファ1505(Line_Buffer0)に上書きされる。垂直DWT変換は実行されない。 In the period t6, the pixel data g is overwritten by the pixel line buffer 1505 (Line_Buffer0) holding the pixel data d. No vertical DWT transform is performed.

期間t7において、垂直DWT変換部1506は、画素ラインバッファ1505内の画素データe、f、gを用いてDWT係数fを算出する。算出されたDWT係数fは、垂直DWTラインバッファ1507(Line_Buffer3)と水平DWT変換部1508とに出力される。また、垂直DWT変換部1506は、算出されたDWT係数fと画素ラインバッファ1505内の画素データeと垂直DWTラインバッファ1507内のDWT係数dとを用いてDWT係数eを算出し、水平DWT変換部1508に出力する。水平DWT変換部1508は、入力されるDWT係数e、fに水平DWT変換を実行して、DWT係数eLL、eHL、fLH、fHHを算出し、特徴情報生成部1501および量子化部1503に出力する。 In the period t7, the vertical DWT transform unit 1506 calculates the DWT coefficients f H with pixel data e in the pixel line buffer 1505, f, and g. Calculated DWT coefficients f H is output to the vertical DWT line buffer 1507 and (Line_Buffer3) and horizontal DWT transform unit 1508. Further, the vertical DWT conversion unit 1506 calculates the DWT coefficient e L by using the calculated DWT coefficient f H , the pixel data e in the pixel line buffer 1505, and the DWT coefficient d H in the vertical DWT line buffer 1507. Output to the horizontal DWT converter 1508. The horizontal DWT transform unit 1508 executes horizontal DWT transform on the input DWT coefficients e L and f H to calculate the DWT coefficients e LL , e HL , f LH and f HH, and calculates the feature information generation unit 1501 and the quantum. Output to the conversion unit 1503.

同時に、画素データc、dの2×2画素ごとの画素平均値M(c+d)、画素データe、fの2×2画素ごとの画素平均値M(e+f)、および画素データg、hの2×2画素ごとの画素平均値M(g+h)が特徴情報生成部1501に出力される。画素平均値M(c+d)は水平エッジ判定ラインバッファ1509に保持されている。画素データe、fは画素ラインバッファ1505(Line_Buffer1、2)に保持されている。画素データgは、画素ラインバッファ1505(Line_Buffer0)に保持され、画素データhは期間t7で入力されたものである。 At the same time, the pixel average value M (c + d) for each 2 × 2 pixel of the pixel data c and d, the pixel average value M (e + f) for each 2 × 2 pixel of the pixel data e and f, and the pixel data g and h 2 The pixel average value M (g + h) for each × 2 pixel is output to the feature information generation unit 1501. The pixel average value M (c + d) is held in the horizontal edge determination line buffer 1509. The pixel data e and f are held in the pixel line buffer 1505 (Line_Buffer1, 2). The pixel data g is held in the pixel line buffer 1505 (Line_Buffer0), and the pixel data h is input in the period t7.

特徴情報生成部1501は、期間t3、t5と同様に、DWT係数eLL、eHL、fLH、fHHを用いて明度、複雑度、およびエッジ情報を生成して量子化制御部1502に出力する。本実施形態において、水平エッジ情報は、図18の右側に示すように、領域1804の画素平均値M(c+d)、領域1805の画素平均値M(e+f)、および領域1806の画素平均値M(g+h)を用いて生成される。なお、図18の左側は、前述例(図12、図13等)における1LHのサブバンド係数1801〜1803を用いた水平エッジ情報の生成を対比的に示している。量子化制御部1502は、期間t3、t5と同様に量子化パラメータを生成して量子化部1503に出力する。なお、量子化制御部1502は、水平エッジまたは垂直エッジが存在すると判定された場合、図8を参照して前述したように特徴分類を変更する。量子化部1503は、量子化制御部1502から入力された量子化パラメータを用いて、水平DWT変換部1508から入力されたDWT係数eLL、eHL、fLH、fHHを量子化し、エントロピー符号化部1504に出力する。 The feature information generation unit 1501 generates brightness, complexity, and edge information using the DWT coefficients e LL , e HL , f LH , and f HH as in the periods t3 and t5, and outputs the lightness, complexity, and edge information to the quantization control unit 1502. To do. In the present embodiment, as shown on the right side of FIG. 18, the horizontal edge information includes the pixel average value M (c + d) of the area 1804, the pixel average value M (e + f) of the area 1805, and the pixel average value M (e + f) of the area 1806. It is generated using g + h). The left side of FIG. 18 contrasts the generation of horizontal edge information using the 1 LH subband coefficients 1801 to 1803 in the above examples (FIGS. 12, 13, etc.). The quantization control unit 1502 generates a quantization parameter in the same manner as in the periods t3 and t5 and outputs the quantization parameter to the quantization unit 1503. When it is determined that the horizontal edge or the vertical edge exists, the quantization control unit 1502 changes the feature classification as described above with reference to FIG. The quantization unit 1503 quantizes the DWT coefficients e LL , e HL , f LH , and f HH input from the horizontal DWT conversion unit 1508 using the quantization parameters input from the quantization control unit 1502, and the entropy code. Output to the conversion unit 1504.

水平エッジ判定ラインバッファ1509は、画素ラインバッファ1505に格納されている画素データe、fに基づいた画素平均値M(e+f)を、画素平均値M(c+d)に上書きして格納する。画素ラインバッファLine_Buffer1の画像データeは画素データhで上書きされる。 The horizontal edge determination line buffer 1509 overwrites and stores the pixel average value M (e + f) based on the pixel data e and f stored in the pixel line buffer 1505 with the pixel average value M (c + d). The image data e of the pixel line buffer Line_Buffer1 is overwritten with the pixel data h.

以降、同様にして最終ラインの画像データまで処理が繰り返し実行される。 After that, the process is repeatedly executed up to the image data of the final line in the same manner.

上記した本実施形態の構成によれば、図12および図13等を参照して前述した構成と比較して、垂直方向に亘る画像の特徴を考慮した効率のよい符号化と回路規模の抑制とを両立できる。より具体的には、本実施形態の構成では、前述した構成と比較して、1ライン分の画素ラインバッファLine_Buffer2を追加的に要するものの、2ライン分の水平DWTラインバッファ1209を削減できる。すなわち、本実施形態の構成の合計ラインバッファ数は、前述した構成の合計ラインバッファ数よりも1ライン少ない。したがって、本実施形態の構成では、前述した構成と同様に垂直方向に亘る画像の特徴を考慮した量子化パラメータの生成が可能である上に、前述した構成と比較してラインバッファ数を削減することができる。 According to the configuration of the present embodiment described above, as compared with the configuration described above with reference to FIGS. 12 and 13, efficient coding and suppression of circuit scale in consideration of the characteristics of the image in the vertical direction are achieved. Can be compatible. More specifically, in the configuration of the present embodiment, the horizontal DWT line buffer 1209 for two lines can be reduced, although the pixel line buffer Line_Buffer2 for one line is additionally required as compared with the configuration described above. That is, the total number of line buffers in the configuration of the present embodiment is one line less than the total number of line buffers in the configuration described above. Therefore, in the configuration of the present embodiment, it is possible to generate quantization parameters in consideration of the characteristics of the image in the vertical direction as in the above-described configuration, and the number of line buffers is reduced as compared with the above-mentioned configuration. be able to.

なお、上記した本実施形態の構成では、垂直方向に亘る画素値を用いたエッジ判定が実行されているが、垂直方向に亘る画像の特徴の考慮は以上に限定されない。例えば、垂直方向に亘る画素値を用いて暗部検出が実行されてもよい。 In the configuration of the present embodiment described above, edge determination using pixel values in the vertical direction is executed, but consideration of the characteristics of the image in the vertical direction is not limited as described above. For example, dark area detection may be performed using pixel values over the vertical direction.

以下、さらに、本実施形態の構成における暗部検出(暗部情報の生成)について説明する。まず、図19を参照して、垂直方向に連続する3つの変換係数(垂直3係数)に暗部が含まれるか否かを検出する処理について説明する。図19(a)は、本例における暗部検出に用いられる低周波成分を示す。輝度レベルを示す低周波成分のLLサブバンドの係数を用いて検出処理を実行することで、暗部を検出することができる。本例の検出処理においては、各係数が、所定の閾値を上回る場合に「明部」と判定される一方、所定の閾値以下である場合に「暗部」と判定される。 Hereinafter, dark portion detection (generation of dark portion information) in the configuration of the present embodiment will be described. First, with reference to FIG. 19, a process of detecting whether or not a dark portion is included in three conversion coefficients (three vertical coefficients) that are continuous in the vertical direction will be described. FIG. 19A shows a low frequency component used for detecting dark areas in this example. The dark part can be detected by executing the detection process using the coefficient of the LL subband of the low frequency component indicating the brightness level. In the detection process of this example, when each coefficient exceeds a predetermined threshold value, it is determined as a "bright part", and when it is equal to or less than a predetermined threshold value, it is determined as a "dark part".

図19(b)は、暗部であると判定される例を示している。図19(b)における水平軸上の垂直座標位置(m−1〜m+1)は、図19(a)の垂直3係数(m−1〜m+1)に対応している。図19(b)における垂直軸は、各垂直座標位置における係数値に相当する。図示の通り、垂直座標位置における判定値は、それぞれ、m−1=暗部、m=明部、m+1=明部である。以上のように、所定の閾値に基づいて各係数が明部であるか暗部であるかを判定できる。 FIG. 19B shows an example in which it is determined to be a dark part. The vertical coordinate positions (m-1 to m + 1) on the horizontal axis in FIG. 19 (b) correspond to the vertical three coefficients (m-1 to m + 1) in FIG. 19 (a). The vertical axis in FIG. 19B corresponds to the coefficient value at each vertical coordinate position. As shown in the figure, the determination values at the vertical coordinate positions are m-1 = dark part, m = bright part, and m + 1 = bright part, respectively. As described above, it is possible to determine whether each coefficient is a bright part or a dark part based on a predetermined threshold value.

しかしながら、前述したように、垂直方向のサブバンド係数に基づいて量子化パラメータを決定する構成では回路規模が肥大化してしまう。そこで、本実施形態では、サブバンド係数に代えて画素値を用いて暗部判定を実行する。 However, as described above, the circuit scale becomes bloated in the configuration in which the quantization parameter is determined based on the subband coefficient in the vertical direction. Therefore, in the present embodiment, the dark portion determination is executed using the pixel value instead of the subband coefficient.

図20を参照して、本発明の第1実施形態の暗部の検出手法について説明する。図20(a)は、サブバンド係数を用いた上記例(左側)による検出手法と、2×2画素値を用いた本実施形態の検出手法(右側)とを対比している。2×2画素を含む画素群2004は、座標m−1のサブバンド係数2001に対応する。同様に、画素群2005は座標mのサブバンド係数2002に対応し、画素群2006は座標m+1のサブバンド係数2003に対応する。 A method for detecting a dark portion according to the first embodiment of the present invention will be described with reference to FIG. FIG. 20A compares the detection method according to the above example (left side) using the subband coefficient with the detection method (right side) of the present embodiment using the 2 × 2 pixel value. The pixel group 2004 including 2 × 2 pixels corresponds to the subband coefficient 2001 of the coordinate m-1. Similarly, the pixel group 2005 corresponds to the subband coefficient 2002 of the coordinate m, and the pixel group 2006 corresponds to the subband coefficient 2003 of the coordinate m + 1.

本実施形態では、上記例におけるサブバンド係数に代えて、2×2画素の画素平均値を用いて暗部を判定する。本実施形態の検出処理においては、各画素平均値が、所定の閾値を上回る場合に「明部」と判定される一方、所定の閾値以下である場合に「暗部」と判定される。 In the present embodiment, the dark portion is determined by using the pixel average value of 2 × 2 pixels instead of the subband coefficient in the above example. In the detection process of the present embodiment, when the average value of each pixel exceeds a predetermined threshold value, it is determined as a "bright area", and when it is equal to or less than a predetermined threshold value, it is determined as a "dark area".

図20(b)は、暗部であると判定される本実施形態の例を示している。図20(b)における水平軸上の垂直座標位置(m−1〜m+1)は、図20(a)の3つの画素群(m−1〜m+1)に対応している。図20(b)における垂直軸は、各垂直座標位置における画素平均値に相当する。図示の通り、垂直座標位置における判定値は、それぞれ、m−1=暗部、m=明部、m+1=明部である。以上のように、所定の閾値に基づいて各画素平均値が明部であるか暗部であるかを判定できる。 FIG. 20B shows an example of the present embodiment determined to be a dark part. The vertical coordinate positions (m-1 to m + 1) on the horizontal axis in FIG. 20 (b) correspond to the three pixel groups (m-1 to m + 1) in FIG. 20 (a). The vertical axis in FIG. 20B corresponds to the pixel average value at each vertical coordinate position. As shown in the figure, the determination values at the vertical coordinate positions are m-1 = dark part, m = bright part, and m + 1 = bright part, respectively. As described above, it is possible to determine whether the average value of each pixel is a bright part or a dark part based on a predetermined threshold value.

図21を参照して、暗部の存在を考慮した特徴分類について説明する。前述した暗部検出において暗部が存在すると判定された場合、図7に示される特徴分類表が図21に示すように変更される。例えば、量子化制御部1502は、領域Q1、Q2(領域2101)に分類される要素を、領域Q0(領域2102)に分類されるように変更する。同様に、量子化制御部1502は、領域Q4、Q5(領域2103)に分類される要素を領域Q3(領域2004)に、領域Q7、Q8(領域2105)に分類される要素を領域Q6(領域2106)に分類されるように変更する。以上の構成によれば、視覚的な劣化が目立ちやすい暗部領域の量子化パラメータを低く維持することができる。 With reference to FIG. 21, feature classification considering the presence of dark areas will be described. When it is determined that a dark part exists in the above-mentioned dark part detection, the feature classification table shown in FIG. 7 is changed as shown in FIG. For example, the quantization control unit 1502 changes the elements classified into the regions Q1 and Q2 (region 2101) so as to be classified into the region Q0 (region 2102). Similarly, the quantization control unit 1502 sets the elements classified into the regions Q4 and Q5 (region 2103) into the region Q3 (region 2004) and the elements classified into the regions Q7 and Q8 (region 2105) into the region Q6 (region Q6). Change so that it is classified as 2106). According to the above configuration, the quantization parameter in the dark region where visual deterioration is easily noticeable can be kept low.

<第2実施形態>
以下、本発明の第2実施形態について説明する。なお、以下に例示する各実施形態において、作用、機能が前提例または第1実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の説明を適宜に省略する。
<Second Embodiment>
Hereinafter, the second embodiment of the present invention will be described. In each of the embodiments illustrated below, for elements whose actions and functions are equivalent to those of the premise example or the first embodiment, the reference numerals referred to in the above description will be used and the respective description will be omitted as appropriate.

第1実施形態では、1つのサブバンド係数に対応する2×2画素の画素平均値を用いて水平エッジ判定が実行される。第2実施形態では、水平2画素×垂直1画素(以下、2×1画素と称する場合がある)の画素平均値を併用して水平エッジ判定が実行される。 In the first embodiment, the horizontal edge determination is executed using the pixel average value of 2 × 2 pixels corresponding to one subband coefficient. In the second embodiment, the horizontal edge determination is executed by using the pixel average value of 2 horizontal pixels × 1 vertical pixel (hereinafter, may be referred to as 2 × 1 pixel) in combination.

図22を参照して、本発明の第2実施形態の水平エッジの検出手法について説明する。図22(a)は、サブバンド係数を用いた上記例(左側)による検出手法と、2×1画素値および2×2画素値を用いた本実施形態の検出手法(右側)とを対比している。2×1画素を含む画素群2204は、座標m−1のサブバンド係数2201に対応する。同様に、2×2画素を含む画素群2205は座標mのサブバンド係数2202に対応し、2×1画素を含む画素群2206は座標m+1のサブバンド係数2203に対応する。 A method for detecting a horizontal edge according to a second embodiment of the present invention will be described with reference to FIG. 22. FIG. 22A compares the detection method according to the above example (left side) using the subband coefficient with the detection method (right side) of the present embodiment using the 2 × 1 pixel value and the 2 × 2 pixel value. ing. The pixel group 2204 including 2 × 1 pixels corresponds to the subband coefficient 2201 at coordinate m-1. Similarly, the pixel group 2205 including 2 × 2 pixels corresponds to the subband coefficient 2202 of the coordinate m, and the pixel group 2206 including the 2 × 1 pixel corresponds to the subband coefficient 2203 of the coordinate m + 1.

本実施形態では、2×1画素値の画素平均値および2×2画素の画素平均値を用いて水平エッジを判定する。本実施形態の検出処理においては、各画素平均値が、所定の閾値を上回る場合に「振幅値大」と判定される一方、所定の閾値以下である場合に「振幅値小」と判定される。そして、以上の判定値(「振幅値大」または「振幅値小」)の配列に従って、水平エッジが存在するか否かが判定される。 In the present embodiment, the horizontal edge is determined using the pixel average value of 2 × 1 pixel value and the pixel average value of 2 × 2 pixel. In the detection process of the present embodiment, when the average value of each pixel exceeds a predetermined threshold value, it is determined to be "large amplitude value", while when it is equal to or less than a predetermined threshold value, it is determined to be "small amplitude value". .. Then, it is determined whether or not the horizontal edge exists according to the array of the above determination values (“large amplitude value” or “small amplitude value”).

図22(b)は、水平エッジが含まれると判定される判定値の配列を例示している。図22(b)における水平軸上の垂直座標位置(m−1〜m+1)は、図22(a)の3つの画素群(m−1〜m+1)に対応している。図22(b)における垂直軸は、各垂直座標位置における2×1画素または2×2画素の画素平均値に相当する。図示の通り、垂直座標位置における判定値は、それぞれ、m−1=振幅値小、m=振幅値大、m+1=振幅値小であって、垂直座標位置がm−1からm+1に変化する際に閾値を跨ぐ振幅値(画素平均値)の変化が生じている。以上のように閾値を跨ぐ振幅値の変化が生じていることは、3つの画素群に相当する箇所において画像の垂直方向の連続性が破れていることを示すので、水平エッジが存在すると判定される。 FIG. 22B illustrates an array of determination values that are determined to include horizontal edges. The vertical coordinate positions (m-1 to m + 1) on the horizontal axis in FIG. 22 (b) correspond to the three pixel groups (m-1 to m + 1) in FIG. 22 (a). The vertical axis in FIG. 22B corresponds to the pixel average value of 2 × 1 pixels or 2 × 2 pixels at each vertical coordinate position. As shown in the figure, the judgment values at the vertical coordinate position are m-1 = small amplitude value, m = large amplitude value, and m + 1 = small amplitude value, respectively, when the vertical coordinate position changes from m-1 to m + 1. There is a change in the amplitude value (pixel average value) across the threshold. The fact that the amplitude value changes across the threshold value as described above indicates that the vertical continuity of the image is broken at the locations corresponding to the three pixel groups, and thus it is determined that the horizontal edge exists. To.

図23は、上記した判定処理を実行可能な本実施形態に係る符号化装置230の構成を例示するブロック図である。符号化装置230は、ウェーブレット変換部2300、特徴情報生成部2301、量子化制御部2302、量子化部2303、およびエントロピー符号化部2304を有する。以上の要素は、それぞれ、図15のウェーブレット変換部1500、特徴情報生成部1501、量子化制御部1502、量子化部1503、およびエントロピー符号化部1504に対応している。図23において不図示の要素、特にプレーン変換部以前の要素は、第1実施形態と同様に構成されると好適である。したがって、本実施形態の符号化装置230は、撮像部を有する撮像装置として機能する。 FIG. 23 is a block diagram illustrating the configuration of the coding device 230 according to the present embodiment capable of executing the above-mentioned determination process. The coding device 230 includes a wavelet transform unit 2300, a feature information generation unit 2301, a quantization control unit 2302, a quantization unit 2303, and an entropy coding unit 2304. The above elements correspond to the wavelet transform unit 1500, the feature information generation unit 1501, the quantization control unit 1502, the quantization unit 1503, and the entropy coding unit 1504, respectively, of FIG. It is preferable that the elements (not shown) in FIG. 23, particularly the elements before the plane conversion unit, are configured in the same manner as in the first embodiment. Therefore, the coding device 230 of the present embodiment functions as an image pickup device having an image pickup unit.

ウェーブレット変換部2300は、分解レベル1のDWT変換に用いられる画素ラインバッファ2305、垂直DWT変換部2306、垂直DWTラインバッファ2307、および水平DWT変換部2308を有する。第1実施形態と同様に、ウェーブレット変換部2300は水平DWTラインバッファを有さない。第2実施形態の画素ラインバッファ2305(2ライン)は、第1実施形態の画素ラインバッファ1505(3ライン)よりも1ライン少ない。特徴情報生成部2301は、水平エッジの判定に用いられる水平エッジ判定ラインバッファ2309を有する。 The wavelet transform unit 2300 includes a pixel line buffer 2305, a vertical DWT transform unit 2306, a vertical DWT line buffer 2307, and a horizontal DWT transform unit 2308 used for DWT conversion of decomposition level 1. Similar to the first embodiment, the wavelet transform unit 2300 does not have a horizontal DWT line buffer. The pixel line buffer 2305 (2 lines) of the second embodiment is one line less than the pixel line buffer 1505 (3 lines) of the first embodiment. The feature information generation unit 2301 has a horizontal edge determination line buffer 2309 used for determining the horizontal edge.

第1実施形態と同様、符号化装置230が有する機能ブロックは、符号化装置230が有する1つ以上のCPU等のプロセッサが、不揮発性メモリに格納されたプログラムを揮発性メモリに展開して実行することによって実現される。 Similar to the first embodiment, the functional block included in the coding device 230 is executed by one or more processors such as the CPU of the coding device 230 expanding the program stored in the non-volatile memory into the volatile memory. It is realized by doing.

図24は、図23に示す符号化装置230において実行されるDWT変換、特徴情報生成、並びに量子化およびエントロピー符号化の時系列を示すタイミングチャートである。本実施形態では、符号化装置230が、第1実施形態と同様に垂直DWT変換および水平DWT変換を実行する。 FIG. 24 is a timing chart showing a time series of DWT transform, feature information generation, and quantization and entropy coding performed in the coding apparatus 230 shown in FIG. 23. In the present embodiment, the coding device 230 performs the vertical DWT transform and the horizontal DWT transform as in the first embodiment.

図24は、第1実施形態の図16に対応しているが、少なくとも以下の点において相違する。図24の「水平エッジ判定ラインバッファ」行に示されるバーは、画素ラインバッファ2305から出力される2×1画素ごとの画素平均値が、対応期間において水平エッジ判定ラインバッファ2309に一時的に保持されていることを示す。例えば、期間t3〜t4において、画素データbに基づいた0.5ライン分の2×1画素ごとの画素平均値M(b)が水平エッジ判定ラインバッファ2309に保持される。また、期間t5〜t6において、画素データdに基づいた0.5ライン分の2×1画素ごとの画素平均値M(d)が水平エッジ判定ラインバッファ2309に保持される。 FIG. 24 corresponds to FIG. 16 of the first embodiment, but differs in at least the following points. In the bar shown in the “horizontal edge determination line buffer” line of FIG. 24, the pixel average value for each 2 × 1 pixel output from the pixel line buffer 2305 is temporarily held in the horizontal edge determination line buffer 2309 during the corresponding period. Indicates that it has been done. For example, in the periods t3 to t4, the pixel average value M (b) for each 2 × 1 pixel for 0.5 lines based on the pixel data b is held in the horizontal edge determination line buffer 2309. Further, in the periods t5 to t6, the pixel average value M (d) for each 2 × 1 pixel for 0.5 lines based on the pixel data d is held in the horizontal edge determination line buffer 2309.

図23に示す符号化装置230が図24に示す期間において実行する符号化処理を以下に時系列的に説明する。 The coding process executed by the coding apparatus 230 shown in FIG. 23 during the period shown in FIG. 24 will be described below in chronological order.

期間t0、t1において、それぞれ、画素データa、bが画素ラインバッファ2305に入力される。以上の期間t0、t1では、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部2300に入力されていない。したがって、入力された画素データa、bは、それぞれ、画素ラインバッファLine_Buffer0、1に保持されるが、垂直DWT変換は実行されない。 In the periods t0 and t1, the pixel data a and b are input to the pixel line buffer 2305, respectively. During the above periods t0 and t1, the pixel data of the number of lines required to execute the vertical DWT transform is not input to the wavelet transform unit 2300. Therefore, the input pixel data a and b are held in the pixel line buffers Line_Buffer0 and 1, respectively, but the vertical DWT transform is not executed.

期間t2において、垂直DWT変換部2306は、画素ラインバッファ2305内の画素データa、bおよび入力された画素データcを用いてDWT係数bを算出する。算出されたDWT係数bは、垂直DWTラインバッファ2307(Line_Buffer2)と水平DWT変換部2308とに出力される。また、垂直DWT変換部2306は、画素ラインバッファ2305内の画素データaと算出されたDWT係数bとを用いてDWT係数aを算出し、水平DWT変換部2308に出力する。水平DWT変換部2308は、入力されるDWT係数a、bに水平DWT変換を実行して、DWT係数aLL、aHL、bLH、bHHを算出し、特徴情報生成部2301および量子化部2303に出力する。 In the period t2, the vertical DWT transform unit 2306 calculates the DWT coefficients b H using pixel data a, b and the input pixel data c in the pixel line buffer 2305. Calculated DWT coefficients b H is output to the vertical DWT line buffer 2307 and (Line_Buffer2) and horizontal DWT transform unit 2308. Further, the vertical DWT conversion unit 2306 calculates the DWT coefficient a L using the pixel data a in the pixel line buffer 2305 and the calculated DWT coefficient b H, and outputs the DWT coefficient a L to the horizontal DWT conversion unit 2308. The horizontal DWT transform unit 2308 executes horizontal DWT transform on the input DWT coefficients a L and b H , calculates the DWT coefficients a LL , a HL , b LH and b HH, and calculates the feature information generation unit 2301 and the quantum. Output to the conversion unit 2303.

特徴情報生成部2301は、DWT係数aLLを用いて明度を生成し、DWT係数aHL、bLH、bHHを用いて複雑度を生成し、DWT係数aHLを用いて垂直エッジ情報(第1特徴情報)を生成し、量子化制御部2302に出力する。量子化制御部2302は、特徴情報生成部2301からの特徴情報に対応する量子化パラメータを生成して量子化部2303に出力する。量子化部2303は、量子化制御部2302から入力された量子化パラメータを用いて、水平DWT変換部2308から入力されたDWT係数aLL、aHL、bLH、bHHを量子化し、エントロピー符号化部2304に出力する。 The feature information generation unit 2301 generates brightness using the DWT coefficient a LL , generates complexity using the DWT coefficients a HL , b LH , and b HH, and uses the DWT coefficient a HL to generate vertical edge information (the first). 1 Feature information) is generated and output to the quantization control unit 2302. The quantization control unit 2302 generates a quantization parameter corresponding to the feature information from the feature information generation unit 2301 and outputs the quantization parameter to the quantization unit 2303. The quantization unit 2303 uses the quantization parameters input from the quantization control unit 2302 to quantize the DWT coefficients a LL , a HL , b LH , and b HH input from the horizontal DWT transform unit 2308, and the entropy code. Output to the conversion unit 2304.

画素ラインバッファ2305(Line_Buffer1)から画素データbに基づく2×1画素ごとの画素平均値M(b)が水平エッジ判定ラインバッファ2309に出力され格納される。なお、画素ラインバッファLine_Buffer0の画像データaは、DWT係数aの算出後に画素データcで上書きされる。 The pixel average value M (b) for each 2 × 1 pixel based on the pixel data b is output from the pixel line buffer 2305 (Line_Buffer1) to the horizontal edge determination line buffer 2309 and stored. The image data a of the pixel line buffer Line_Buffer0 is overwritten with the pixel data c after the calculation of the DWT coefficient a L.

期間t3において、画素データdが、画素データbを保持している画素ラインバッファ2305(Line_Buffer1)に上書きされる。期間t0〜t1と同様、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部2300に入力されていないので、垂直DWT変換は実行されない。 In the period t3, the pixel data d is overwritten by the pixel line buffer 2305 (Line_Buffer1) holding the pixel data b. Similar to the periods t0 to t1, the vertical DWT transform is not executed because the pixel data of the number of lines required to execute the vertical DWT transform is not input to the wavelet transform unit 2300.

期間t4において、垂直DWT変換部2306は、画素ラインバッファ2305内の画素データc、dおよび入力された画素データeを用いてDWT係数dを算出する。算出されたDWT係数dは、垂直DWTラインバッファ2307(Line_Buffer3)と水平DWT変換部2308とに出力される。また、垂直DWT変換部2306は、算出されたDWT係数dと画素ラインバッファ2305内の画素データcと垂直DWTラインバッファ2307内のDWT係数bとを用いてDWT係数cを算出し、水平DWT変換部2308に出力する。水平DWT変換部2308は、入力されるDWT係数c、dに水平DWT変換を実行して、DWT係数cLL、cHL、dLH、dHHを算出し、特徴情報生成部2301および量子化部2303に出力する。 In the period t4, the vertical DWT transform unit 2306 calculates the DWT coefficients d H using the pixel data c, d and the input pixel data e in the pixel line buffer 2305. The calculated DWT coefficient d H is output to the vertical DWT line buffer 2307 (Line_Buffer3) and the horizontal DWT converter 2308. Further, the vertical DWT conversion unit 2306 calculates the DWT coefficient c L using the calculated DWT coefficient d H , the pixel data c in the pixel line buffer 2305, and the DWT coefficient b H in the vertical DWT line buffer 2307. Output to the horizontal DWT conversion unit 2308. The horizontal DWT transform unit 2308 executes horizontal DWT transform on the input DWT coefficients c L and d H , calculates the DWT coefficients c LL , c HL , d LH and d HH, and calculates the feature information generation unit 2301 and the quantum. Output to the conversion unit 2303.

同時に、画素データbの2×1画素ごとの画素平均値M(b)、画素データc、dの2×2画素ごとの画素平均値M(c+d)、および画素データeの2×1画素ごとの画素平均値M(e)が特徴情報生成部2301に出力される。画素平均値M(b)は水平エッジ判定ラインバッファ2309に保持されている。画素データc、dは画素ラインバッファ2305(Line_Buffer0、1)に保持されている。画素データeは期間t4で入力されたものである。 At the same time, the pixel average value M (b) for each 2 × 1 pixel of the pixel data b, the pixel average value M (c + d) for each 2 × 2 pixels of the pixel data c and d, and each 2 × 1 pixel of the pixel data e. The pixel average value M (e) of is output to the feature information generation unit 2301. The pixel average value M (b) is held in the horizontal edge determination line buffer 2309. The pixel data c and d are held in the pixel line buffer 2305 (Line_Buffer0, 1). The pixel data e is input in the period t4.

特徴情報生成部2301は、期間t2と同様に、DWT係数cLL、cHL、dLH、dHHを用いて明度、複雑度、およびエッジ情報を生成して量子化制御部2302に出力する。本実施形態において、水平エッジ情報(第2特徴情報)は、図25の右側に示すように、領域2504の画素平均値M(b)、領域2505の画素平均値M(c+d)、および領域2506の画素平均値M(e)を用いて生成される。なお、図25の左側は、前述例(図12、図13等)における1LHのサブバンド係数2501〜2503を用いた水平エッジ情報の生成を対比的に示している。量子化制御部2302は、期間t2と同様に量子化パラメータを生成して量子化部2303に出力する。量子化部2303は、量子化制御部2302から入力された量子化パラメータを用いて、水平DWT変換部2308から入力されたDWT係数cLL、cHL、dLH、dHHを量子化し、エントロピー符号化部2304に出力する。 The feature information generation unit 2301 generates brightness, complexity, and edge information using the DWT coefficients c LL , c HL , d LH , and d HH as in the period t2, and outputs the lightness, complexity, and edge information to the quantization control unit 2302. In the present embodiment, as shown on the right side of FIG. 25, the horizontal edge information (second feature information) includes the pixel average value M (b) of the area 2504, the pixel average value M (c + d) of the area 2505, and the area 2506. It is generated using the pixel average value M (e) of. The left side of FIG. 25 contrasts the generation of horizontal edge information using the 1 LH subband coefficients 2501 to 2503 in the above examples (FIGS. 12, 13, etc.). The quantization control unit 2302 generates a quantization parameter in the same manner as in the period t2 and outputs the quantization parameter to the quantization unit 2303. The quantization unit 2303 uses the quantization parameters input from the quantization control unit 2302 to quantize the DWT coefficients c LL , c HL , d LH , and d HH input from the horizontal DWT transform unit 2308, and the entropy code. Output to the conversion unit 2304.

水平エッジ判定ラインバッファ2309は、画素ラインバッファ2305に格納されている画素データdに基づいた画素平均値M(d)を、画素平均値M(b)に上書きして格納する。画素ラインバッファLine_Buffer0の画像データcは、DWT係数cの算出後に画素データeで上書きされる。 The horizontal edge determination line buffer 2309 overwrites the pixel average value M (d) based on the pixel data d stored in the pixel line buffer 2305 with the pixel average value M (b) and stores the pixel average value M (d). The image data c of the pixel line buffer Line_Buffer0 is overwritten with the pixel data e after the calculation of the DWT coefficient c L.

期間t5において、画素データfが、画素データdを保持している画素ラインバッファ2305(Line_Buffer1)に上書きされる。期間t5では、期間t0、t1、t3と同様、垂直DWT変換を実行するのに必要なライン数の画素データがウェーブレット変換部2300に入力されていないので、垂直DWT変換は実行されない。 In the period t5, the pixel data f is overwritten by the pixel line buffer 2305 (Line_Buffer1) holding the pixel data d. In the period t5, as in the periods t0, t1, and t3, the vertical DWT conversion is not executed because the pixel data of the number of lines required to execute the vertical DWT conversion is not input to the wavelet transform unit 2300.

期間t6において、垂直DWT変換部2306は、画素ラインバッファ2305内の画素データe、fおよび入力された画素データgを用いてDWT係数fを算出する。算出されたDWT係数fは、垂直DWTラインバッファ2307(Line_Buffer2)と水平DWT変換部2308とに出力される。また、垂直DWT変換部2306は、算出されたDWT係数fと画素ラインバッファ2305内の画素データeと垂直DWTラインバッファ2307内のDWT係数dとを用いてDWT係数eを算出し、水平DWT変換部2308に出力する。水平DWT変換部2308は、入力されるDWT係数e、fに水平DWT変換を実行して、DWT係数eLL、eHL、fLH、fHHを算出し、特徴情報生成部2301および量子化部2303に出力する。 In the period t6, the vertical DWT transform unit 2306 calculates the DWT coefficients f H with the pixel data e, f and input pixel data g in the pixel line buffer 2305. Calculated DWT coefficients f H is output to the vertical DWT line buffer 2307 and (Line_Buffer2) and horizontal DWT transform unit 2308. Further, the vertical DWT conversion unit 2306 calculates the DWT coefficient e L by using the calculated DWT coefficient f H , the pixel data e in the pixel line buffer 2305, and the DWT coefficient d H in the vertical DWT line buffer 2307. Output to the horizontal DWT conversion unit 2308. The horizontal DWT transform unit 2308 executes horizontal DWT transform on the input DWT coefficients e L and f H to calculate the DWT coefficients e LL , e HL , f LH and f HH, and calculates the feature information generation unit 2301 and the quantum. Output to the conversion unit 2303.

同時に、画素データdの2×1画素ごとの画素平均値M(d)、画素データe、fの2×2画素ごとの画素平均値M(e+f)、および画素データgの2×1画素ごとの画素平均値M(g)が特徴情報生成部2301に出力される。画素平均値M(d)は水平エッジ判定ラインバッファ2309に保持されている。画素データe、fは画素ラインバッファ2305(Line_Buffer0、1)に保持されている。画素データgは期間t6で入力されたものである。 At the same time, the pixel average value M (d) for each 2 × 1 pixel of the pixel data d, the pixel average value M (e + f) for each 2 × 2 pixel of the pixel data e, f, and each 2 × 1 pixel of the pixel data g. The pixel average value M (g) of is output to the feature information generation unit 2301. The pixel average value M (d) is held in the horizontal edge determination line buffer 2309. The pixel data e and f are held in the pixel line buffer 2305 (Line_Buffer0, 1). The pixel data g is input in the period t6.

特徴情報生成部2301は、期間t2、t4と同様に、DWT係数eLL、eHL、fLH、fHHを用いて明度、複雑度、およびエッジ情報を生成して量子化制御部2302に出力する。本実施形態において、水平エッジ情報は、図26の右側に示すように、領域2604の画素平均値M(d)、領域2605の画素平均値M(e+f)、および領域2606の画素平均値M(g)を用いて生成される。なお、図26の左側は、前述例(図12、図13等)における1LHのサブバンド係数2601〜2603を用いた水平エッジ情報の生成を対比的に示している。量子化制御部2302は、期間t2、t4と同様に量子化パラメータを生成して量子化部2303に出力する。量子化部2303は、量子化制御部2302から入力された量子化パラメータを用いて、水平DWT変換部2308から入力されたDWT係数eLL、eHL、fLH、fHHを量子化し、エントロピー符号化部2304に出力する。 The feature information generation unit 2301 generates brightness, complexity, and edge information using the DWT coefficients e LL , e HL , f LH , and f HH as in the periods t2 and t4, and outputs the lightness, complexity, and edge information to the quantization control unit 2302. To do. In the present embodiment, as shown on the right side of FIG. 26, the horizontal edge information includes the pixel average value M (d) of the area 2604, the pixel average value M (e + f) of the area 2605, and the pixel average value M (e + f) of the area 2606. It is produced using g). The left side of FIG. 26 contrasts the generation of horizontal edge information using the 1 LH subband coefficients 2601 to 2603 in the above examples (FIGS. 12, 13, etc.). The quantization control unit 2302 generates a quantization parameter in the same manner as in the periods t2 and t4 and outputs the quantization parameter to the quantization unit 2303. The quantization unit 2303 uses the quantization parameters input from the quantization control unit 2302 to quantize the DWT coefficients e LL , e HL , f LH , and f HH input from the horizontal DWT conversion unit 2308, and the entropy code. It is output to the quantization unit 2304.

水平エッジ判定ラインバッファ2309は、画素ラインバッファ2305に格納されている画素データfに基づいた画素平均値M(f)を、画素平均値M(d)に上書きして格納する。画素ラインバッファLine_Buffer0の画像データeは、DWT係数eの算出後に画素データgで上書きされる。 The horizontal edge determination line buffer 2309 overwrites the pixel average value M (f) based on the pixel data f stored in the pixel line buffer 2305 with the pixel average value M (d) and stores the pixel average value M (f). The image data e of the pixel line buffer Line_Buffer0 is overwritten with the pixel data g after the calculation of the DWT coefficient e L.

以降、同様にして最終ラインの画像データまで処理が繰り返し実行される。 After that, the process is repeatedly executed up to the image data of the final line in the same manner.

上記した本実施形態の構成によれば、第1実施形態と同様の技術的効果が奏される。加えて、第1実施形態と比較して、1ライン分の画素ラインバッファをさらに削減することができる。 According to the configuration of the present embodiment described above, the same technical effect as that of the first embodiment is achieved. In addition, the pixel line buffer for one line can be further reduced as compared with the first embodiment.

<その他の実施形態>
以上、本発明の好ましい実施の形態について説明したが、本発明は上述した実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
<Other Embodiments>
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications and changes can be made within the scope of the gist thereof.

以上の実施形態においては、符号化装置100、150、230が撮像部101を有する撮像装置として構成されているが、以上のような撮像部を有さず、外部からRAWデータが供給されるPC等の情報処理装置が本発明に係る符号化装置として機能してよい。すなわち、以上の実施形態における撮像部101および記録媒体108は、本発明に係る符号化装置に必須の構成要素ではない。 In the above embodiment, the coding devices 100, 150, and 230 are configured as an image pickup device having the image pickup unit 101, but the PC does not have the image pickup section as described above and the RAW data is supplied from the outside. An information processing device such as the above may function as a coding device according to the present invention. That is, the imaging unit 101 and the recording medium 108 in the above embodiments are not essential components for the coding apparatus according to the present invention.

また、例えば、本発明は、上述の実施形態の1以上の機能を実現するプログラムをネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現できる。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, for example, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or a device via a network or a storage medium, and one or more processors of the computer of the system or the device program the program. It can also be realized by the process of reading and executing. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100、150、230 符号化装置
103、1200、1500、2300 ウェーブレット変換部(変換手段)
104、1201、1501、2301 特徴情報生成部(特徴情報生成手段)
105、1202、1502、2302 量子化制御部(量子化制御手段)
106、1203、1503、2303 量子化部(量子化手段)
107、1204、1504、2304 エントロピー符号化部
1205、1505、2305 画素ラインバッファ(バッファ手段)
1207、1507、2307 垂直DWTラインバッファ(バッファ手段)
100, 150, 230 Coding device 103, 1200, 1500, 2300 Wavelet transform unit (conversion means)
104, 1201, 1501, 2301 Feature information generation unit (feature information generation means)
105, 1202, 1502, 2302 Quantization control unit (quantization control means)
106, 1203, 1503, 2303 Quantization unit (quantization means)
107, 1204, 1504, 2304 Entropy encoding unit 1205, 1505, 2305 Pixel line buffer (buffer means)
1207, 1507, 2307 Vertical DWT line buffer (buffer means)

Claims (12)

入力される画素データを一時的に保持するバッファ手段と、
前記画素データに対してウェーブレット変換を実行して複数のサブバンド係数を生成する変換手段と、
量子化パラメータに従って前記サブバンド係数を量子化する量子化手段と、
前記量子化パラメータを決定する量子化制御手段と、を備え、
前記量子化制御手段は、前記バッファ手段に保持された、前記量子化手段により量子化されるサブバンド係数に対応する画素データと、当該サブバンド係数の垂直方向に位置するサブバンド係数に対応する画素データとに基づいて、前記量子化パラメータを決定する、ことを特徴とする符号化装置。
A buffer means that temporarily holds the input pixel data,
A conversion means that executes wavelet transform on the pixel data to generate a plurality of subband coefficients, and
A quantization means for quantizing the subband coefficient according to a quantization parameter, and
A quantization control means for determining the quantization parameter is provided.
The quantization control means corresponds to the pixel data held in the buffer means and corresponding to the subband coefficient quantized by the quantization means and the subband coefficient located in the direction perpendicular to the subband coefficient. A coding device characterized in that the quantization parameter is determined based on pixel data.
前記量子化制御手段は、前記量子化手段により量子化されるサブバンド係数に基づく第1の特徴情報と、前記バッファ手段に保持された、前記量子化手段により量子化されるサブバンド係数に対応する画素データと、当該サブバンド係数の垂直方向に位置するサブバンド係数に対応する画素データとに基づく第2の特徴情報と、に基づいて、量子化パラメータを決定することを特徴とする請求項1に記載の符号化装置。 The quantization control means corresponds to the first feature information based on the subband coefficient quantized by the quantization means and the subband coefficient held in the buffer means and quantized by the quantization means. The claim is characterized in that the quantization parameter is determined based on the second feature information based on the pixel data to be generated and the pixel data corresponding to the subband coefficient located in the direction perpendicular to the subband coefficient. The coding apparatus according to 1. 前記バッファ手段は、前記量子化手段により量子化される前記サブバンド係数に対応する前記画素データと、当該サブバンド係数の垂直方向に位置する前記サブバンド係数に対応する複数のラインの画素データのうち1ラインの画素データと、を一時的に保持する、ことを特徴とする請求項2に記載の符号化装置。 The buffer means includes the pixel data corresponding to the subband coefficient quantized by the quantization means and pixel data of a plurality of lines corresponding to the subband coefficient located in the direction perpendicular to the subband coefficient. The coding device according to claim 2, wherein one line of pixel data is temporarily held. 前記バッファ手段は、前記画素データに関しての所定の閾値に基づく判定結果を保持する、ことを特徴とする請求項2または請求項3に記載の符号化装置。 The coding device according to claim 2 or 3, wherein the buffer means holds a determination result based on a predetermined threshold value with respect to the pixel data. 前記量子化制御手段は、画像の上端部分または下端部分においては前記第1の特徴情報のみに基づいて前記量子化パラメータを生成する、ことを特徴とする請求項2から請求項4のいずれか1項に記載の符号化装置。 Any one of claims 2 to 4, wherein the quantization control means generates the quantization parameter based only on the first feature information at the upper end portion or the lower end portion of the image. The encoding device according to the section. 前記特徴情報は、エッジの存在を示すエッジ情報を含む、ことを特徴とする請求項2から請求項5のいずれか1項に記載の符号化装置。 The coding device according to any one of claims 2 to 5, wherein the feature information includes edge information indicating the existence of an edge. 前記量子化制御手段は、前記エッジ情報が前記エッジの存在を示す場合に、前記エッジが存在しない場合よりも、前記量子化パラメータの値を小さく設定する、ことを特徴とする請求項6に記載の符号化装置。 The sixth aspect of claim 6 is characterized in that the quantization control means sets the value of the quantization parameter smaller when the edge information indicates the existence of the edge than when the edge does not exist. Encoding device. 前記特徴情報は、暗部領域の存在を示す暗部情報を含む、ことを特徴とする請求項2から請求項7のいずれか1項に記載の符号化装置。 The coding device according to any one of claims 2 to 7, wherein the feature information includes dark portion information indicating the existence of a dark region. 前記量子化制御手段は、前記暗部情報が前記暗部領域の存在を示す場合に、前記暗部領域が存在しない場合よりも、前記量子化パラメータの値を小さく設定する、ことを特徴とする請求項8に記載の符号化装置。 8. The quantization control means is characterized in that when the dark area information indicates the existence of the dark area, the value of the quantization parameter is set smaller than that when the dark area does not exist. The encoding device according to. 請求項1から請求項9のいずれか1項に記載の符号化装置と、
レンズ光学系および撮像素子を備える撮像手段と、を有することを特徴とする撮像装置。
The coding device according to any one of claims 1 to 9,
An image pickup apparatus comprising: an image pickup means including a lens optical system and an image pickup element.
入力される画素データを一時的に保持するバッファ手段を備える符号化装置の制御方法であって、
前記画素データに対してウェーブレット変換を実行して複数のサブバンド係数を生成することと、
量子化パラメータに従って前記サブバンド係数を量子化することと、
前記バッファ手段に保持された、量子化されるサブバンド係数に対応する画素データと、当該サブバンド係数の垂直方向に位置するサブバンド係数に対応する画素データとに基づいて、前記量子化パラメータを決定する、ことを特徴とする制御方法。
A control method for a coding device including a buffer means for temporarily holding input pixel data.
Performing wavelet transform on the pixel data to generate multiple subband coefficients,
Quantizing the subband coefficient according to the quantization parameters,
The quantization parameter is set based on the pixel data corresponding to the quantized subband coefficient held in the buffer means and the pixel data corresponding to the subband coefficient located in the direction perpendicular to the subband coefficient. A control method characterized by determining.
コンピュータを、請求項1から請求項9のいずれか1項に記載された符号化装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the coding apparatus according to any one of claims 1 to 9.
JP2019218081A 2019-12-02 2019-12-02 Encoding device, imaging device, control method, and program Active JP7419044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218081A JP7419044B2 (en) 2019-12-02 2019-12-02 Encoding device, imaging device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218081A JP7419044B2 (en) 2019-12-02 2019-12-02 Encoding device, imaging device, control method, and program

Publications (2)

Publication Number Publication Date
JP2021090097A true JP2021090097A (en) 2021-06-10
JP7419044B2 JP7419044B2 (en) 2024-01-22

Family

ID=76220597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218081A Active JP7419044B2 (en) 2019-12-02 2019-12-02 Encoding device, imaging device, control method, and program

Country Status (1)

Country Link
JP (1) JP7419044B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6986868B2 (en) 2017-06-19 2021-12-22 キヤノン株式会社 Image coding device, image decoding device, image coding method, image decoding method, program
JP7001383B2 (en) 2017-07-28 2022-01-19 キヤノン株式会社 Coding device, coding method, and program

Also Published As

Publication number Publication date
JP7419044B2 (en) 2024-01-22

Similar Documents

Publication Publication Date Title
JP4365957B2 (en) Image processing method and apparatus and storage medium
JP6300565B2 (en) Moving picture coding apparatus, program, and integrated circuit
JP4045913B2 (en) Image coding apparatus, image coding method, and image processing apparatus
US11928843B2 (en) Signal processing apparatus and signal processing method
WO2017033560A1 (en) Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, moving image decoding method, and program
US10742986B2 (en) High dynamic range color conversion correction
JP6065613B2 (en) Video encoding device
US9531915B2 (en) Image encoding system and method thereof
US10497093B2 (en) Image processing apparatus for minimizing deterioration of image quality of a raw image
JP2019004428A (en) Image encoding device, image decoding device, image encoding method, image decoding method, and program
US20180035091A1 (en) Imaging apparatus and control method thereof
JP2019029802A (en) Encoding apparatus, encoding method, and program
JP7419044B2 (en) Encoding device, imaging device, control method, and program
JP2002314999A (en) Image compressor, image compressing program and electronic camera
JP7033013B2 (en) Image coding device, image decoding device, their control method, and program
JP2015076765A (en) Image processing device, control method thereof, and computer program
JPH08322041A (en) Block distortion eliminator
JP7387333B2 (en) Encoding device and its control method
JP2017085496A (en) Moving image encoder, control method for the same and computer program
JP2020123864A (en) Image encoder
JP5267140B2 (en) Image compression apparatus and image compression method
JP6812214B2 (en) Image coding device, image coding method, and program
JP6497981B2 (en) Image coding apparatus and control method thereof
JP2019068385A (en) Encoder, control method thereof, and control program, and imaging apparatus
CN110113619B (en) Encoding method, encoding device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R151 Written notification of patent or utility model registration

Ref document number: 7419044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151