JP6792370B2 - Image processing equipment, its control method, and computer programs - Google Patents

Image processing equipment, its control method, and computer programs Download PDF

Info

Publication number
JP6792370B2
JP6792370B2 JP2016152293A JP2016152293A JP6792370B2 JP 6792370 B2 JP6792370 B2 JP 6792370B2 JP 2016152293 A JP2016152293 A JP 2016152293A JP 2016152293 A JP2016152293 A JP 2016152293A JP 6792370 B2 JP6792370 B2 JP 6792370B2
Authority
JP
Japan
Prior art keywords
component data
subband
code amount
color difference
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016152293A
Other languages
Japanese (ja)
Other versions
JP2017085545A5 (en
JP2017085545A (en
Inventor
遼太 鈴木
遼太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/299,507 priority Critical patent/US10163192B2/en
Publication of JP2017085545A publication Critical patent/JP2017085545A/en
Publication of JP2017085545A5 publication Critical patent/JP2017085545A5/ja
Application granted granted Critical
Publication of JP6792370B2 publication Critical patent/JP6792370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ベイヤー配列の画像データの符号化技術に関するものである。 The present invention relates to a technique for encoding image data of a Bayer array.

一般に、デジタルカメラに代表される撮像装置は、ベイヤー配列の撮像素子を搭載している。ベイヤー配列は、赤(R)、緑(G)、青(B)の画素がモザイク状に配列された構造である。そして、ベイヤー配列中の2×2画素は、1つ赤(R)、2つの緑(G0、G1)および1つの青(B)の画素で構成される。従って、このような撮像素子で撮像して得られた直後の画像データの画素の配列もベイヤー配列となっている。 In general, an image pickup device represented by a digital camera is equipped with a Bayer array image pickup element. The Bayer array has a structure in which red (R), green (G), and blue (B) pixels are arranged in a mosaic pattern. The 2 × 2 pixels in the Bayer array are composed of one red (R), two green (G0, G1) and one blue (B) pixels. Therefore, the array of pixels of the image data immediately after being imaged by such an image sensor is also a Bayer array.

ベイヤー配列の画像データの各画素は、上記の通り1色成分の情報しか持たない。そのため、一般に、デモザイクと呼ばれる補間処理がベイヤー配列の画像データに対して適用され、1画素がR(赤)、G(緑)およびB(青)の複数成分を持つ画像データが生成される。そして、記録や転送効率の観点から、デモザイク処理で得られた画像データは、符号化され、そのデータ量が圧縮される。圧縮符号化の代表であるJPEG(Joint Photographic Experts Group)は、RGB色空間の画像データをYUV色空間の画像データに変換してから圧縮符号化する。しかし、1成分当たりのビット数が同じであるなら、デモザイク後の画像データは、デモザイク前のベイヤー配列の画像データの3倍のデータ量となる。つまり、JPEGは、ベイヤー配列の画像データの3倍のデータ量の画像データを符号化対象としていると言える。 As described above, each pixel of the image data of the Bayer array has only information on one color component. Therefore, in general, an interpolation process called demosaic is applied to the image data of the Bayer array, and image data in which one pixel has a plurality of components of R (red), G (green), and B (blue) is generated. Then, from the viewpoint of recording and transfer efficiency, the image data obtained by the demosaic processing is encoded and the amount of the data is compressed. JPEG (Joint Photographic Experts Group), which is a representative of compression coding, converts image data in RGB color space into image data in YUV color space and then compresses and encodes it. However, if the number of bits per component is the same, the amount of image data after demosaic is three times the amount of image data of the Bayer array before demosaic. That is, it can be said that JPEG targets image data having a data amount three times as much as the image data of the Bayer array.

これに対し、デモザイク処理を行わず、ベイヤー配列の画像データを成分毎(R、G0、B、G1)に分類し、各成分の画像データを独立して符号化する技術が知られている(たとえば、特許文献1)。 On the other hand, there is known a technique of classifying the image data of the Bayer array into each component (R, G0, B, G1) without performing demosaic processing and encoding the image data of each component independently ( For example, Patent Document 1).

特開2003−125209号公報Japanese Unexamined Patent Publication No. 2003-125209 特開2006−121669号公報JP-A-2006-121669

ベイヤー配列の画像データに含まれる総画素数の半分はG成分の画素である。それ故、このG成分の画素を如何に効率的に符号化するかが重要である。特許文献1の手法では、元々画素位置が近く、同色で相関が高いG0成分とG1成分を別コンポーネントに分類してしまう。それ故、符号化処理におけるウェーブレット変換はベイヤー配列の画像データがサブサンプリングした状態で行われるため、高周波成分と低周波成分との切り分け時に折り返し雑音(Folding noise)が印加され、圧縮率の低下につながる。 Half of the total number of pixels included in the image data of the Bayer array is the pixels of the G component. Therefore, it is important how to efficiently encode the pixels of the G component. In the method of Patent Document 1, the G0 component and the G1 component, which are originally close to each other in pixel position and have the same color and high correlation, are classified into different components. Therefore, since the wavelet transform in the coding process is performed in the state where the image data of the Bayer array is sub-sampled, folding noise is applied when the high frequency component and the low frequency component are separated, and the compression rate is lowered. Connect.

一方で、ベイヤー配列の画像データを色空間変換を行って、1つの輝度成分(Y)、3つの色差成分(Dg、Co、Cg)を生成し、それぞれの成分の画像データを符号化する技術が知られている(特許文献2)。これは、人間の眼が輝度成分に対する感度が高いという視感度特性を利用したもので、色成分毎の冗長データの削減を狙った圧縮効率向上方法の一つである。この方式のDg成分は、G1−G0(微分によるハイパスフィルタ)で表され、G成分に対する高周波成分を算出している。しかし、この特許文献2では、G成分に対する低周波成分は算出していないので、圧縮効率の点で改善の余地がある。 On the other hand, a technique of performing color space conversion on the image data of the Bayer array to generate one luminance component (Y) and three color difference components (Dg, Co, Cg) and encoding the image data of each component. Is known (Patent Document 2). This utilizes the luminosity factor characteristic that the human eye has high sensitivity to the luminance component, and is one of the compression efficiency improvement methods aiming at reducing redundant data for each color component. The Dg component of this method is represented by G1-G0 (high-pass filter by differentiation), and the high frequency component with respect to the G component is calculated. However, in Patent Document 2, since the low frequency component with respect to the G component is not calculated, there is room for improvement in terms of compression efficiency.

本発明は、ベイヤー配列の画像データを、更に効率良く圧縮符号化する技術を提供しようとするものである。 The present invention is intended to provide a technique for more efficiently compressing and encoding image data of a Bayer array.

この課題を解決するため、例えば本発明の画像符号化装置は以下の構成を備える。すなわち、
ベイヤー配列の画像データを符号化する画像符号化装置であって、
ベイヤー配列の画像データのG0成分データ及びG1成分データから、G成分の低周波成分で構成されるGL成分データ、及び、G成分の高周波成分で構成されるGH成分データを生成する生成手段と、
ベイヤー配列の画像データのR成分データ、B成分データ、及び、前記GL成分データから、輝度成分で構成される輝度成分データ、第1の色差成分で構成される第1の色差成分データ、第2の色差成分で構成される第2の色差成分データを生成する輝度色差変換手段と、
前記輝度成分データ、前記第1の色差成分データ、前記第2の色差成分データ、及び、前記GH成分データを、成分ごとに符号化する符号化手段と
を有し、
前記符号化手段は、前記輝度成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも大きくなり、前記GH成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも小さくなるように、各成分データを符号化することを特徴とする
In order to solve this problem, for example, the image coding apparatus of the present invention has the following configuration. That is,
An image coding device that encodes image data in a Bayer array.
A generation means for generating GL component data composed of low frequency components of G component and GH component data composed of high frequency components of G component from G0 component data and G1 component data of image data of Bayer array.
From the R component data, B component data, and the GL component data of the image data of the Bayer array, the luminance component data composed of the luminance component, the first luminance component data composed of the first luminance component, and the second Luminance color difference conversion means for generating the second color difference component data composed of the color difference components of
The luminance component data, the first color difference component data, the second color difference component data, and the GH component data, have a coding means for coding each component,
In the coding means, the code amount of the brightness component data is larger than the code amount of the first color difference component data and the code amount of the second color difference component data, and the code amount of the GH component data is increased. It is characterized in that each component data is encoded so as to be smaller than the code amount of the first color difference component data and the code amount of the second color difference component data .

本発明によれば、ベイヤー配列の画像データを、これまでよりも更に効率良く圧縮符号化することが可能となる。 According to the present invention, the image data of the Bayer array can be compressed and encoded more efficiently than before.

第1の実施形態に係る符号化装置が有するブロック構成図。The block block diagram which the coding apparatus which concerns on 1st Embodiment has. ベイヤー配列の画像データの色分離及びプレーン形成方法を説明する図。The figure explaining the color separation and the plane formation method of the image data of a Bayer array. 第1の実施形態に係る符号化処理のフローチャート。The flowchart of the coding process which concerns on 1st Embodiment. ウェーブレット変換を説明するための図。The figure for demonstrating the wavelet transform. G0プレーンとG1プレーンを用いた、低周波成分プレーンと高周波成分プレーンの生成方法を説明する図。The figure explaining the generation method of the low frequency component plane and the high frequency component plane using the G0 plane and the G1 plane. 各プレーンのサブバンド毎の目標符号量の設定の一例を示す図。The figure which shows an example of setting of the target code amount for each subband of each plane. 第2の実施形態に係る符号化装置が有すブロック構成図。The block block diagram which the coding apparatus which concerns on 2nd Embodiment has. 第2の実施形態に係る符号化処理のフローチャート。The flowchart of the coding process which concerns on 2nd Embodiment. ベイヤー配列の画像データの色分離及びプレーン形成方法の他の例を示す図。The figure which shows another example of the color separation and plane formation method of the image data of a Bayer array. 第1の実施形態の変形例における情報処理装置のブロック構成図。The block block diagram of the information processing apparatus in the modification of 1st Embodiment. 第1の実施形態の変形例における各プレーンのサブバンド毎の目標符号量の設定の一例を示す図。The figure which shows an example of the setting of the target code amount for each subband of each plane in the modification of 1st Embodiment.

以下、添付図面に従って本発明に係る実施形態を詳細に説明する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
第1の実施形態では、デジタルカメラに代表される撮像装置に適用した例である。図1は、撮像装置100における画像符号化に係る主要部のブロック構成図である。撮像装置100は、撮像部101、プレーン形成部102、メモリI/F部103、メモリ104、プレーン変換部105、色変換部106、周波数変換部107、制御部108、量子化部109、エントロピー符号化部110及び出力部111を有する。なお、記憶媒体112は、例えば脱着可能なメモリカードである。また、本装置は、ユーザインターフェースとして機能する操作部115を有する。
[First Embodiment]
The first embodiment is an example applied to an imaging device typified by a digital camera. FIG. 1 is a block configuration diagram of a main part related to image coding in the image pickup apparatus 100. The imaging device 100 includes an imaging unit 101, a plane forming unit 102, a memory I / F unit 103, a memory 104, a plane conversion unit 105, a color conversion unit 106, a frequency conversion unit 107, a control unit 108, a quantization unit 109, and an entropy code. It has a conversion unit 110 and an output unit 111. The storage medium 112 is, for example, a removable memory card. In addition, the present device has an operation unit 115 that functions as a user interface.

撮像部101は、光を電気信号に変換するセンサが2次元に配列された構造を有する。そして、各センサの前面には赤(R)、緑(G)、青(B)のいずれかのカラーフィルターが配置されている。このカラーフィルターの並びはベイヤー配列である。撮像部101は、各センサで得られた各色成の電気信号をデジタルの画像データとしてプレーン形成部202に供給する。カラーフィルタはベイヤー配列となっているので、プレーン形成部202に供給される画像データの各画素もベイヤー配列である。本第1の実施形態における符号化対象の画像データは、デモザイク処理を行う前段階のベイヤー配列の画像データであるので、以降、このベイヤー配列の画像データをRAW画像データと言う。 The imaging unit 101 has a structure in which sensors that convert light into electrical signals are arranged two-dimensionally. A red (R), green (G), or blue (B) color filter is arranged on the front surface of each sensor. The arrangement of these color filters is a Bayer arrangement. The imaging unit 101 supplies the electrical signals of each coloration obtained by each sensor to the plane forming unit 202 as digital image data. Since the color filter has a Bayer array, each pixel of the image data supplied to the plane forming unit 202 also has a Bayer array. Since the image data to be encoded in the first embodiment is the image data of the Bayer array in the stage before the demosaic processing is performed, the image data of the Bayer array is hereinafter referred to as RAW image data.

プレーン形成部102は、撮像部101からのRAW画像データを受信する。また、プレーン形成部102は、RAW画像データから、R成分データで構成されるRプレーン、G0成分データで構成されるG0プレーン、G1成分データで構成されるG1プレーン、B成分データで構成されるBプレーンを形成(分離)する。図2は、RAW画像データと、R,G0,G1,Bプレーンとの関係を示している。RAW画像データの水平方向の画素数をW,垂直方向の画素数をHとしたとき、R,G0,G1,Bプレーンの各々の水平方向の画素数はW/2、垂直方向の画素数はH/2となる。プレーン形成部102は、形成したRプレーン、G0プレーン、G1プレーン、Bプレーンを、メモリI/F部103を介してメモリ104に一時的に格納する。 The plane forming unit 102 receives the RAW image data from the imaging unit 101. Further, the plane forming unit 102 is composed of an R plane composed of R component data, a G0 plane composed of G0 component data, a G1 plane composed of G1 component data, and a B component data from RAW image data. Form (separate) the B plane. FIG. 2 shows the relationship between the RAW image data and the R, G0, G1, and B planes. When the number of pixels in the horizontal direction of the RAW image data is W and the number of pixels in the vertical direction is H, the number of pixels in the horizontal direction of each of the R, G0, G1, and B planes is W / 2, and the number of pixels in the vertical direction is W. It becomes H / 2. The plane forming unit 102 temporarily stores the formed R plane, G0 plane, G1 plane, and B plane in the memory 104 via the memory I / F unit 103.

メモリI/F部103は、各処理部からメモリ104に対するアクセス要求を調停し、メモリ104に対する読出し/書き込み制御を行う。 The memory I / F unit 103 mediates access requests to the memory 104 from each processing unit, and performs read / write control for the memory 104.

メモリ104は、各処理部から出力される各種データを一時的に記憶保持するために設けられるものであり、RAMで構成される。 The memory 104 is provided to temporarily store and hold various data output from each processing unit, and is composed of a RAM.

プレーン変換部105は、メモリI/F部103を介して、メモリ104からG0プレーン、G1プレーンを読み出す。そして、プレーン変換部105は、これら2つのプレーンの相関を利用した所定の画素演算を行い、G成分の高周波成分(以降GHと呼ぶ)データと低周波成分(以降GLと呼ぶ)データを生成する。そして、プレーン変換部105は、生成したGLデータで構成されるGLプレーン、GHデータで構成されるGHプレーンを、メモリI/F部103を介してメモリ104に書き込む。このプレーン変換部105で行う画素演算の詳細は後述する。 The plane conversion unit 105 reads the G0 plane and the G1 plane from the memory 104 via the memory I / F unit 103. Then, the plane conversion unit 105 performs a predetermined pixel calculation using the correlation between these two planes, and generates high frequency component (hereinafter referred to as GH) data and low frequency component (hereinafter referred to as GL) data of the G component. .. Then, the plane conversion unit 105 writes the GL plane composed of the generated GL data and the GH plane composed of the GH data to the memory 104 via the memory I / F unit 103. The details of the pixel calculation performed by the plane conversion unit 105 will be described later.

色変換部106は、メモリ104に格納されるGLプレーン、Rプレーン、BプレーンをメモリI/F部103を介して読み出し、該3プレーンに対して輝度色差変換を行う。そして、色変換部106は、輝度色差変換で得られた各プレーンをメモリI/F部103を介してメモリ104に再び書き込む。この時、生成される各プレーンは、輝度Yを示すYプレーン、色差U,Vを示すUプレーン及びVプレーンである。 The color conversion unit 106 reads out the GL plane, the R plane, and the B plane stored in the memory 104 via the memory I / F unit 103, and performs luminance color difference conversion on the three planes. Then, the color conversion unit 106 writes each plane obtained by the luminance color difference conversion to the memory 104 again via the memory I / F unit 103. At this time, the generated planes are a Y plane showing the brightness Y, a U plane showing the color differences U and V, and a V plane.

周波数変換部107は、メモリI/F部103を介してメモリ104から読み出したYプレーン、Uプレーン、Vプレーン、及び、GHプレーンに対して、ウェーブレット変換を実行する。そして、周波数変換部107は、このウェーブレット変換で得られた複数種類のサブバンドの変換係数データを量子化部109に送る。ここで、ウェーブレット変換とは、周波数解析手法の一つで、画像データの周波数成分を低域(ローパスフィルタ処理を実施)と高域(ハイパスフィルタ処理を実施)に切り分ける処理を指す。入力画像データに対して、2次元ウェーブレット変換を1回実施した(分解レベル1)際のサブバンド形成結果を図4に示す。図4で示す「L」は低周波成分を意味し、「H」は高周波成分を意味する。例えば、HHサブバンドは、垂直方向と水平方向についてハイパスフィルタ処理を施して得られた変換係数データの集合である。また、ウェーブレット変換は再帰的に何度も実行しても良い。2回目以降のウェーブレット変換(分解レベル2以降)を行う対象は、直前に実行したウェーブレット変換(ここでは分解レベル1のウェーブレット変換)のLLサブバンドとなる。 The frequency conversion unit 107 executes wavelet transform on the Y plane, U plane, V plane, and GH plane read from the memory 104 via the memory I / F unit 103. Then, the frequency conversion unit 107 sends the conversion coefficient data of a plurality of types of subbands obtained by this wavelet conversion to the quantization unit 109. Here, the wavelet transform is one of the frequency analysis methods, and refers to a process of separating the frequency component of the image data into a low frequency band (a low pass filter process is performed) and a high frequency band (a high pass filter process is performed). FIG. 4 shows the results of subband formation when the two-dimensional wavelet transform was performed once on the input image data (decomposition level 1). “L” shown in FIG. 4 means a low frequency component, and “H” means a high frequency component. For example, the HH subband is a set of conversion coefficient data obtained by performing high-pass filtering in the vertical direction and the horizontal direction. Also, the wavelet transform may be performed recursively many times. The target for performing the second and subsequent wavelet transforms (decomposition level 2 and later) is the LL subband of the wavelet transform (here, the wavelet transform of decomposition level 1) executed immediately before.

制御部108は、本装置全体の制御を司るものである。そして、制御部108は、操作部115を介してユーザからの指示を受け付ける。この指示には、記録指示、記録品位、RAW画像データの総目標符号量等が含まれる。制御部108は、操作部115を介してのユーザからの指示入力があると、その指示された情報を制御部108内の不図示のメモリに格納する。そして、制御部108は、そのメモリに格納された情報に基づき、総目標符号量のうち、Yプレーン、Uプレーン、Vプレーン、及び、GHプレーンの割り当てるプレーン目標符号量を量子化部109に設定する。 The control unit 108 controls the entire device. Then, the control unit 108 receives an instruction from the user via the operation unit 115. This instruction includes a recording instruction, a recording quality, a total target code amount of RAW image data, and the like. When the control unit 108 receives an instruction input from the user via the operation unit 115, the control unit 108 stores the instructed information in a memory (not shown) in the control unit 108. Then, the control unit 108 sets the plane target code amount assigned to the Y plane, the U plane, the V plane, and the GH plane among the total target code amounts in the quantization unit 109 based on the information stored in the memory. To do.

量子化部109は、ウェーブレット変換部108から供給される変換係数データに対して、量子化を実行し、量子化後の変換係数データをエントロピー符号化部110に送る。なお量子化を行う際に用いる量子化パラメータ(量子化ステップ)は、制御部108によって設定されたプレーン目標符号量を基に決定する。 The quantization unit 109 executes quantization on the conversion coefficient data supplied from the wavelet conversion unit 108, and sends the quantization coefficient data after quantization to the entropy coding unit 110. The quantization parameter (quantization step) used when performing quantization is determined based on the plane target code amount set by the control unit 108.

エントロピー符号化部110は、量子化後の変換係数をエントロピー符号化して、符号化データを生成する。そして、エントロピー符号化部110は、生成された符号化データを出力部111に供給する。 The entropy coding unit 110 entropy-encodes the conversion coefficient after quantization to generate coded data. Then, the entropy coding unit 110 supplies the generated coded data to the output unit 111.

出力部111は、エントロピー符号化部110から供給されてきたYプレーン、Uプレーン、Vプレーン、及び、GHプレーンの各符号化データを、予め設定されたフォーマットに従い連結する。そして、出力部111は、復号に必要な情報を含むファイルヘッダを生成し、そのファイルヘッダと符号化データとを1つのファイルとして、記憶媒体112に書き込む。この記憶媒体111は、例えばSDカード等の、着脱自在な不揮発性メモリである。 The output unit 111 concatenates the coded data of the Y plane, the U plane, the V plane, and the GH plane supplied from the entropy coding unit 110 according to a preset format. Then, the output unit 111 generates a file header including information necessary for decoding, and writes the file header and the encoded data as one file in the storage medium 112. The storage medium 111 is a removable non-volatile memory such as an SD card.

次に、第1の実施形態におけるRAW画像データ(1フレーム)に対する符号化処理を、図3のフローチャートに従って説明する。なお、第1の実施形態では1フレーム単位での処理を例に示すが、1フレームを複数のタイルに分割し、各タイルに対して後述の符号化処理を実行してもよい。 Next, the coding process for the RAW image data (1 frame) in the first embodiment will be described with reference to the flowchart of FIG. In the first embodiment, the processing in units of one frame is shown as an example, but one frame may be divided into a plurality of tiles, and the coding processing described later may be executed for each tile.

ステップS301にて、プレーン形成部102は、撮像部101が出力したベイヤー配列のRAW画像データを入力し、Rプレーン、G0プレーン、G1プレーン、Bプレーンを形成する。そして、プレーン形成部102は、形成したRプレーン、G0プレーン、G1プレーン、Bプレーンを、メモリI/F部103を介してメモリ104に書き込む。 In step S301, the plane forming unit 102 inputs the RAW image data of the Bayer array output by the imaging unit 101 to form the R plane, the G0 plane, the G1 plane, and the B plane. Then, the plane forming unit 102 writes the formed R plane, G0 plane, G1 plane, and B plane to the memory 104 via the memory I / F unit 103.

ステップS302では、プレーン変換部105は、メモリI/F部103を介してメモリ104から、G0プレーン、G1プレーンを読み出し、GL成分データで構成されるGLプレーンを生成する。 In step S302, the plane conversion unit 105 reads the G0 plane and the G1 plane from the memory 104 via the memory I / F unit 103, and generates a GL plane composed of GL component data.

このGL成分データの生成方法を図5を用いて説明する。プレーン変換部105は、入力したG0プレーン、G1プレーンの同じ座標位置の画素データを加算平均し、その加算平均した値をGL成分データとして生成する。つまり、GLプレーンは、G0プレーンとG1プレーンの加算平均の集合である。加算平均処理は当該画素間の移動平均(積分)処理であって、ローパスフィルタ処理と同意である。そして、加算平均値は、G成分に対する低周波成分データに相当する。プレーン変換部105は、生成したGLプレーンをメモリI/F部103を介してメモリ104に書き込む。 The method of generating the GL component data will be described with reference to FIG. The plane conversion unit 105 adds and averages the pixel data at the same coordinate positions of the input G0 plane and G1 plane, and generates the added and averaged value as GL component data. That is, the GL plane is a set of averaging of the G0 plane and the G1 plane. The additive averaging process is a moving average (integral) process between the pixels, and is synonymous with the low-pass filter process. Then, the added average value corresponds to the low frequency component data for the G component. The plane conversion unit 105 writes the generated GL plane to the memory 104 via the memory I / F unit 103.

ステップS303にて、プレーン変換部105は、メモリI/F部103を介してメモリ104から、G0プレーン、G1プレーンを読み出し、GH成分データで構成されるGHプレーンを生成する。具体的には、図5に示すように、プレーン変換部105は、入力したG0プレーン、G1プレーンの同じ座標位置の画素データの差分平均を演算し、その差分平均値をGH成分データとして生成する。つまり、GHプレーンは、G0プレーンとG1プレーンの差分平均値の集合である。差分平均処理は2つのG0、G1プレーン間の移動差分(微分)演算であって、ハイパスフィルタ処理と同意である。そして差分平均値は、G成分に対する高周波成分データに相当する。そして、プレーン変換部105は、生成したGHプレーンをメモリI/F部103を介してメモリ104に書き込む。 In step S303, the plane conversion unit 105 reads the G0 plane and the G1 plane from the memory 104 via the memory I / F unit 103, and generates a GH plane composed of GH component data. Specifically, as shown in FIG. 5, the plane conversion unit 105 calculates the difference average of the pixel data at the same coordinate positions of the input G0 plane and G1 plane, and generates the difference average value as GH component data. .. That is, the GH plane is a set of the difference average values of the G0 plane and the G1 plane. The difference averaging process is a moving difference (derivative) operation between two G0 and G1 planes, and is consistent with the high-pass filter process. And the difference average value corresponds to the high frequency component data with respect to the G component. Then, the plane conversion unit 105 writes the generated GH plane to the memory 104 via the memory I / F unit 103.

ステップS304にて、色変換部106は、GLプレーンとRプレーンとBプレーンをメモリI/F部103を介してメモリ104から読み出し、輝度色差変換を行い、1枚の輝度プレーン、2枚の色差プレーンを生成する。具体的には、色変換部106は式(1)に従って輝度色差変換を行い、輝度成分データで構成されるYプレーン、色差Uの色差成分データで構成されるUプレーン、及び、色差Vの色差成分データで構成されるVプレーンを生成する。なお、第1の実施形態の輝度色差変換では、整数型可逆コンポーネント変換式を例に説明するが、他の同様の変換式でも適用可能である。 In step S304, the color conversion unit 106 reads the GL plane, the R plane, and the B plane from the memory 104 via the memory I / F unit 103, performs luminance color difference conversion, and performs luminance color difference conversion on one luminance plane and two luminance planes. Generate a plane. Specifically, the color conversion unit 106 performs luminance color difference conversion according to the equation (1), and a Y plane composed of luminance component data, a U plane composed of color difference component data of color difference U, and a color difference of color difference V. Generate a V-plane composed of component data. In the luminance color difference conversion of the first embodiment, the integer type reversible component conversion formula will be described as an example, but other similar conversion formulas can also be applied.

Figure 0006792370
Figure 0006792370

ステップS305にて、周波数変換部107が、Yプレーン、Uプレーン、Vプレーン、並びに、GHプレーンを、メモリI/F部103を介してメモリ104から読み出す。そして、周波数変換部107は、読み出した各プレーンに対してウェーブレット変換を実行してサブバンドを形成する。なお、第1の実施形態の周波数変換は、JPEG等の符号化技術で用いられる離散コサイン変換で代用してもよく、ウェーブレット変換に限定されるものではない。 In step S305, the frequency conversion unit 107 reads the Y plane, the U plane, the V plane, and the GH plane from the memory 104 via the memory I / F unit 103. Then, the frequency conversion unit 107 executes wavelet transform on each read plane to form a subband. The frequency conversion of the first embodiment may be replaced by the discrete cosine transform used in a coding technique such as JPEG, and is not limited to the wavelet transform.

ステップS306にて、制御部108は、自身のメモリに記憶された情報を参照して、各プレーンのプレーン目標符号量の比率を決定する。制御部108は、人間の視感度特性を考慮し、Yプレーンのプレーン目標符号量が他のプレーンの目標符号量よりも大きくなるように、各プレーン目標符号量の比率を決定する。なお、Yプレーンを除く、Uプレーン、Vプレーン、GHプレーンのプレーン目標符号量の比率に関しては、各プレーン目標符号量比率が均等になるように割り振ってもよいし、それぞれ変えてもよい。 In step S306, the control unit 108 determines the ratio of the plane target code amount of each plane with reference to the information stored in its own memory. The control unit 108 determines the ratio of each plane target code amount so that the plane target code amount of the Y plane becomes larger than the target code amount of the other planes in consideration of the human visibility characteristic. The ratio of the plane target code amounts of the U plane, the V plane, and the GH plane excluding the Y plane may be allocated so that the target code amount ratios of the planes are equal to each other, or may be changed respectively.

また、制御部108は、プレーンごとに、周波数変換部107によってウェーブレット変換を実行して生成した各サブバンドのサブバンド目標符号量も決定する。一般的に、ウェーブレット変換で得られたサブバンドのうち、低域のサブバンドに画像のエネルギーがより多く集中する。従って、同一分解レベル内での各サブバンド目標符号量の比率は、低域サブバンドのサブバンド目標符号量の比率を多く設定することが画質劣化を抑えるために必要である。一方で、GHプレーンはG成分に対する高周波成分を多く含んでいる。このため、GHプレーンについては、低域サブバンドのサブバンド目標符号量比率のみを優遇した目標符号量設定方法だけでは、画像のエッジ等の劣化が大きくなる可能性が高い。そのため、GHプレーンのHHサブバンドのサブバンド目標符号量の比率は、他のプレーンで設定するHHサブバンドのサブバンド目標符号量の比率よりも多く設定する。このように設定することで、高周波成分の情報を残し画像のエッジ等の劣化を抑えることができる。 The control unit 108 also determines the subband target code amount of each subband generated by executing the wavelet transform by the frequency conversion unit 107 for each plane. In general, among the subbands obtained by the wavelet transform, the energy of the image is more concentrated in the low frequency subband. Therefore, as for the ratio of each subband target code amount within the same decomposition level, it is necessary to set a large ratio of the subband target code amount of the low frequency subband in order to suppress deterioration of image quality. On the other hand, the GH plane contains a large amount of high frequency components with respect to the G component. For this reason, with respect to the GH plane, there is a high possibility that deterioration of the edges and the like of the image will be large only by the target code amount setting method in which only the subband target code amount ratio of the low frequency subband is given preferential treatment. Therefore, the ratio of the subband target code amount of the HH subband of the GH plane is set to be larger than the ratio of the subband target code amount of the HH subband set in the other planes. By setting in this way, it is possible to leave information on high-frequency components and suppress deterioration of edges and the like of the image.

ここで、各プレーン、各サブバンドのサブバンド目標符号量比率の設定例を図6に示す。図示の場合、各プレーンのプレーン目標符号量の比率は、Y:U:V:GH=40:15:15:30(パーセント)である。また、GHプレーン内での各サブバンドのサブバンド目標符号量比率は、LL:HL:LH:HH=40:20:20:20である。そして、GHプレーン以外の各サブバンドのサブバンド目標符号量比率を、LL:HL:LH:HH=45:22:22:11である。制御部108は、RAWデータ全体の総目標符号量が100%となるようにプレーン毎のプレーン目標符号量の配分比率を決定する。そして、制御部108は、1つのプレーンのプレーン目標符号量が100%となるようにサブバンド目標符号量を決定する。 Here, FIG. 6 shows an example of setting the subband target code amount ratio of each plane and each subband. In the figure, the ratio of the plane target code amount of each plane is Y: U: V: GH = 40: 15: 15: 30 (percentage). The subband target code amount ratio of each subband in the GH plane is LL: HL: LH: HH = 40: 20: 20: 20. Then, the sub-band target code amount ratio of each sub-band other than the GH plane is LL: HL: LH: HH = 45: 22: 22: 11. The control unit 108 determines the distribution ratio of the plane target code amount for each plane so that the total target code amount of the entire RAW data is 100%. Then, the control unit 108 determines the subband target code amount so that the plane target code amount of one plane becomes 100%.

なお、図6に示すサブバンド形成結果は説明を簡単にするため、ウェーブレット変換によるサブバンド分割回数を1回としている。そして、制御部108は、RAWデータ全体の総目標符号量をT、図6の条件でプレーン目標符号量比率を設定した際の、各サブバンド目標符号量を以下のように求める。
[Yプレーン]
LLサブバンドのサブバンド目標符号量=T×(40/100)×(45/100)
HLサブバンドのサブバンド目標符号量=T×(40/100)×(22/100)
LHサブバンドのサブバンド目標符号量=T×(40/100)×(22/100)
HHサブバンドのサブバンド目標符号量=T×(40/100)×(11/100)
[Uプレーン]
LLサブバンドのサブバンド目標符号量=T×(15/100)×(45/100)
HLサブバンドのサブバンド目標符号量=T×(15/100)×(22/100)
LHサブバンドのサブバンド目標符号量=T×(15/100)×(22/100)
HHサブバンドのサブバンド目標符号量=T×(15/100)×(11/100)
[Vプレーン]
LLサブバンドのサブバンド目標符号量=T×(15/100)×(45/100)
HLサブバンドのサブバンド目標符号量=T×(15/100)×(22/100)
LHサブバンドのサブバンド目標符号量=T×(15/100)×(22/100)
HHサブバンドのサブバンド目標符号量=T×(15/100)×(11/100)
[GHプレーン]
LLサブバンドのサブバンド目標符号量=T×(30/100)×(40/100)
HLサブバンドのサブバンド目標符号量=T×(30/100)×(20/100)
LHサブバンドのサブバンド目標符号量=T×(30/100)×(20/100)
HHサブバンドのサブバンド目標符号量=T×(30/100)×(20/100)
なお、図6には、RAWデータ全体の総目標符号量を100%としたときに、各サブバンドに割り当てられる目標符号量を、カッコ内に記載している。
In addition, in order to simplify the explanation of the subband formation result shown in FIG. 6, the number of subband divisions by the wavelet transform is set to one. Then, the control unit 108 obtains each sub-band target code amount when the total target code amount of the entire RAW data is T and the plane target code amount ratio is set under the conditions of FIG. 6 as follows.
[Y plane]
Subband target code amount of LL subband = T × (40/100) × (45/100)
Subband target code amount of HL subband = T × (40/100) × (22/100)
Subband target code amount of LH subband = T × (40/100) × (22/100)
Subband target code amount of HH subband = T × (40/100) × (11/100)
[U plane]
Subband target code amount of LL subband = T × (15/100) × (45/100)
Subband target code amount of HL subband = T × (15/100) × (22/100)
Subband target code amount of LH subband = T × (15/100) × (22/100)
Subband target code amount of HH subband = T × (15/100) × (11/100)
[V plane]
Subband target code amount of LL subband = T × (15/100) × (45/100)
Subband target code amount of HL subband = T × (15/100) × (22/100)
Subband target code amount of LH subband = T × (15/100) × (22/100)
Subband target code amount of HH subband = T × (15/100) × (11/100)
[GH plane]
Subband target code amount of LL subband = T × (30/100) × (40/100)
Subband target code amount of HL subband = T × (30/100) × (20/100)
Subband target code amount of LH subband = T × (30/100) × (20/100)
Subband target code amount of HH subband = T × (30/100) × (20/100)
In FIG. 6, when the total target code amount of the entire RAW data is 100%, the target code amount assigned to each subband is shown in parentheses.

ステップS307にて、量子化部109は、周波数変換部107から供給される周波数変換後の変換係数データを、その変換係数データが属するプレーン、サブバンドの種類に応じて、量子化する。また、量子化部109が用いる量子化パラメータは、ステップS306で算出したサブバンド目標符号量に基づき決定する。 In step S307, the quantization unit 109 quantizes the conversion coefficient data after frequency conversion supplied from the frequency conversion unit 107 according to the type of plane and subband to which the conversion coefficient data belongs. Further, the quantization parameter used by the quantization unit 109 is determined based on the subband target code amount calculated in step S306.

ステップS308にて、エントロピー符号化部110は、量子化後の各サブバンドの変換係数データを圧縮符号化して、符号化データとして出力部111に供給する。出力部111は、各プレーンの各サブバンドの符号化データを予め設定された順番に連結する。また、出力部111は、復号に必要な情報を含む情報を含むファイルヘッダを作成する。ファイルヘッダに格納する情報には、RAW画像データの水平、垂直方向の画素数、1画素当たりのビット数、プレーンとサブバンドの種類毎の量子化パラメータ等である。そして、出力部111は、ファイルヘッダとそれに後続する符号化データで構成されるファイルを、記憶媒体112に書き込む。 In step S308, the entropy encoding unit 110 compresses and encodes the conversion coefficient data of each subband after quantization, and supplies the encoded data to the output unit 111. The output unit 111 concatenates the coded data of each subband of each plane in a preset order. Further, the output unit 111 creates a file header including information including information necessary for decoding. The information stored in the file header includes the number of pixels in the horizontal and vertical directions of the RAW image data, the number of bits per pixel, the quantization parameters for each type of plane and subband, and the like. Then, the output unit 111 writes a file composed of the file header and the subsequent coded data to the storage medium 112.

以上のように第1の実施形態によれば、撮像装置100は、ベイヤー配列のRAW画像データから、R,G0,G1,Bの色成分データをそれぞれ独立したプレーンを生成する。そして撮像装置100は、そのうちG0、G1プレーンの加算平均処理を行うことで、GLプレーンを生成する。また、撮像装置100は、G0、G1プレーンの減算平均処理を行うことで、GHプレーンを生成する。ここで、加算平均はローパスフィルタ演算であるため、GLプレーンの生成処理はRAWデータのG成分に対する低周波成分を抽出する処理に相当する。また、減算平均はハイパスフィルタ演算であるため、GHプレーンの生成処理はRAWデータのG成分に対する高周波成分を抽出する処理に相当する。そして、第1の実施形態の撮像装置100は、符号化効率を更に高めるため、GL,R、Bプレーンを、輝度色差であるY、U、Vプレーンに変換する。そして撮像装置100は、変換して得られたYUVの各プレーンに加え、GHプレーンそれぞれに対して周波数変換、量子化、エントロピー符号化を行う。 As described above, according to the first embodiment, the image pickup apparatus 100 generates independent planes for the color component data of R, G0, G1, and B from the RAW image data of the Bayer array. Then, the image pickup apparatus 100 generates a GL plane by performing addition averaging processing of the G0 and G1 planes. Further, the image pickup apparatus 100 generates a GH plane by performing a subtraction averaging process of the G0 and G1 planes. Here, since the averaging is a low-pass filter operation, the GL plane generation process corresponds to the process of extracting the low frequency component with respect to the G component of the RAW data. Further, since the subtraction average is a high-pass filter operation, the GH plane generation process corresponds to the process of extracting the high frequency component with respect to the G component of the RAW data. Then, the image pickup apparatus 100 of the first embodiment converts the GL, R, and B planes into Y, U, and V planes having luminance color differences in order to further improve the coding efficiency. Then, the image pickup apparatus 100 performs frequency conversion, quantization, and entropy coding on each of the GH planes in addition to the YUV planes obtained by the conversion.

上記のように、第1の実施形態の撮像装置100(符号化装置)は、周波数変換前にG成分に対する高周波成分と低周波成分を予め生成する。この結果、G0、G1プレーン形成時のサブサンプリングによって発生していた折り返り雑音の発生を抑制し、周波数変換効率の悪化を軽減することが可能である。そして、Rプレーン、GLプレーン、Bプレーンを用いて、YUVへの輝度色差変換が行われる。そして、視感度特性に応じた目標符号量の重み付けを行うため、Yプレーンの目標符号量を他のプレーンの目標符号量よりも多く割り当てる。これにより、画質劣化を抑えつつ、符号化処理の圧縮効率を高めることができる。 As described above, the image pickup apparatus 100 (encoding apparatus) of the first embodiment generates a high frequency component and a low frequency component with respect to the G component in advance before frequency conversion. As a result, it is possible to suppress the generation of folding noise generated by subsampling during the formation of the G0 and G1 planes, and to reduce the deterioration of the frequency conversion efficiency. Then, the luminance color difference conversion to YUV is performed using the R plane, the GL plane, and the B plane. Then, in order to weight the target code amount according to the luminosity factor characteristic, the target code amount of the Y plane is assigned more than the target code amount of the other planes. As a result, the compression efficiency of the coding process can be improved while suppressing the deterioration of the image quality.

また、上記第1の実施形態では、制御部108が、量子化部109に、プレーンの種類とサブバンドの種類に応じたサブバンド目標符号量を設定することで、符号量の調整を行うものとした。しかし、これによって本発明は限定されない。例えば、JPEG2000でも、ウェーブレット変換で得られた変換係数データを量子化する。そして、JPEG2000では、量子化で得られた変換係数データを、同じビット位置で構成されるビットプレーンを2値データと見なし、各ビットプレーンを単位にエントロピー符号化(算術符号化)を行う。今、或る着目色成分の着目サブバンドのビットiのビットプレーンの符号化データをCiと表現し、その符号量をA(Ci)と表すとする。このとき、着目色成分の着目サブバンドの符号化データの総符号量C_totalは、
C_total=ΣA(Ci) (i=0,1,2、…、MSB)
である。従って、着目色成分の着目サブバンドの目標符号量をA_Targetとするなら、次式を満たすkの最小値を求める。
C_total−ΣA(Ck)≦A_Target
そして、ビット0からビットkまでのビットプレーンの符号化データを破棄すれば良い。以下に説明する各実施形態でも、上記第1の実施形態と同様に量子化パラメータで符号量を調整するものとして説明するが、JPEG2000を採用することのメリットを生かしてビットプレーンの破棄処理によって符号量調整を行うようにしても良い。
Further, in the first embodiment, the control unit 108 adjusts the code amount by setting the quantization unit 109 with a subband target code amount according to the type of plane and the type of subband. And said. However, this does not limit the invention. For example, even in JPEG2000, the conversion coefficient data obtained by the wavelet transform is quantized. Then, in JPEG2000, the conversion coefficient data obtained by quantization is regarded as binary data in a bit plane composed of the same bit positions, and entropy coding (arithmetic coding) is performed in each bit plane as a unit. Now, it is assumed that the coded data of the bit plane of the bit i of the subband of interest of a certain color component of interest is expressed as Ci, and the code amount thereof is expressed as A (Ci). At this time, the total code amount C_total of the coded data of the subband of interest of the color component of interest is
C_total = ΣA (Ci) (i = 0,1,2, ..., MSB)
Is. Therefore, if the target code amount of the focus subband of the focus color component is A_Target, the minimum value of k that satisfies the following equation is obtained.
C_total-ΣA (Ck) ≤ A_Target
Then, the coded data of the bit plane from bit 0 to bit k may be discarded. In each of the embodiments described below, the code amount is adjusted by the quantization parameter as in the first embodiment, but the code is specified by the bit plane discarding process by taking advantage of the merits of adopting JPEG2000. The amount may be adjusted.

[第1の実施形態の変形例1]
上記第1の実施形態は撮像装置に適用する例であった。以下では、パーソナルコンピュータなどの汎用の情報処理装置で実行するアプリケーションプログラムで実現する例を、第1の実施形態の変形例として説明する。
[Modification 1 of the first embodiment]
The first embodiment is an example of application to an imaging device. Hereinafter, an example realized by an application program executed by a general-purpose information processing device such as a personal computer will be described as a modified example of the first embodiment.

図10は、本変形例における情報処理装置のブロック構成図である。本装置の電源がONになると、CPU1001はROM1002に格納されたブートプログラムを実行し、HDD(ハードディスクドライブ)1004からOS(オペレーティングシステム)1005をRAM1003にロードし、OSを実行する。この結果、CPU101は、キーボード1009、マウス1010を介してユーザからの指示の受け付けと、表示制御部1011を制御して表示装置1012へのメニュー等の表示が可能となる。つまり、本装置がユーザが利用する情報処理装置として機能する。そして、ユーザがマウス1010等からアプリケーションプログラム1006の起動を指示すると、CPU1001はそのアプリケーションプログラム1006をRAM1002にロードし、実行する。この結果、本装置がRAW画像データを符号化する画像処理装置として機能する。そして、HDD1004に格納されたRAW画像データファイル1007に含まれる未符号化RAWデータを符号化し、符号化ファイル1008として生成する。 FIG. 10 is a block configuration diagram of the information processing device in this modified example. When the power of this device is turned on, the CPU 1001 executes a boot program stored in the ROM 1002, loads the OS (operating system) 1005 from the HDD (hard disk drive) 1004 into the RAM 1003, and executes the OS. As a result, the CPU 101 can accept instructions from the user via the keyboard 1009 and the mouse 1010, and control the display control unit 1011 to display menus and the like on the display device 1012. That is, this device functions as an information processing device used by the user. Then, when the user instructs the mouse 1010 or the like to start the application program 1006, the CPU 1001 loads the application program 1006 into the RAM 1002 and executes the application program 1006. As a result, this device functions as an image processing device that encodes RAW image data. Then, the unencoded RAW data included in the RAW image data file 1007 stored in the HDD 1004 is encoded and generated as an encoded file 1008.

上記において、アプリケーションプログラム1006を実行した際の、CPU1001の処理手順は、図3のフローチャートとほぼ同じである。異なる点は、図8の各ステップをCPU1001が実行する点である。また、図1におけるメモリ104や各ステップでの一時記憶に用いるメモリとして、RAM1003が利用されることになる。 In the above, the processing procedure of the CPU 1001 when the application program 1006 is executed is almost the same as the flowchart of FIG. The difference is that the CPU 1001 executes each step of FIG. Further, the RAM 1003 will be used as the memory 104 in FIG. 1 and the memory used for the temporary storage in each step.

[第1の実施形態の変形例2]
上記第1の実施形態では、目標符号量比率を図6のように設定したが、目標符号量の設定を他の方法で行う場合について、変形例2として説明する。
[Modification 2 of the first embodiment]
In the first embodiment, the target code amount ratio is set as shown in FIG. 6, but a case where the target code amount is set by another method will be described as a modification 2.

この変形例では、図11のように、分解レベル3までウェーブレット変換を行い、各サブバンドに対して目標符号量を割り当てる。なお、本変形例においては、撮像装置100の操作部115および表示部(不図示)を使用して、ユーザにより設定された圧縮率に応じて、各プレーン、各サブバンドへの目標符号量の分配の比率を変えている。圧縮率はユーザが操作部および表示部により設定するものとするが、撮像装置100の撮影モードに応じて、ユーザが圧縮率を自動的に設定するようにしてもよい。 In this modification, as shown in FIG. 11, the wavelet transform is performed up to the decomposition level 3, and the target code amount is assigned to each subband. In this modification, the operation unit 115 and the display unit (not shown) of the image pickup apparatus 100 are used to determine the target code amount for each plane and each subband according to the compression rate set by the user. The distribution ratio is changing. The compression rate is set by the user by the operation unit and the display unit, but the user may automatically set the compression rate according to the shooting mode of the imaging device 100.

図11(a)は、圧縮率として1/3圧縮が設定された場合の、各プレーン、各サブバンドの目標符号量の比率を示しており、図11(b)は、1/5圧縮が設定された場合の、各プレーン、各サブバンドの符号量の比率を示している。 FIG. 11A shows the ratio of the target code amount of each plane and each subband when 1/3 compression is set as the compression ratio, and FIG. 11B shows 1/5 compression. The ratio of the code amount of each plane and each subband when set is shown.

RAW画像全体の目標符号量を100%として、1/3圧縮の場合、Yプレーンに35%、Uプレーン、Vプレーンにそれぞれ23%、GHプレーンに19%の比率で目標符号量が割り当てられる。同様に、1/5圧縮の場合、Yプレーンに45%、Uプレーン、Vプレーンにそれぞれ19%、GHプレーンに17%の比率で目標符号量が割り当てられる。つまり、本変形例では、Yプレーンの目標符号量>Uプレーンの目標符号量=Vプレーンの目標符号量>GHプレーンの目標符号量となるように目標符号量が設定される。 Assuming that the target code amount of the entire RAW image is 100%, in the case of 1/3 compression, the target code amount is assigned at a ratio of 35% to the Y plane, 23% to the U plane and the V plane, and 19% to the GH plane. Similarly, in the case of 1/5 compression, the target code amount is assigned at a ratio of 45% to the Y plane, 19% to the U plane and V plane, and 17% to the GH plane. That is, in this modification, the target code amount is set so that the target code amount of the Y plane> the target code amount of the U plane = the target code amount of the V plane> the target code amount of the GH plane.

画像データにおいて、輝度成分は重要な成分であるため、Yプレーンには、他のプレーンよりも多くの符号量が割り当てられるようにしている。また、Yプレーン、Uプレーン、Vプレーンは、RGBの画像を形成するのに必要となる成分であるため、GHプレーンよりも多くの符号量が割り当てられるようにしている。 Since the luminance component is an important component in image data, the Y plane is assigned a larger amount of code than the other planes. Further, since the Y plane, the U plane, and the V plane are components necessary for forming an RGB image, a larger amount of code is assigned than the GH plane.

また、1/5圧縮の場合、1/3圧縮の場合よりも全体の符号量が少なくなり、各プレーンの比率を1/3圧縮と同じにすると、Yプレーンへ割り当てられる符号量が小さくなってしまう。そこで、1/5圧縮においては、1/3圧縮の場合よりも、Yプレーンの目標符号量の分配の比率を大きくすることにより、Yプレーンの符号量を確保している。 Further, in the case of 1/5 compression, the total code amount is smaller than in the case of 1/3 compression, and if the ratio of each plane is the same as 1/3 compression, the code amount assigned to the Y plane becomes smaller. It ends up. Therefore, in 1/5 compression, the code amount of the Y plane is secured by increasing the distribution ratio of the target code amount of the Y plane as compared with the case of 1/3 compression.

各プレーンに割り当てられた符号量は、さらに各サブバンドへ割り当てられる。図11では、RAW画像全体の目標符号量を100%として、各サブバンドへの目標符号量の分配の比率を示している。 The code amount assigned to each plane is further assigned to each subband. In FIG. 11, the ratio of distribution of the target code amount to each subband is shown with the target code amount of the entire RAW image as 100%.

画像データでは、高域成分よりも低域成分が重要となる。そのため、Y、U、Vプレーンでは、分解レベル2および分解レベル1において、HLサブバンド=LHサブバンド>HHサブバンドとなるように、目標符号量が設定される。それに対し、GHプレーンでは、分解レベル2および分解レベル1において、HLサブバンド=LHサブバンド≦HHサブバンドとなるように、目標符号量が設定される。これは、GHプレーンは、緑の高域成分に対応するデータであるため、Y、U、Vプレーンよりも、高域成分のデータは重要な役割を持ってくる。そのため、GHプレーンでは、HHサブバンドの目標符号量は、HLサブバンド、LHサブバンドの目標符号量以上になるようにしている。 In the image data, the low frequency component is more important than the high frequency component. Therefore, in the Y, U, and V planes, the target code amount is set so that HL subband = LH subband> HH subband at decomposition level 2 and decomposition level 1. On the other hand, in the GH plane, the target code amount is set so that HL subband = LH subband ≦ HH subband at decomposition level 2 and decomposition level 1. This is because the GH plane is the data corresponding to the green high frequency component, so the high frequency component data has a more important role than the Y, U, and V planes. Therefore, in the GH plane, the target code amount of the HH subband is set to be equal to or larger than the target code amount of the HL subband and the LH subband.

本変形例において、1/3圧縮の場合、GHプレーンの分解レベル1および2において、HLサブバンド=LHサブバンド=HHサブバンドとし、1/5圧縮の場合、GHプレーンの分解レベル1および2において、HLサブバンド=LHサブバンド<HHサブバンドとなるように目標符号量を設定した。 In this modification, in the case of 1/3 compression, HL subband = LH subband = HH subband at the decomposition levels 1 and 2 of the GH plane, and in the case of 1/5 compression, the decomposition levels 1 and 2 of the GH plane In, the target code amount was set so that HL subband = LH subband <HH subband.

しかし、これに限らず、HLサブバンド=LHサブバンド>HHサブバンドとなる場合であっても、GHプレーンにおいては、他のプレーンよりも高域成分に重みづけを行って目標符号量を設定するようにしてもよい。例えば、Y、U、VプレーンにおけるHLサブバンドまたはLHサブバンドに対するHHサブバンドの目標符号量の比率よりも、GHプレーンにおけるHLサブバンドまたはLHサブバンドに対するHHサブバンドの目標符号量が大きくなるようにすることにより、GHプレーンの高域成分のサブバンドに重みづけを行って目標符号量を設定することができる。 However, not limited to this, even when HL subband = LH subband> HH subband, in the GH plane, the high frequency component is weighted more than other planes to set the target code amount. You may try to do so. For example, the target code amount of the HH subband to the HL subband or the LH subband in the GH plane is larger than the ratio of the target code amount of the HH subband to the HL subband or the LH subband in the Y, U, and V planes. By doing so, it is possible to set the target code amount by weighting the subbands of the high frequency components of the GH plane.

[第2の実施形態]
第1の実施形態に係る制御部108が行う符号量制御では、Yプレーンのプレーン目標符号量を他のプレーンの目標符号量よりも多くする、静的な目標符号量設定方法について説明した。それに対し、本第2の実施形態では、プレーン形成部102が出力した各色プレーンの分散から、GHプレーンの発生符号量を推定し、GHプレーン、Rプレーン、Bプレーンのプレーン目標符号量を動的に設定する方法を説明する。
[Second Embodiment]
In the code amount control performed by the control unit 108 according to the first embodiment, a static target code amount setting method in which the plane target code amount of the Y plane is made larger than the target code amount of the other planes has been described. On the other hand, in the second embodiment, the generated code amount of the GH plane is estimated from the dispersion of each color plane output by the plane forming unit 102, and the plane target code amount of the GH plane, the R plane, and the B plane is dynamically set. The method of setting to is explained.

また、第1の実施形態に係るプレーン変換部105は、ベイヤー配列を構成する斜め方向に位置するG0画素、G1画素の2画素間で所定の画素演算を行い、G成分に対する低周波成分及び高周波成分を算出していた。これに対し本第2の実施形態では、隣り合う上下2ラインのG0画素とG1画素、または、隣り合う左右2列のG0画素、G1画素を単位として所定の画素演算を行い、G成分に対する低周波成分及び高周波成分を算出する方法についても説明する。 Further, the plane conversion unit 105 according to the first embodiment performs a predetermined pixel calculation between two pixels of G0 pixels and G1 pixels located in the diagonal direction constituting the Bayer array, and performs a predetermined pixel calculation with respect to the G component, and the low frequency component and the high frequency component. The components were calculated. On the other hand, in the second embodiment, a predetermined pixel calculation is performed in units of two adjacent upper and lower lines of G0 pixels and G1 pixels, or two adjacent left and right rows of G0 pixels and G1 pixels, and the G component is low. The frequency component and the method of calculating the high frequency component will also be described.

図7は、第2の実施形態に係る撮像装置700における符号化に係る主要部のブロック構成図である。第1の実施形態における図1との違いは、特徴解析部701が追加された点である。この特徴解析部701は、メモリ104に格納されるG0プレーンを読み出し、G0プレーンの分散を算出する。そして、特徴解析部701は、算出した分散情報を符号量制御部108に供給する。なお、第2の実施形態における分散算出で用いる色成分はGプレーンとしたが、Rプレーン、Gプレーン、Bプレーン、それぞれの分散の平均であってもよい。また、本第2の実施形態に係る撮像装置700が有する構成要素の少なくとも一つはハードウェア構成を有する。 FIG. 7 is a block configuration diagram of a main part related to coding in the image pickup apparatus 700 according to the second embodiment. The difference from FIG. 1 in the first embodiment is that the feature analysis unit 701 is added. The feature analysis unit 701 reads the G0 plane stored in the memory 104 and calculates the variance of the G0 plane. Then, the feature analysis unit 701 supplies the calculated dispersion information to the code amount control unit 108. Although the color component used in the dispersion calculation in the second embodiment is the G plane, it may be the average of the dispersions of the R plane, the G plane, and the B plane. Further, at least one of the components of the image pickup apparatus 700 according to the second embodiment has a hardware configuration.

一般的に、エッジが多く存在する画像は分散が大きく、G成分に対する高周波成分を表すGHプレーンの発生符号量は多くなる。従って分散が大きい場合は、GHプレーンのプレーン目標符号量を多めに割り振ることで、画像のエッジを維持し易くする。これが、分散を算出する目的である。 In general, an image having many edges has a large variance, and the amount of code generated by the GH plane representing the high frequency component with respect to the G component is large. Therefore, when the variance is large, it is easy to maintain the edge of the image by allocating a large amount of plane target code of the GH plane. This is the purpose of calculating the variance.

以下、本第2の実施形態における撮像装置100におけるRAW画像データの1フレームに対する符号化処理を図8のフローチャートを参照して説明する。なお、ここでは、1フレーム単位での処理を例に示すが、任意の大きさのタイルに分割して、それぞれで独立して後述の符号化処理を実行してもよい。 Hereinafter, the coding process for one frame of the RAW image data in the image pickup apparatus 100 in the second embodiment will be described with reference to the flowchart of FIG. Although the processing in units of one frame is shown here as an example, the tiles may be divided into tiles of arbitrary size and the coding processing described later may be executed independently for each tile.

ステップS801では、プレーン形成部102は、撮像部101からのベイヤー配列のRAW画像データを、図9に示すように、R、G、Bの色成分毎の独立したプレーンを形成して、メモリI/F部103を介してメモリ104に書き込む。図9に示すGプレーンは、ベイヤー配列の上下に隣接する2ライン間で、G1画素を上方向に移動させてG0画素と左右で隣接するように敷き詰めた配置となっている。そのため、Gプレーンの水平サイズは、RAW画像データの水平方向画素数と同じであり、RプレーンやBプレーンの水平方向の画素数の2倍になる。また、ステップS801にて、ベイヤー配列の左右に隣接する2列間で、G0画素を左方向に移動させてG1画素と上下で隣接するように敷き詰めた配置としてもよい。この場合、Gプレーンの垂直サイズは、RプレーンやBプレーンと比べて2倍になる。 In step S801, the plane forming unit 102 forms independent planes for each of the color components of R, G, and B by forming the RAW image data of the Bayer array from the imaging unit 101 as shown in FIG. 9, and the memory I. Write to the memory 104 via the / F unit 103. The G plane shown in FIG. 9 is arranged so as to be adjacent to the G0 pixel on the left and right by moving the G1 pixel upward between two lines adjacent to the top and bottom of the Bayer array. Therefore, the horizontal size of the G plane is the same as the number of pixels in the horizontal direction of the RAW image data, and is twice the number of pixels in the horizontal direction of the R plane and the B plane. Further, in step S801, the G0 pixel may be moved to the left between the two rows adjacent to the left and right of the Bayer array so as to be vertically adjacent to the G1 pixel. In this case, the vertical size of the G plane is double that of the R plane and the B plane.

ステップS802にて、特徴解析部701は、GプレーンをメモリI/F部103を介してメモリ104から読み出し、分散を算出する。分散の算出式は式(2)に示す通りである。数式中のσ2は分散、NはGプレーンを構成する総画素数、XaveはGプレーンを構成する全画素値の平均値、XiはGプレーンを構成するi番目の画素の値をそれぞれ表す。そして、特徴解析部701は、算出した分散σ2を制御部108に供給する。 In step S802, the feature analysis unit 701 reads the G plane from the memory 104 via the memory I / F unit 103 and calculates the variance. The formula for calculating the variance is as shown in formula (2). In the formula, σ 2 is the variance, N is the total number of pixels that make up the G plane, Xave is the average value of all the pixel values that make up the G plane, and Xi is the value of the i-th pixel that makes up the G plane. Then, the feature analysis unit 701 supplies the calculated variance σ 2 to the control unit 108.

Figure 0006792370
Figure 0006792370

ステップS803にて、プレーン変換部105は、GプレーンをメモリI/F部103を介してメモリ104から読み出し、GLプレーンを生成する。そして、プレーン変換部105は、生成したGLプレーンをメモリI/F部103を介して再びメモリ104に書き込む。GLプレーンは、例えば、周波数変換部107が行うウェーブレット変換のローパスフィルタ処理を水平方向に1回適用することで生成すればよい。ただし、プレーン変換部105は、Gプレーンの水平方向に沿って偶数番目の画素をサブサンプリングしながらウェーブレット変換のフィルタ処理を実行する。このため、生成されるGLプレーンの水平サイズは、RプレーンやBプレーンと同じになる。 In step S803, the plane conversion unit 105 reads the G plane from the memory 104 via the memory I / F unit 103 to generate the GL plane. Then, the plane conversion unit 105 writes the generated GL plane to the memory 104 again via the memory I / F unit 103. The GL plane may be generated, for example, by applying the low-pass filter processing of the wavelet transform performed by the frequency conversion unit 107 once in the horizontal direction. However, the plane transform unit 105 executes the wavelet transform filter process while subsampling the even-numbered pixels along the horizontal direction of the G plane. Therefore, the horizontal size of the generated GL plane is the same as that of the R plane and the B plane.

また、ステップS801で、プレーン形成部102が、ベイヤー配列の左右に隣接する2列間で、G0画素とG1画素とが上下に隣接するように配置することでGプレーンを形成したとする。この場合、プレーン変換部105は、周波数変換部107が行うウェーブレット変換のローパスフィルタ処理を垂直方向に1回適用すればよい。そして、プレーン変換部105は、生成したGLプレーンをメモリI/F部103を介してメモリ104に書き込む。 Further, it is assumed that in step S801, the plane forming portion 102 forms the G plane by arranging the G0 pixels and the G1 pixels vertically adjacent to each other between the two rows adjacent to the left and right of the Bayer array. In this case, the plane conversion unit 105 may apply the low-pass filter processing of the wavelet transform performed by the frequency conversion unit 107 once in the vertical direction. Then, the plane conversion unit 105 writes the generated GL plane to the memory 104 via the memory I / F unit 103.

ステップS804にて、プレーン変換部105は、GプレーンをメモリI/F部103を介してメモリ104から読み出し、GHプレーンを生成する。そして、プレーン変換部105は、生成したGHプレーンをメモリI/F部103を介して再びメモリ104に書き込む。GHプレーンは、例えば、周波数変換部107が行うウェーブレット変換のハイパスフィルタ処理を水平方向に1回適用することで生成すればよい。ただし、プレーン変換部105は、Gプレーンの水平方向に沿って奇数番目の画素列をサブサンプリングながらウェーブレット変換のフィルタ処理を実行する。このため、生成されるGHプレーンの水平サイズは、RプレーンやBプレーンと同じになる。 In step S804, the plane conversion unit 105 reads the G plane from the memory 104 via the memory I / F unit 103 to generate the GH plane. Then, the plane conversion unit 105 writes the generated GH plane to the memory 104 again via the memory I / F unit 103. The GH plane may be generated, for example, by applying the wavelet transform high-pass filter processing performed by the frequency converter 107 once in the horizontal direction. However, the plane transform unit 105 executes the wavelet transform filter process while subsampling the odd-numbered pixel strings along the horizontal direction of the G plane. Therefore, the horizontal size of the generated GH plane is the same as that of the R plane and the B plane.

また、ステップS801で、プレーン形成部102が、ベイヤー配列の左右に隣接する2列間で、G0画素とG1画素とが上下に隣接するように配置することでGプレーンを形成したとする。この場合、プレーン変換部105は、周波数変換部107が行うウェーブレット変換のハイパスフィルタ処理を垂直方向に1回適用すればよい。そして、プレーン変換部105は、生成したGHプレーンをメモリI/F部103を介してメモリ104に書き込む。 Further, it is assumed that in step S801, the plane forming portion 102 forms the G plane by arranging the G0 pixels and the G1 pixels vertically adjacent to each other between the two rows adjacent to the left and right of the Bayer array. In this case, the plane conversion unit 105 may apply the wavelet transform high-pass filter processing performed by the frequency conversion unit 107 once in the vertical direction. Then, the plane conversion unit 105 writes the generated GH plane to the memory 104 via the memory I / F unit 103.

ステップS805にて、色変換部106は、GLプレーンとRプレーンとBプレーンをメモリI/F部103を介してメモリ104から読み出し、これら3つのプレーンに対して輝度色差変換処理を実行する。そして、色変換部106は、輝度色差変換処理で得られたYプレーン、Uプレーン、VプレーンをメモリI/F部103を介してメモリ104に書き込む。次式(3)は、輝度色差変換の実数型非可逆変換式の例である。
Y=0.2126×R+0.7152×GL+0.0722×B
U=−0.1146×R−0.3854×GL+0.5×B
V=0.5×R−0.4542×GL−0.0458×B …(3)
In step S805, the color conversion unit 106 reads the GL plane, the R plane, and the B plane from the memory 104 via the memory I / F unit 103, and executes the luminance color difference conversion processing for these three planes. Then, the color conversion unit 106 writes the Y plane, the U plane, and the V plane obtained by the luminance color difference conversion process into the memory 104 via the memory I / F unit 103. The following equation (3) is an example of a real number type lossy conversion equation for luminance color difference conversion.
Y = 0.2126 x R + 0.7152 x GL + 0.0722 x B
U = -0.1146 x R-0.3854 x GL + 0.5 x B
V = 0.5 × R-0.4542 × GL-0.0458 × B… (3)

ステップS806にて、周波数変換部107は、Yプレーン、Uプレーン、Vプレーン、及び、GHプレーンを、メモリI/F部103を介してメモリ104から読み出し、ウェーブレット変換を実行して、各プレーンのサブバンドを形成する。そして、周波数変換部107は、形成したサブバンドを、量子化部109に供給する。 In step S806, the frequency conversion unit 107 reads the Y plane, the U plane, the V plane, and the GH plane from the memory 104 via the memory I / F unit 103, executes wavelet transform, and performs wavelet conversion of each plane. Form a subband. Then, the frequency conversion unit 107 supplies the formed subband to the quantization unit 109.

ステップS807にて、制御部108は各プレーンのプレーン目標符号量を決定する。制御部108は、Yプレーンのプレーン目標符号量が他のプレーン目標符号量よりも大きくなるように、重みづけを行う。ここで設定するプレーン目標符号量の比率は、第1の実施形態と同様にY:U:V:GH=40:15:15:30とする。なお、サブバンド毎のサブバンド目標符号量の設定方法は第1の実施形態と同様とし、その説明は省略する。
ステップS808にて、制御部108は、予め設定された複数の閾値(実施形態では、T1、T2であり、T1<T2の関係を持つ)と、特徴解析部701から供給された分散σ2との比較判定を行う。分散σ2が閾値T1以上、閾値T2以下の場合は、プレーン目標符号量の比率を変更せずに処理をステップS810に進める。そうでない場合、つまり、分散σ2<T1、又は、分散σ2>T2である場合、制御部108は処理をステップS809に進める。
In step S807, the control unit 108 determines the plane target code amount of each plane. The control unit 108 weights the Y plane so that the plane target code amount is larger than the other plane target code amounts. The ratio of the plane target code amount set here is Y: U: V: GH = 40: 15: 15: 30, as in the first embodiment. The method of setting the sub-band target code amount for each sub-band is the same as that of the first embodiment, and the description thereof will be omitted.
In step S808, the control unit 108 includes a plurality of preset threshold values (in the embodiment, T1 and T2, and has a relationship of T1 <T2) and the variance σ 2 supplied from the feature analysis unit 701. Make a comparative judgment. When the variance σ 2 is equal to or greater than the threshold value T1 and equal to or less than the threshold value T2, the process proceeds to step S810 without changing the ratio of the plane target code amounts. If this is not the case, that is, if the variance σ 2 <T1 or the variance σ 2 > T2, the control unit 108 advances the process to step S809.

ステップS809にて、制御部108は、特徴解析部701が出力する分散σ2に基づいてGHプレーン、Uプレーン、Vプレーンのプレーン目標符号量を修正する。σ2<T1である場合、符号化対象のRAW画像データは平坦な画像と見なせる。それ故、制御部108は、GHプレーンのプレーン目標符号量が少なくなるように修正する。具体的には、制御部108は、Y:U:V:GHプレーンのプレーン目標符号量の比率を、40:20:20:20と修正する。また、分散σ2>T2の場合、符号化対象のRAW画像データは、輝度について起伏の多い(エッジの多い)画像と見なせる。それ故、制御部108は、GHプレーンのプレーン目標符号量を更に多くなるように修正する。具体的には、制御部108は、Y:U:V:GHのプレーン目標符号量の比率を、40:10:10:40と修正する。ここで、RAW画像データ全体の総目標符号量をTとした場合、各プレーンの目標符号量は以下のように求められる。
[σ2<T1の場合]
Yプレーンのプレーン目標符号量=T×(40/100)
Uプレーンのプレーン目標符号量=T×(20/100)
Vプレーンのプレーン目標符号量=T×(20/100)
GHプレーンのプレーン目標符号量=T×(20/100)
[T1≦σ2≦T2の場合]
Yプレーンのプレーン目標符号量=T×(40/100)
Uプレーンのプレーン目標符号量=T×(15/100)
Vプレーンのプレーン目標符号量=T×(15/100)
GHプレーンのプレーン目標符号量=T×(30/100)
[T2<σ2の場合]
Yプレーンのプレーン目標符号量=T×(40/100)
Uプレーンのプレーン目標符号量=T×(10/100)
Vプレーンのプレーン目標符号量=T×(10/100)
GHプレーンのプレーン目標符号量=T×(40/100)
そして、各プレーンのサブバンド目標符号量を決定する。サブバンド目標符号量の設定方法は、第1の実施形態と同様である。
In step S809, the control unit 108 corrects the plane target code amounts of the GH plane, the U plane, and the V plane based on the variance σ 2 output by the feature analysis unit 701. When σ 2 <T1, the RAW image data to be encoded can be regarded as a flat image. Therefore, the control unit 108 modifies the GH plane so that the plane target code amount is small. Specifically, the control unit 108 corrects the ratio of the plane target code amount of the Y: U: V: GH plane to 40:20:20:20. Further, when the variance σ 2 > T2, the RAW image data to be encoded can be regarded as an image having many undulations (many edges) in terms of brightness. Therefore, the control unit 108 modifies the plane target code amount of the GH plane to be even larger. Specifically, the control unit 108 corrects the ratio of the plane target code amount of Y: U: V: GH to 40:10:10:40. Here, assuming that the total target code amount of the entire RAW image data is T, the target code amount of each plane is obtained as follows.
[For σ 2 <T1]
Plain target code amount of Y plane = T × (40/100)
U-plane plane target code amount = T × (20/100)
V plane plane target code amount = T × (20/100)
GH plane plane target code amount = T × (20/100)
[When T1 ≤ σ 2 ≤ T2]
Plain target code amount of Y plane = T × (40/100)
U-plane plane target code amount = T × (15/100)
Plane target code amount of V plane = T × (15/100)
Plane target code amount of GH plane = T × (30/100)
[When T2 <σ 2 ]
Plain target code amount of Y plane = T × (40/100)
U-plane plane target code amount = T × (10/100)
V-plane plane target code amount = T × (10/100)
Plane target code amount of GH plane = T × (40/100)
Then, the subband target code amount of each plane is determined. The method for setting the subband target code amount is the same as that in the first embodiment.

ステップS810にて、量子化部109は、周波数変換部107で供給された変換係数データを、制御部108から設定されたサブバンド目標符号量に対応する量子化パラメータ(量子化ステップ)で量子化する。量子化パラメータは、ステップS807或いはステップS809で設定したサブバンド目標符号量に基づき決定される。 In step S810, the quantization unit 109 quantizes the conversion coefficient data supplied by the frequency conversion unit 107 with a quantization parameter (quantization step) corresponding to the subband target code amount set by the control unit 108. To do. The quantization parameter is determined based on the subband target code amount set in step S807 or step S809.

ステップS811にて、エントロピー符号化部110は、量子化後の各サブバンドの変換係数データを圧縮符号化して、符号化データとして出力部111に供給する。出力部111は、各プレーンの各サブバンドの符号化データを予め設定された順番に連結する。また、出力部111は、復号に必要な情報を含む情報を含むファイルヘッダを作成する。そして、ファイルヘッダとそれに後続する符号化データで構成されるファイルを、記憶媒体112に書き込む。 In step S811, the entropy encoding unit 110 compresses and encodes the conversion coefficient data of each subband after quantization, and supplies the encoded data to the output unit 111. The output unit 111 concatenates the coded data of each subband of each plane in a preset order. Further, the output unit 111 creates a file header including information including information necessary for decoding. Then, the file composed of the file header and the subsequent encoded data is written to the storage medium 112.

以上のように本第2の実施形態によれば、少なくとも、先に説明した第1の実施形態と同様の効果を奏することが可能となる。そして、本第2の実施形態では、符号化対象のRAW画像データに含まれるエッジの多少を推定するため、特徴解析部701が、Gプレーンについて分散を求めるようにした。そして、制御部108は、その分散に基づき、Yプレーン以外のU,V,GHプレーンの目標符号量の比率を適応的に決定した。具体的には、特徴解析部701が出力する分散が、2つの閾値T1,T2間にある場合には、制御部108は、その分散は標準的であるものとみなし、デフォルトの目標符号量の比率を設定する。そして、分散が閾値T2を上回る場合は、エッジ(高周波成分)が多いと判定し、GHプレーンの目標符号量の比率が多くなるようにGHプレーン、Uプレーン、Vプレーンの目標符号量の比率を修正する。逆に、特徴解析部701が出力する分散が閾値T1を下回る場合、制御部108は、エッジ(高周波成分)が少ないと推定し、GHプレーンの目標符号量の比率が少なくなるようにGHプレーン、Uプレーン、Vプレーンの目標符号量の比率を修正する。つまり、分散が大きいほど、GHプレーンに割り当てる符号量を増やし、U,Vプレーンに割り当てる符号量を少なくした。この結果、エッジ(高周波成分)の多い画像に対しても、圧縮効率を高めることができ、結果的に主観画質の劣化を抑制することが可能となる。 As described above, according to the second embodiment, at least the same effect as that of the first embodiment described above can be obtained. Then, in the second embodiment, in order to estimate the number of edges included in the RAW image data to be encoded, the feature analysis unit 701 determines the variance for the G plane. Then, the control unit 108 adaptively determines the ratio of the target code amounts of the U, V, and GH planes other than the Y plane based on the dispersion. Specifically, when the variance output by the feature analysis unit 701 is between the two threshold values T1 and T2, the control unit 108 considers the variance to be standard and has a default target code amount. Set the ratio. Then, when the variance exceeds the threshold value T2, it is determined that there are many edges (high frequency components), and the ratio of the target code amounts of the GH plane, the U plane, and the V plane is set so that the ratio of the target code amount of the GH plane increases. Fix it. On the contrary, when the variance output by the feature analysis unit 701 is lower than the threshold value T1, the control unit 108 estimates that the edge (high frequency component) is small, and the GH plane, so that the ratio of the target code amount of the GH plane is small. Correct the ratio of the target code amount of the U plane and the V plane. That is, the larger the variance, the larger the code amount assigned to the GH plane and the smaller the code amount assigned to the U and V planes. As a result, the compression efficiency can be improved even for an image having many edges (high frequency components), and as a result, deterioration of subjective image quality can be suppressed.

[第3の実施形態]
上記の実施形態では、RAW画像データ全体に対して目標符号量を設定し、設定した目標符号量となるように、符号化を行った。それに対し、本実施形態では、目標符号量を設定するのではなく、サブバンド毎に量子化パラメータを設定し、設定した量子化パラメータで量子化を行うものとする。基本的な構成は第1の実施形態、第2の実施形態と同じであるため、異なる部分のみ説明する。
[Third Embodiment]
In the above embodiment, a target code amount is set for the entire RAW image data, and coding is performed so as to obtain the set target code amount. On the other hand, in the present embodiment, instead of setting the target code amount, the quantization parameter is set for each subband, and the quantization is performed with the set quantization parameter. Since the basic configuration is the same as that of the first embodiment and the second embodiment, only different parts will be described.

本実施形態では、ウェーブレット変換(S305、S806)後、目標符号量の算出(S306、、S807)をせずに、各プレーンのサブバンド毎に量子化パラメータの設定を行う。そしてその後、量子化(S307、S810)、エントロピー符号化(S308、S811)を行う。 In the present embodiment, after the wavelet transform (S305, S806), the quantization parameter is set for each subband of each plane without calculating the target code amount (S306, S807). After that, quantization (S307, S810) and entropy coding (S308, S811) are performed.

量子化パラメータについては、以下のように設定する。
Yプレーンの3LLの量子化ステップ値:3LLy
Yプレーンの3HLの量子化ステップ値:3HLy
Yプレーンの3LHの量子化ステップ値:3LHy
Yプレーンの3HHの量子化ステップ値:3HHy
Yプレーンの2HLの量子化ステップ値:2HLy
Yプレーンの2LHの量子化ステップ値:2LHy
Yプレーンの2HHの量子化ステップ値:2HHy
Yプレーンの1HLの量子化ステップ値:1HLy
Yプレーンの1LHの量子化ステップ値:1LHy
Yプレーンの1HHの量子化ステップ値:1HHy
U/Vプレーンの3LLの量子化ステップ値:3LLuv
U/Vプレーンの3HLの量子化ステップ値:3HLuv
U/Vプレーンの3LHの量子化ステップ値:3LHuv
U/Vプレーンの3HHの量子化ステップ値:3HHuv
U/Vプレーンの2HLの量子化ステップ値:2HLuv
U/Vプレーンの2LHの量子化ステップ値:2LHuv
U/Vプレーンの2HHの量子化ステップ値:2HHuv
U/Vプレーンの1HLの量子化ステップ値:1HLuv
U/Vプレーンの1LHの量子化ステップ値:1LHuv
U/Vプレーンの1HHの量子化ステップ値:1HHuv
GHプレーンの3LLの量子化ステップ値:3LLgh
GHプレーンの3HLの量子化ステップ値:3HLgh
GHプレーンの3LHの量子化ステップ値:3LHgh
GHプレーンの3HHの量子化ステップ値:3HHgh
GHプレーンの2HLの量子化ステップ値:2HLgh
GHプレーンの2LHの量子化ステップ値:2LHgh
GHプレーンの2HHの量子化ステップ値:2HHgh
GHプレーンの1HLの量子化ステップ値:1HLgh
GHプレーンの1LHの量子化ステップ値:1LHgh
GHプレーンの1HHの量子化ステップ値:1HHgh
とすると、
3LLy=3HLy=3LHy=3HHy≦2HLy=2LHy<2HHy≦1HLy=1LHy<1HHy …(4)
3LLuv≦3HLuv=3LHuv<3HHuv<2HLuv=2LHuv<2HHuv≦1HLuv=1LHuv<1HHuv …(5)
3LLgh=3HLgh=3LHgh≦3HHgh≦2HLgh=2LHgh=2HHgh<1HLgh=1LHgh=1HHgh …(6)
3LLy≦3LLuv<3LLgh …(7)
1HHy<1HHuv<1HHgh …(8)
を満たすように、各プレーンのサブバンドの量子化パラメータを設定する。
The quantization parameters are set as follows.
Quantization step value of 3LL of Y plane: 3LLy
3HL quantization step value of Y plane: 3HLy
Quantization step value of 3LH of Y plane: 3LHy
3HH quantization step value of Y plane: 3HHy
2HL quantization step value of Y plane: 2HLy
2LH quantization step value of Y plane: 2LHy
2HH quantization step value of Y plane: 2HHy
1HL quantization step value of Y plane: 1HLy
1LH quantization step value of Y plane: 1LHy
1HH quantization step value of Y plane: 1HHy
Quantization step value of 3LL of U / V plane: 3LLuv
U / V plane 3HL quantization step value: 3HLuv
Quantization step value of 3LH of U / V plane: 3LHuv
U / V plane 3HH quantization step value: 3HHuv
2HL quantization step value of U / V plane: 2HLuv
2LH quantization step value of U / V plane: 2LHuv
2HH quantization step value of U / V plane: 2HHuv
1HL quantization step value of U / V plane: 1HLuv
1LH quantization step value of U / V plane: 1LHuv
1HH quantization step value of U / V plane: 1HHuv
GH plane 3LL quantization step value: 3LLgh
GH plane 3HL quantization step value: 3HLgh
GH plane 3LH quantization step value: 3LHgh
GH plane 3HH quantization step value: 3HHgh
2HL quantization step value of GH plane: 2HLgh
2LH quantization step value of GH plane: 2LHgh
2HH quantization step value of GH plane: 2HHgh
GH plane 1HL quantization step value: 1HLgh
GH plane 1LH quantization step value: 1LHgh
GH plane 1HH quantization step value: 1HHgh
Then
3LLy = 3HLy = 3LHy = 3HHy ≦ 2HLy = 2LHy <2HHy ≦ 1HLy = 1LHy <1HHy… (4)
3LLuv ≦ 3HLuv = 3LHuv <3HHuv <2HLuv = 2LHuv <2HHuv ≦ 1HLuv = 1LHuv <1HHuv… (5)
3LLgh = 3HLgh = 3LHgh ≦ 3HHgh ≦ 2HLgh = 2LHgh = 2HHgh <1HLgh = 1LHgh = 1HHgh… (6)
3LLy≤3LLuv <3LLgh ... (7)
1HHy <1HHuv <1HHgh ... (8)
Set the quantization parameters for the subbands of each plane to satisfy.

量子化パラメータを設定する際には、制御部108が、上記を満たす量子化ステップ値を算出してもよいし、上記を満たす量子化ステップ値を不図示の不揮発性メモリに予め記憶しておき、不揮発性メモリから読み出して設定するようにしてもよい。また、第1の実施形態の変形例2のように、圧縮率が設定可能な場合は、圧縮率に応じて異なる量子化ステップ値を設定するようにしてもよい。 When setting the quantization parameter, the control unit 108 may calculate the quantization step value satisfying the above, or the quantization step value satisfying the above is stored in advance in a non-volatile memory (not shown). , It may be read from the non-volatile memory and set. Further, when the compression rate can be set as in the second modification of the first embodiment, different quantization step values may be set according to the compression rate.

上記の関係となる量子化ステップ値を設定することで、通常は、Yプレーンの発生符号量>U/Vプレーンの発生符号量>GHプレーンの発生符号量となる。 By setting the quantization step value having the above relationship, usually, the generated code amount of the Y plane> the generated code amount of the U / V plane> the generated code amount of the GH plane.

これは、画像データにおいて、輝度成分は重要な成分であるため、Yプレーンは量子化ステップ値を小さくして、劣化が比較的目立ちにくい他のプレーンよりもより細かく量子化することで劣化を目立たなくしている。また、Yプレーン、Uプレーン、Vプレーンは、RGBの画像を形成するのに必要となる成分であるため、GHプレーンより量子化ステップ値を小さくて、GHプレーンより細かく量子化することで劣化を目立たなくしている。GHプレーンは、他のプレーンよりも量子化ステップ値を大きくして、他のプレーンよりも粗く量子化することで発生符号量を抑えている。 This is because the luminance component is an important component in image data, so the Y plane has a smaller quantization step value and is quantized more finely than other planes where deterioration is relatively inconspicuous, so that deterioration is noticeable. I have lost it. Further, since the Y plane, the U plane, and the V plane are components necessary for forming an RGB image, the quantization step value is smaller than that of the GH plane, and the quantization is made finer than that of the GH plane to deteriorate the deterioration. It makes it inconspicuous. The GH plane has a larger quantization step value than the other planes and quantizes coarser than the other planes to suppress the amount of generated code.

分解レベル2のサブバンドにおける量子化ステップ値は、Y、U,Vプレーンにおいては、2HL=2LH<2HHとなっているのに対し、GHプレーンでは、2HL=2LH=2HHとなっている。分解レベル1のサブバンドにおける量子化ステップ値についても、Y、U,Vプレーンにおいては、1HL=1LH<1HHとなっているのに対し、GHプレーンでは、1HL=1LH=1HHとなっている。画像においては低域成分のほうが重要度が高いため、Y、U,Vプレーンにおいては、サブバンドHL、LHは、サブバンドHHよりも量子化ステップ値を小さくして、サブバンドHHよりも劣化が少なくなるようにしている。そして、サブバンドHHは重要度が低いため量子化ステップ値を大きくし、より粗く量子化して発生符号量を抑えるようにしている。それに対し、GHプレーンは、緑の高域成分のデータであるため、他のプレーンよりも高域成分の重要度が高くなる。そのため、Y、U,Vプレーンのように、サブバンドHHだけ量子化ステップ値を大きくせずに、サブバンドHL,サブバンドLHと同じ量子化ステップ値にし、サブバンドHHの劣化を防いでいる。 The quantization step value in the decomposition level 2 subband is 2HL = 2LH <2HH in the Y, U, and V planes, whereas it is 2HL = 2LH = 2HH in the GH plane. Regarding the quantization step value in the subband of decomposition level 1, 1HL = 1LH <1HH in the Y, U, and V planes, whereas 1HL = 1LH = 1HH in the GH plane. Since the low frequency component is more important in the image, in the Y, U, and V planes, the subbands HL and LH have a smaller quantization step value than the subband HH and are deteriorated more than the subband HH. Is reduced. Since the subband HH has a low importance, the quantization step value is increased to coarsely quantize and suppress the generated code amount. On the other hand, since the GH plane is the data of the green high frequency component, the importance of the high frequency component is higher than that of the other planes. Therefore, unlike the Y, U, and V planes, the quantization step value is set to the same as that of the subband HL and the subband LH without increasing the quantization step value by the subband HH, and the deterioration of the subband HH is prevented. ..

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other Examples)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

101…撮像部、102…プレーン形成部、103…メモリI/F部、104…メモリ、105…プレーン変換部、106…色変換部、107…周波数変換部、108…制御部、109…量子化部、110…エントロピー符号化部、111…出力部、112…記憶媒体、115…操作部、701…特徴解析部 101 ... Imaging unit, 102 ... Plane forming unit, 103 ... Memory I / F unit, 104 ... Memory, 105 ... Plane conversion unit, 106 ... Color conversion unit, 107 ... Frequency conversion unit, 108 ... Control unit, 109 ... Quantization Unit, 110 ... Entropy coding unit, 111 ... Output unit, 112 ... Storage medium, 115 ... Operation unit, 701 ... Feature analysis unit

Claims (13)

ベイヤー配列の画像データを符号化する画像符号化装置であって、
ベイヤー配列の画像データのG0成分データ及びG1成分データから、G成分の低周波成分で構成されるGL成分データ、及び、G成分の高周波成分で構成されるGH成分データを生成する生成手段と、
ベイヤー配列の画像データのR成分データ、B成分データ、及び、前記GL成分データから、輝度成分で構成される輝度成分データ、第1の色差成分で構成される第1の色差成分データ、第2の色差成分で構成される第2の色差成分データを生成する輝度色差変換手段と、
前記輝度成分データ、前記第1の色差成分データ、前記第2の色差成分データ、及び、前記GH成分データを、成分ごとに符号化する符号化手段と
を有し、
前記符号化手段は、前記輝度成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも大きくなり、前記GH成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも小さくなるように、各成分データを符号化することを特徴とする画像符号化装置。
An image coding device that encodes image data in a Bayer array.
A generation means for generating GL component data composed of low frequency components of G component and GH component data composed of high frequency components of G component from G0 component data and G1 component data of image data of Bayer array.
From the R component data, B component data, and the GL component data of the image data of the Bayer array, the luminance component data composed of the luminance component, the first luminance component data composed of the first luminance component, and the second Luminance color difference conversion means for generating the second color difference component data composed of the color difference components of
The luminance component data, the first color difference component data, the second color difference component data, and the GH component data, have a coding means for coding each component,
In the coding means, the code amount of the brightness component data is larger than the code amount of the first color difference component data and the code amount of the second color difference component data, and the code amount of the GH component data is increased. An image coding apparatus, characterized in that each component data is encoded so as to be smaller than the code amount of the first color difference component data and the code amount of the second color difference component data .
前記符号化手段は、前記輝度成分データの目標符号量>前記第1の色差成分データの目標符号量≒前記第2の色差成分データの目標符号量>前記GH成分データの目標符号量となるように、各成分データの目標符号量を設定し、設定された目標符号量となるように各成分データを符号化することを特徴とする請求項に記載の画像符号化装置。 The coding means has such that the target code amount of the brightness component data> the target code amount of the first color difference component data ≈ the target code amount of the second color difference component data> the target code amount of the GH component data. a, sets a target code amount of each component data, the image encoding apparatus according to claim 1, characterized in that coding each component data so that the set target amount of codes. 前記符号化手段は、成分データをウェーブレット変換して複数のサブバンドを生成し、生成したサブバンド毎に符号化することを特徴とする請求項1に記載の画像符号化装置。 The image coding apparatus according to claim 1, wherein the coding means generates a plurality of sub-bands by wavelet transforming component data, and encodes each of the generated sub-bands. 前記符号化手段は、サブバンド毎に目標符号量を設定して、設定された目標符号量となるように符号化を行い、
所定の分解レベルのサブバンドを符号化する際に、前記輝度成分データ、前記第1の色差成分データ、及び、前記第2の色差成分データについては、HHサブバンドの目標符号量が、HLサブバンド、LHサブバンドの目標符号量よりも小さくなるように、目標符号量を設定し、前記GH成分データについては、HLまたはLHサブバンドの目標符号量に対するHHサブバンドの目標符号量の割合が、前記輝度成分データ、前記第1の色差成分データ、または、前記第2の色差成分データよりも大きくなるように、サブバンドの目標符号量を設定することを特徴とする請求項に記載の画像符号化装置。
In the coding means, a target code amount is set for each subband, and coding is performed so as to obtain the set target code amount.
When encoding a subband of a predetermined decomposition level, for the brightness component data, the first color difference component data, and the second color difference component data, the target code amount of the HH subband is the HL sub. The target code amount is set so as to be smaller than the target code amount of the band and the LH subband, and for the GH component data, the ratio of the target code amount of the HH subband to the target code amount of the HL or LH subband is The third aspect of claim 3 , wherein the target code amount of the subband is set so as to be larger than the brightness component data, the first color difference component data, or the second color difference component data. Image encoding device.
前記符号化手段は、前記所定の分解レベルのサブバンドを符号化する際に、前記輝度成分データ、前記第1の色差成分データ、及び、前記第2の色差成分データについては、HHサブバンドの目標符号量が、HLサブバンド、LHサブバンドの目標符号量よりも小さくなるように目標符号量を設定して符号化し、前記GH成分データについては、HHサブバンドの目標符号量が、HLサブバンド、LHサブバンドの目標符号量以上になるように目標符号量を設定して符号化することを特徴とする請求項に記載の画像符号化装置。 When the coding means encodes the subband of the predetermined decomposition level, the brightness component data, the first color difference component data, and the second color difference component data are referred to as HH subbands. The target code amount is set and encoded so that the target code amount is smaller than the target code amount of the HL subband and the LH subband, and for the GH component data , the target code amount of the HH subband is the HL subband. The image coding apparatus according to claim 4 , wherein the target code amount is set and coded so as to be equal to or larger than the target code amount of the band and the LH subband. 前記符号化手段は、成分データに割り当てられた目標符号量を、各サブバンドに分配することによりサブバンドの目標符号量を決定し、
さらに、画像データの圧縮率を設定する圧縮率設定手段を有し、
前記符号化手段は、前記圧縮率設定手段により設定された圧縮率によって、各サブバンドに分配する目標符号量の比率を異ならせることを特徴とする請求項に記載の画像符号化装置。
The coding means determines the target code amount of the subband by distributing the target code amount assigned to the component data to each subband.
Further, it has a compression rate setting means for setting the compression rate of image data.
The image coding apparatus according to claim 3 , wherein the coding means has a different ratio of a target code amount to be distributed to each subband depending on a compression rate set by the compression rate setting means.
前記符号化手段は、サブバンド毎に設定される量子化パラメータに基づいて量子化を行い、量子化後のデータを符号化することを特徴とする請求項に記載の画像符号化装置。 The image coding apparatus according to claim 3 , wherein the coding means performs quantization based on a quantization parameter set for each subband and encodes the data after quantization. ベイヤー配列の画像データを符号化する画像符号化装置であって、
ベイヤー配列の画像データのG0成分データ及びG1成分データから、G成分の低周波成分で構成されるGL成分データ、及び、G成分の高周波成分で構成されるGH成分データを生成する生成手段と、
ベイヤー配列の画像データのR成分データ、B成分データ、及び、前記GL成分データから、輝度成分で構成される輝度成分データ、第1の色差成分で構成される第1の色差成分データ、第2の色差成分で構成される第2の色差成分データを生成する輝度色差変換手段と、
前記輝度成分データ、前記第1の色差成分データ、前記第2の色差成分データ、及び、前記GH成分データを、成分ごとに符号化する符号化手段とを有し、
前記符号化手段は、成分データをウェーブレット変換して複数のサブバンドを生成し、サブバンド毎に設定される量子化パラメータに基づいて各サブバンドを量子化し、量子化後のデータを符号化し、
前記符号化手段は、所定の分解レベルのサブバンドの量子化パラメータを、前記輝度成分データ、前記第1の色差成分データ、及び、前記第2の色差成分データについては、HHサブバンドの量子化パラメータを、HLサブバンド、LHサブバンドの量子化パラメータよりも大きくなるように設定し、前記GH成分データについては、HHサブバンドの量子化パラメータを、HLサブバンド、および、LHサブバンドの量子化パラメータ以上となるように設定することを特徴とする像符号化装置。
An image coding device that encodes image data in a Bayer array.
A generation means for generating GL component data composed of low frequency components of G component and GH component data composed of high frequency components of G component from G0 component data and G1 component data of image data of Bayer array.
From the R component data, B component data, and the GL component data of the image data of the Bayer array, the luminance component data composed of the luminance component, the first luminance component data composed of the first luminance component, and the second Luminance color difference conversion means for generating the second color difference component data composed of the color difference components of
It has a luminance component data, a first color difference component data, a second color difference component data, and a coding means for encoding the GH component data for each component.
The coding means wavelet transforms the component data to generate a plurality of subbands, quantizes each subband based on the quantization parameter set for each subband, and encodes the quantized data.
The coding means quantizes the quantization parameter of the subband of a predetermined decomposition level, and for the brightness component data, the first color difference component data, and the second color difference component data, the HH subband. The parameters are set to be larger than the quantization parameters of the HL subband and the LH subband, and for the GH component data, the quantization parameters of the HH subband are set to the quantization of the HL subband and the LH subband. picture image encoding apparatus and sets so that the above parameters.
前記符号化手段は、前記所定の分解レベルのサブバンドの量子化パラメータを、前記GH成分データについては、HHサブバンドの量子化パラメータが、HLサブバンド、および、LHサブバンドの量子化と等しくなるように、設定することを特徴とする請求項に記載の画像符号化装置。 The coding means has the quantization parameter of the subband of the predetermined decomposition level, and for the GH component data, the quantization parameter of the HH subband is equal to the quantization of the HL subband and the LH subband. The image coding apparatus according to claim 8 , wherein the image coding apparatus is set so as to be such. 前記生成手段は、
前記G0成分データと前記G1成分データの加算平均を低周波成分データと算出することで前記GL成分データを生成し、
前記G0成分データと前記G1成分データの減算平均を高周波成分データと算出することで前記GH成分データを生成する
ことを特徴とする請求項1又は8に記載の画像符号化装置。
The generation means
The GL component data is generated by calculating the addition average of the G0 component data and the G1 component data as low frequency component data.
The image coding apparatus according to claim 1 or 8 , wherein the GH component data is generated by calculating the subtraction average of the G0 component data and the G1 component data as high frequency component data.
ベイヤー配列の画像データを符号化する画像符号化装置の制御方法であって、
生成手段が、ベイヤー配列の画像データのG0成分データ及びG1成分データから、G成分の低周波成分で構成されるGL成分データ、及び、G成分の高周波成分で構成されるGH成分データを生成する生成工程と、
輝度色差変換手段が、ベイヤー配列の画像データのR成分データ、B成分データ、及び、前記GL成分データから、輝度成分で構成される輝度成分データ、第1の色差成分で構成される第1の色差成分データ、第2の色差成分で構成される第2の色差成分データを生成する輝度色差変換工程と、
符号化手段が、前記輝度成分データ、前記第1の色差成分データ、前記第2の色差成分データ、及び、前記GH成分データを、成分ごとに符号化する符号化工程と
を有し、
前記符号化工程では、前記輝度成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも大きくなり、前記GH成分データの符号量が、前記第1の色差成分データの符号量および前記第2の色差成分データの符号量よりも小さくなるように、各成分データを符号化することを特徴とする画像符号化装置の制御方法。
It is a control method of an image coding device that encodes image data of a Bayer array.
The generation means generates GL component data composed of low frequency components of G component and GH component data composed of high frequency components of G component from G0 component data and G1 component data of image data of Bayer array. Generation process and
A first color difference conversion means is composed of a brightness component data composed of a brightness component and a first color difference component from the R component data, the B component data, and the GL component data of the image data of the Bayer array. A brightness color difference conversion step for generating color difference component data and a second color difference component data composed of a second color difference component, and
Encoding means, said luminance component data, the first color difference component data, the second color difference component data, and the GH component data, possess an encoding step of encoding each component,
In the coding step, the code amount of the brightness component data becomes larger than the code amount of the first color difference component data and the code amount of the second color difference component data, and the code amount of the GH component data becomes larger. A control method of an image coding apparatus, characterized in that each component data is encoded so as to be smaller than the code amount of the first color difference component data and the code amount of the second color difference component data .
ベイヤー配列の画像データを符号化する画像符号化装置の制御方法であって、It is a control method of an image coding device that encodes image data of a Bayer array.
生成手段が、ベイヤー配列の画像データのG0成分データ及びG1成分データから、G成分の低周波成分で構成されるGL成分データ、及び、G成分の高周波成分で構成されるGH成分データを生成する生成工程と、The generation means generates GL component data composed of low frequency components of G component and GH component data composed of high frequency components of G component from G0 component data and G1 component data of image data of Bayer array. Generation process and
輝度色差変換手段が、ベイヤー配列の画像データのR成分データ、B成分データ、及び、前記GL成分データから、輝度成分で構成される輝度成分データ、第1の色差成分で構成される第1の色差成分データ、第2の色差成分で構成される第2の色差成分データを生成する輝度色差変換工程と、A first color difference conversion means is composed of a brightness component data composed of a brightness component and a first color difference component from the R component data, the B component data, and the GL component data of the image data of the Bayer array. A brightness color difference conversion step for generating color difference component data and a second color difference component data composed of a second color difference component, and
符号化手段が、前記輝度成分データ、前記第1の色差成分データ、前記第2の色差成分データ、及び、前記GH成分データを、成分ごとに符号化する符号化工程とを有し、The coding means includes a coding step of coding the luminance component data, the first color difference component data, the second color difference component data, and the GH component data for each component.
前記符号化工程では、成分データをウェーブレット変換して複数のサブバンドを生成し、サブバンド毎に設定される量子化パラメータに基づいて各サブバンドを量子化し、量子化後のデータを符号化し、In the coding step, the component data is wavelet-transformed to generate a plurality of sub-bands, each sub-band is quantized based on the quantization parameter set for each sub-band, and the quantized data is encoded.
前記符号化工程では、所定の分解レベルのサブバンドの量子化パラメータを、前記輝度成分データ、前記第1の色差成分データ、及び、前記第2の色差成分データについては、HHサブバンドの量子化パラメータを、HLサブバンド、LHサブバンドの量子化パラメータよりも大きくなるように設定し、前記GH成分データについては、HHサブバンドの量子化パラメータを、HLサブバンド、および、LHサブバンドの量子化パラメータ以上となるように設定することを特徴とする画像符号化装置の制御方法。In the coding step, the quantization parameter of the subband of a predetermined decomposition level is set, and the HH subband is quantized for the brightness component data, the first color difference component data, and the second color difference component data. The parameters are set to be larger than the quantization parameters of the HL subband and the LH subband, and for the GH component data, the quantization parameters of the HH subband are set to the quantization of the HL subband and the LH subband. A control method for an image encoding device, characterized in that it is set so as to be equal to or greater than the quantization parameter.
コンピュータが読み込み実行することで、前記コンピュータに、請求項1乃至10のいずれか1項に記載の画像符号化装置の各手段として機能させるためのプログラム。 A program for causing the computer to function as each means of the image coding apparatus according to any one of claims 1 to 10 by reading and executing the computer.
JP2016152293A 2015-10-27 2016-08-02 Image processing equipment, its control method, and computer programs Active JP6792370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/299,507 US10163192B2 (en) 2015-10-27 2016-10-21 Image encoding apparatus and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015211105 2015-10-27
JP2015211105 2015-10-27

Publications (3)

Publication Number Publication Date
JP2017085545A JP2017085545A (en) 2017-05-18
JP2017085545A5 JP2017085545A5 (en) 2019-08-29
JP6792370B2 true JP6792370B2 (en) 2020-11-25

Family

ID=58712205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016152293A Active JP6792370B2 (en) 2015-10-27 2016-08-02 Image processing equipment, its control method, and computer programs

Country Status (1)

Country Link
JP (1) JP6792370B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321237B2 (en) 2017-06-19 2023-08-04 キヤノン株式会社 Image encoding device, image encoding method, program
JP6986868B2 (en) * 2017-06-19 2021-12-22 キヤノン株式会社 Image coding device, image decoding device, image coding method, image decoding method, program
CN114189689B (en) * 2021-11-25 2024-02-02 广州思德医疗科技有限公司 Image compression processing method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2017085545A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
US8358877B2 (en) Apparatus, process, and program for image encoding
US20040013310A1 (en) Image decoding technique for suppressing tile boundary distortion
US10163192B2 (en) Image encoding apparatus and method of controlling the same
US10097840B2 (en) Image encoding apparatus, control method thereof, and storage medium
JP6792370B2 (en) Image processing equipment, its control method, and computer programs
US10776956B2 (en) Image coding apparatus, image decoding apparatus, image coding method, image decoding method, and non-transitory computer-readable storage medium
JP6857973B2 (en) Image coding device and its control method
JP6857970B2 (en) Image coding device and its control method
JP4449400B2 (en) Image encoding apparatus and method, program, and recording medium
US10356408B2 (en) Image encoding apparatus and method of controlling the same
US20230133895A1 (en) Image encoding apparatus and method for controlling the same and non-transitory computer-readable storage medium
US11140392B2 (en) Image encoding apparatus, image decoding apparatus, control methods thereof, and non- transitory computer-readable storage medium
US20200195931A1 (en) Image capturing apparatus, control method thereof, and non-transitory computer-readable storage medium
JP6875817B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP6775339B2 (en) Image coding device and its control method
JP6813991B2 (en) Image coding device and its control method and program
JP4145086B2 (en) Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method
JP7465073B2 (en) Image encoding device, control method and program thereof
JP7321237B2 (en) Image encoding device, image encoding method, program
JP2019068385A (en) Encoder, control method thereof, and control program, and imaging apparatus
JP2023070055A (en) Image encoding device, control method thereof, and program
JP2017098898A (en) Image encoding device, control method of the same, program, and storage medium
JP6916618B2 (en) Image coding device and its control method and program
JP6793499B2 (en) Image coding device and its control method
JP2003199106A (en) Image processing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201106

R151 Written notification of patent or utility model registration

Ref document number: 6792370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151