JP2013042385A - Image encoder and image decoder - Google Patents
Image encoder and image decoder Download PDFInfo
- Publication number
- JP2013042385A JP2013042385A JP2011178309A JP2011178309A JP2013042385A JP 2013042385 A JP2013042385 A JP 2013042385A JP 2011178309 A JP2011178309 A JP 2011178309A JP 2011178309 A JP2011178309 A JP 2011178309A JP 2013042385 A JP2013042385 A JP 2013042385A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- pixel
- unit
- division
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像符号化装置及び画像復号装置に関し、特に、単位ブロックの分割を適応的に変化させることで、符号化効率を向上させる画像符号化装置及び画像復号装置に関するものである。 The present invention relates to an image encoding device and an image decoding device, and more particularly to an image encoding device and an image decoding device that improve encoding efficiency by adaptively changing the division of a unit block.
従来の画像符号化に、画像を複数のブロックに分割することで局所的な相関を利用して処理する方法がある。ブロックの分割に関しては、幾つかの方法が提案されており、符号化効率の向上が図られている。例えば、平坦な領域では大きなブロックを利用することで、相関を最大限活かせるだけでなく、処理単位が大きくなるので制御情報を抑えることができる。逆に、エッジ領域では小さなブロックを利用することで、変化に富んだ画素でも比較的高い相関を保ったまま効率的に周波数変換することが可能となる。 In conventional image coding, there is a method of processing by using a local correlation by dividing an image into a plurality of blocks. Several methods have been proposed for dividing the block, and the coding efficiency is improved. For example, by using a large block in a flat area, not only can the correlation be utilized to the maximum, but also the control unit can be suppressed because the processing unit becomes large. On the other hand, by using a small block in the edge region, it is possible to efficiently perform frequency conversion while maintaining a relatively high correlation even in a pixel rich in change.
非特許文献1で示されるH.264 では、画面内符号化に用いられるブロックは16×16、8×8、4×4 の正方サイズを選択的に利用できるため、画素値に変化がある場合は、より小さな正方サイズに分割することで対処できる。 In H.264 shown in Non-Patent Document 1, the block used for intra-picture coding can selectively use the square size of 16 × 16, 8 × 8, or 4 × 4, so the pixel value is changed Can be dealt with by dividing into smaller square sizes.
特許文献1では、H.264のブロック分割において非正方の小領域を用意している。小領域の形状に応じてIntra予測モードを制限することで、符号化効率の改善を図る。 In Patent Document 1, a non-square small area is prepared in H.264 block division. Encoding efficiency is improved by limiting the intra prediction mode according to the shape of the small area.
非特許文献1は、ある符号化対象ブロックに対して3通りのサイズの正方形しか用意していないため、ブロック内の大半が平坦な領域であっても、一部に変化があれば、平坦な領域も含めて小さな正方サイズに分割するしかないという問題がある。また、H.264は画素ではなく予測誤差を処理するため、大きな変化が出やすいという問題がある。例えば、H.264のIntra 予測は符号化済みの近接する画素を基準として対象ブロックの予測値を生成するので、予測の基準となる画素から離れるほど大きな予測誤差が生じるという問題が指摘されている。よって、非特許文献1では、符号化効率を十分に高めることができないという問題がある。 Since Non-Patent Document 1 provides only three sizes of squares for a certain block to be encoded, even if the majority of the block is a flat region, if there is a change in part, it is flat. There is a problem that there is no choice but to divide it into small square sizes including the area. In addition, H.264 processes prediction errors, not pixels, so there is a problem that large changes are likely to occur. For example, H.264 Intra prediction generates a prediction value of a target block with reference to encoded neighboring pixels, so that there is a problem that a larger prediction error occurs as the distance from the prediction reference pixel increases. . Therefore, Non-Patent Document 1 has a problem that the encoding efficiency cannot be sufficiently increased.
一方、特許文献1は、非正方の小領域を導入するため、非特許文献1の問題を一部解決できる。しかし、対象ブロックの分割方法や形状に関する情報、周波数変換方法や量子化情報を指定するための情報を出力させないために、小領域のIntra 予測モードに制限を課している。パンやチルトなどのカメラワークで画素値が流れているときは、参照画素から離れていても特許文献1で制約されたIntra 予測モードが最適であることがあるので、符号化効率を十分に高めることができないという問題は依然として残る。また、予測信号生成関連情報が小領域の分割方法の指定を兼ねているため、小領域に正方形と非正方形を混在させる場合は、Intra 予測モードを個別に指定できないという問題がある。 On the other hand, since Patent Document 1 introduces a non-square small region, the problem of Non-Patent Document 1 can be partially solved. However, in order not to output information on the target block division method and shape, frequency conversion method and quantization information, a restriction is imposed on the small region intra prediction mode. When pixel values are flowing due to camera work such as panning and tilting, the intra prediction mode constrained in Patent Document 1 may be optimal even if the pixel value is far from the reference pixel, so that the encoding efficiency is sufficiently increased. The problem of being unable to do so remains. In addition, since the prediction signal generation related information also serves as the designation of the small area dividing method, there is a problem that the Intra prediction mode cannot be individually designated when the square and non-square are mixed in the small area.
本発明の目的は前述した従来技術の問題点を解消し、符号化効率の高い画像符号化装置を提供することにある。 An object of the present invention is to solve the above-described problems of the prior art and to provide an image encoding device with high encoding efficiency.
本発明の目的はまた、当該符号化効率の高い画像符号化装置に対応する画像復号装置を提供することにある。 Another object of the present invention is to provide an image decoding apparatus corresponding to the image encoding apparatus with high encoding efficiency.
上記目的を達成するため、本発明は、複数の画素から構成される単位ブロックの各画素に対して、符号化済み画素から各画素を予測する予測情報を決定する予測手段と、予測情報に基づいて各画素の予測画素を生成する補償手段とを備え、当該各画素とその予測画素との間で差分処理を行って得られた予測残差に対して直交変換及び量子化を行って量子化値となし、単位ブロック毎に符号化を行う画像符号化装置において、単位ブロックの複数の小領域への分割を定める分割種のセットの中から分割種を選択して分割する適応分割手段を備え、前記選択された分割種において分割して得られた小領域の各々を構成する画素につき順次、前記予測手段が予測情報を決定し、前記補償手段が予測画素を生成することにより、前記単位ブロック毎に符号化を行うに際して、単位ブロック毎に選択された分割種の情報が符号化され且つ小領域毎に量子化値及び予測情報が符号化されることを特徴とする。 To achieve the above object, the present invention is based on prediction means for determining prediction information for predicting each pixel from an encoded pixel for each pixel of a unit block composed of a plurality of pixels, and the prediction information. And a compensation means for generating a prediction pixel of each pixel, and performing orthogonal transformation and quantization on the prediction residual obtained by performing the difference processing between each pixel and the prediction pixel to perform quantization In an image coding apparatus that performs coding for each unit block, the image processing apparatus includes adaptive division means that selects and divides a division type from a set of division types that divides a unit block into a plurality of small regions. The unit block is configured such that the prediction unit sequentially determines prediction information and the compensation unit generates a prediction pixel for each pixel constituting each of the small regions obtained by the division in the selected division type. Every In performing No., resolution type of information selected for each unit block quantization value and the prediction information for each and small regions are encoded, characterized in that it is encoded.
また本発明は、前記画像符号化装置に対する画像復号装置であって、前記符号化された単位ブロック毎に選択された分割種の情報並びに小領域毎の量子化値及び予測情報を復号する復号手段と、前記復号された量子化値を逆量子化して復号された変換係数とする逆量子化手段と、該復号された変換係数を逆変換して復号された予測残差とする逆変換手段と、前記復号された分割種の情報より、当該分割種にて定められる小領域を復号対象の単位ブロックに再設定する復号側適応分割手段と、復号済み画素と前記復号された予測情報とに基づいて、前記再設定された小領域毎の復号された予測画素を生成する補償手段を備え、前記再設定された小領域毎に、前記復号された予測残差と前記復号された予測画素とを加算して復号済み画素を得ることを特徴とする。 The present invention is also an image decoding apparatus for the image encoding apparatus, wherein the decoding means decodes the information of the division type selected for each encoded unit block, and the quantization value and prediction information for each small area. And inverse quantization means for inversely quantizing the decoded quantized value to obtain a decoded transform coefficient; and inverse transform means for inversely transforming the decoded transform coefficient to obtain a decoded prediction residual; Based on the decoded division type information, decoding-side adaptive division means for resetting a small area determined by the division type to a unit block to be decoded, decoded pixels, and the decoded prediction information Compensating means for generating a decoded prediction pixel for each reset small area, and for each of the reset small areas, the decoded prediction residual and the decoded prediction pixel Addition to obtain decoded pixels The features.
本発明の画像符号化装置によれば、単位ブロック毎に複数の小領域に分割して当該小領域単位で予測し符号化するので、符号化効率を向上させることができる。 According to the image coding apparatus of the present invention, since the unit block is divided into a plurality of small areas and is predicted and coded in units of the small areas, the coding efficiency can be improved.
また本発明の画像復号装置によれば、小領域毎に復号して、画像符号化装置での符号化に対応した復号を行うことができる。 Further, according to the image decoding device of the present invention, it is possible to perform decoding corresponding to the encoding in the image encoding device by decoding each small region.
本発明の実施形態に係る画像符号化装置及び画像復号装置の機能ブロック図を、それぞれ図1及び図2に示す。 Functional block diagrams of an image encoding device and an image decoding device according to an embodiment of the present invention are shown in FIGS. 1 and 2, respectively.
本発明の画像符号化装置1は、複数の画素から構成される単位ブロックの各画素に対して、符号化済み画素から予測される各画素との間で差分処理を行って得られた予測残差について直交変換・量子化・符号化を行って単位ブロック毎に符号化を行う画像符号化装置に対して、前記単位ブロックを効率的に複数の小領域に分割できる適応分割機能を付加した構成を特徴とするものである。 The image encoding device 1 according to the present invention provides a prediction residual obtained by performing a difference process on each pixel of a unit block composed of a plurality of pixels with each pixel predicted from an encoded pixel. A configuration in which an adaptive division function capable of efficiently dividing the unit block into a plurality of small regions is added to an image coding apparatus that performs orthogonal transform, quantization, and coding on the difference and performs coding for each unit block It is characterized by.
すなわち、本発明の画像符号化装置1は、図1に示すように、符号化対象としての入力画素が取り込まれる画像入力手段10と、符号化済み画素から入力画素を予測する予測情報を算出する予測手段11と、予測情報及び符号化済み画素から予測画素を生成する補償手段12と、入力画素から予測画素を減算し予測残差を出力する差分手段13と、予測残差を周波数領域に変換して変換係数とする変換手段14と、変換係数を量子化する量子化手段15と、量子化された変換係数その他を可変長符号化して符号情報とする符号化手段16と、符号情報を出力する符号出力手段100と、量子化された変換係数を逆量子化する逆量子化手段17と、逆量子化された変換係数を逆変換する逆変換手段18と、予測画素と逆変換された予測残差とを加算し符号化済み画素を再構成する加算器19と、再構成された符号化済み画素を蓄積する蓄積手段21とを備えた画像符号化装置に対して、符号化を行う単位ブロックをさらに当該ブロック内で順次符号化を行うための複数の小領域に分割する適応分割手段20を備えて構成されている。 That is, as shown in FIG. 1, the image encoding device 1 according to the present invention calculates image input means 10 that takes in an input pixel as an encoding target, and prediction information for predicting an input pixel from an encoded pixel. A prediction unit 11; a compensation unit 12 that generates a prediction pixel from the prediction information and the encoded pixel; a difference unit 13 that subtracts the prediction pixel from the input pixel and outputs a prediction residual; and converts the prediction residual into a frequency domain. Conversion means 14 for transform coefficients, quantization means 15 for quantizing the transform coefficients, encoding means 16 for variable-length coding the quantized transform coefficients and others, and outputting the code information The code output means 100, the inverse quantization means 17 that inversely quantizes the quantized transform coefficient, the inverse transform means 18 that inversely transforms the inversely quantized transform coefficient, and the prediction that is inversely transformed with the prediction pixel With the residual A unit block for encoding is further added to an image encoding device including an adder 19 that reconstructs the calculated and encoded pixels and an accumulating unit 21 that accumulates the reconstructed encoded pixels. An adaptive dividing means 20 for dividing the block into a plurality of small areas for performing sequential encoding within the block is provided.
なお、蓄積手段21に蓄積されている画素は信号の流れとして、量子化手段15から逆量子化手段17乃至加算器19で順次処理されて当該蓄積手段21に蓄積されている画素である。この際、量子化手段15から逆量子化手段17へ入力されると共に、符号化手段16へも入力され符号化されているという意味で、まだこのようにして符号化されるに至っていない画像入力手段10から送られた直後の画素と区別して、符号化済み画素と呼ぶ。 Note that the pixels stored in the storage unit 21 are pixels that are sequentially processed by the inverse quantization unit 17 through the adder 19 from the quantization unit 15 and stored in the storage unit 21 as a signal flow. At this time, an image input that has not yet been encoded in this way in the sense that it is input from the quantization means 15 to the inverse quantization means 17 and also input to the encoding means 16 and encoded. This is distinguished from the pixel immediately after being sent from the means 10 and is called an encoded pixel.
一方、本発明の画像符号化装置1に対応する画像復号装置3は、図2に示すように、符号出力手段100からの符号情報が入力される符号入力手段30と、符号情報に対して可変長復号を行い量子化値及び予測情報その他とする復号手段31と、量子化されている変換係数を逆量子化する逆量子化手段37と、逆量子化された変換係数を画素領域に逆変換する逆変換手段38と、予測情報及び復号済み画素から予測画素を生成する補償手段32と、予測画素と再構成された予測残差とを加算し復号画素を再構成する加算器39と、復号画素を出力する画像出力手段300と、再構成された復号画素(復号済み画素)を蓄積する蓄積手段41とを備えた画像復号装置に対して、復号を行う単位ブロックをさらに当該ブロック内で順次復号を行うための小領域に分割する適応分割手段40を備えて構成されている。 On the other hand, the image decoding apparatus 3 corresponding to the image encoding apparatus 1 according to the present invention, as shown in FIG. 2, has code input means 30 to which code information from the code output means 100 is input, and variable with respect to the code information. Decoding means 31 that performs long decoding to obtain quantized values and prediction information, etc., inverse quantization means 37 that inversely quantizes the transform coefficients that have been quantized, and inverse transforms the inversely quantized transform coefficients into pixel regions An inverse transform means 38, a compensation means 32 for generating a prediction pixel from the prediction information and the decoded pixel, an adder 39 for adding the prediction pixel and the reconstructed prediction residual to reconstruct a decoded pixel, and decoding For an image decoding apparatus including an image output means 300 for outputting pixels and an accumulation means 41 for accumulating reconstructed decoded pixels (decoded pixels), unit blocks for decoding are further sequentially included in the blocks. Decrypt And it is configured to include an adaptive division means 40 for dividing the small regions of the eye.
当該各手段の概要は次の通りである。ここで、図1及び図2で機能ブロックが同様の処理を行うことで対応し、信号の流れが共通となる部分を一括で説明するために、図1の機能ブロック又は信号に対応する図2の機能ブロック又は信号を括弧でくくって併記した「加算器19(加算器39)」や「符号化済み画素(復号済み画素)」などの記載を用いる。 The outline of each means is as follows. Here, FIG. 2 corresponding to the functional block or signal of FIG. 1 is described in order to collectively explain the portion where the functional flow in FIG. 1 and FIG. A description such as “adder 19 (adder 39)” or “encoded pixel (decoded pixel)” in which the functional blocks or signals are enclosed in parentheses is used.
差分器13には、画像入力手段10より送られる符号化対象領域の入力画素と、予測手段11の予測情報を用いて補償手段12から送られる符号化済み画素から予測された予測画素とが入力される。当該入力に対して差分器13は、入力画素と予測画素との差分を予測残差として算出する。予測残差は変換手段14に送られる。 The subtracter 13 receives the input pixel of the encoding target region sent from the image input unit 10 and the predicted pixel predicted from the encoded pixel sent from the compensation unit 12 using the prediction information of the prediction unit 11. Is done. For the input, the differentiator 13 calculates the difference between the input pixel and the prediction pixel as a prediction residual. The prediction residual is sent to the conversion means 14.
加算器19(加算器39)には、逆変換手段18(逆変換手段38)から送られる予測残差と、補償手段12(補償手段32)から送られる符号化済み画素(復号済み画素)から予測された予測画素とが入力される。当該入力に対して加算器19(加算器39)は、予測残差と予測画素との合計を符号化済み画素(復号済み画素)として算出する。 The adder 19 (adder 39) receives the prediction residual sent from the inverse transform unit 18 (inverse transform unit 38) and the encoded pixel (decoded pixel) sent from the compensation unit 12 (compensation unit 32). The predicted pixel that has been predicted is input. The adder 19 (adder 39) calculates the sum of the prediction residual and the prediction pixel as an encoded pixel (decoded pixel) for the input.
当該算出された符号化済み画素(復号済み画素)は蓄積手段21(蓄積手段41)に累積的に蓄積され、符号化構成(図1)においては予測手段11、補償手段12及び適応分割手段20からの参照を受ける一方、復号構成(図2)においては画像出力手段300へ出力されまた蓄積手段41を介して補償手段32からの参照を受ける。 The calculated encoded pixels (decoded pixels) are accumulated in the accumulation means 21 (accumulation means 41), and in the coding configuration (FIG. 1), the prediction means 11, the compensation means 12, and the adaptive division means 20 are stored. On the other hand, in the decoding configuration (FIG. 2), it is output to the image output means 300 and also received from the compensation means 32 via the storage means 41.
変換手段14は、差分器13から入力された予測残差を直交変換によって周波数領域に変換し、当該直交変換によって得られた変換係数を量子化手段15に出力する。直交変換としてはDCT乃至DCTの近似変換またはDWTなどを利用することができる。 The transforming unit 14 transforms the prediction residual input from the differentiator 13 into the frequency domain by orthogonal transform, and outputs the transform coefficient obtained by the orthogonal transform to the quantizing unit 15. As the orthogonal transform, DCT to DCT approximate transform or DWT can be used.
量子化手段15は、変換手段14から入力された変換係数を量子化する。量子化によって得られた量子化値は、符号化手段16及び逆量子化手段17に出力される。量子化処理に用いられる量子化パラメータは、定数値の組み合わせとして設定することが可能である。または、変換係数の情報量に応じて制御することで出力するビットレートを一定に保つことも可能である。 The quantization unit 15 quantizes the transform coefficient input from the transform unit 14. The quantized value obtained by the quantization is output to the encoding means 16 and the inverse quantization means 17. The quantization parameter used for the quantization process can be set as a combination of constant values. Alternatively, the output bit rate can be kept constant by controlling according to the information amount of the transform coefficient.
符号化手段16は、量子化手段15から送られた量子化値、予測手段11から送られた予測情報(点線矢印で図示)及び適応分割手段20から送られた後述する分割種の情報(点線で図示)を符号化し、符号情報として出力する。符号化は、符号間の冗長性を取り除く可変長符号又は算術符号などを利用することができる。予測情報の符号化に際しては、後述のように分割種の情報に応じて異なる符号を割り当てることもできる。 The encoding unit 16 includes a quantized value sent from the quantizing unit 15, prediction information sent from the prediction unit 11 (illustrated by a dotted arrow), and division type information (dotted line) sent from the adaptive dividing unit 20, which will be described later. Is encoded) and output as code information. For the encoding, a variable length code or an arithmetic code that removes redundancy between codes can be used. In encoding the prediction information, different codes can be assigned according to the division type information as described later.
ここで、入力画像の各ピクチャ(フレーム)は、後述する適応分割手段20で設定された分割種による分割で定まる小領域毎に符号化手段16により符号化が行われる。なお、入力画像は一連のフレームからなる動画であっても、単一のフレームからなる静止画であってもよい。 Here, each picture (frame) of the input image is encoded by the encoding means 16 for each small region determined by the division by the division type set by the adaptive division means 20 described later. The input image may be a moving image composed of a series of frames or a still image composed of a single frame.
復号手段31は、符号入力手段30からの符号情報を受け、符号化手段の逆の手順としての可変長復号を行うことで量子化値、分割種の情報及び予測情報を出力する。可変長復号によって得られた量子化値、予測情報及び分割種の情報はそれぞれ逆量子化手段37、補償手段32及び適応分割手段40に送られる。なお、当該復号(復号済み画素として画像出力手段300及び蓄積手段41に至るまでの復号)も、上述の小領域毎に行われる。 The decoding unit 31 receives the code information from the code input unit 30 and outputs a quantized value, division type information, and prediction information by performing variable length decoding as the reverse procedure of the encoding unit. The quantization value, the prediction information, and the division type information obtained by the variable length decoding are sent to the inverse quantization unit 37, the compensation unit 32, and the adaptive division unit 40, respectively. Note that the decoding (decoding up to the image output means 300 and the storage means 41 as decoded pixels) is also performed for each of the above-described small regions.
逆量子化手段17(逆量子化手段37)は、量子化処理の逆の処理を行うことで、符号化構成(図1)においては量子化手段17から、復号構成(図2)では復号手段31から送られた量子化値を変換係数に逆量子化する。逆量子化によって得られた変換係数は逆変換手段18(逆変換手段38)に送られる。 The inverse quantization means 17 (inverse quantization means 37) performs the reverse process of the quantization process, so that the quantization means 17 in the coding configuration (FIG. 1) and the decoding means in the decoding configuration (FIG. 2). The quantized value sent from 31 is inversely quantized into a transform coefficient. The transform coefficient obtained by inverse quantization is sent to the inverse transform means 18 (inverse transform means 38).
逆変換手段18(逆変換手段38)は、直交変換の逆の処理を行うことで、逆量子化手段から送られた変換係数を逆直交変換する。逆変換によって得られた予測残差は加算器19(加算器39)に送られる。 The inverse transform unit 18 (inverse transform unit 38) performs an inverse orthogonal transform on the transform coefficient sent from the inverse quantization unit by performing an inverse process of the orthogonal transform. The prediction residual obtained by the inverse transformation is sent to the adder 19 (adder 39).
予測手段11は、画像の冗長性を削減するための予測情報を決定するものであり、蓄積手段21に蓄積された符号化済み画素を参照して、後述する適応分割手段20で設定された領域(分割された各小領域)の入力信号を近似するための情報を予測情報として決定する。決定された予測情報は補償手段12及び符号化手段16(点線矢印で図示)に送られる。 The prediction unit 11 determines prediction information for reducing the redundancy of the image. The prediction unit 11 refers to the encoded pixels stored in the storage unit 21 and is an area set by the adaptive division unit 20 described later. Information for approximating the input signal of (each divided small area) is determined as prediction information. The determined prediction information is sent to the compensation means 12 and the encoding means 16 (illustrated by dotted arrows).
予測手段11における予測情報の決定については、各予測モードで個別に符号化し、符号量と歪量から算出される符号化コストを最小化する予測モードを選択する。符号化コストを最小化する方式の詳細については、非特許文献1に記載されている。 Regarding the determination of the prediction information in the prediction means 11, a prediction mode is selected that is individually encoded in each prediction mode and minimizes the encoding cost calculated from the code amount and the distortion amount. Details of the method for minimizing the coding cost are described in Non-Patent Document 1.
予測モードについては、従来からの各種のものが利用できる。例えば、H.264 ではIntra 予測(画面内予測)が利用されている。図3に単位ブロックのサイズが4×4の場合のH.264画面内予測の9種類の予測モードを示す。当該9種類の予測モードを利用してもよいし、非特許文献1等に開示の単位ブロックのサイズが8×8や16×16の場合の予測モードを利用してもよい。 Various types of prediction modes can be used. For example, H.264 uses Intra prediction (intra-screen prediction). FIG. 3 shows nine types of prediction modes for H.264 intra prediction when the unit block size is 4 × 4. The nine types of prediction modes may be used, or the prediction mode in the case where the unit block size disclosed in Non-Patent Document 1 or the like is 8 × 8 or 16 × 16 may be used.
なお、本発明において予測及び符号化までの対応する各処理の適用は単位ブロックをさらに分割した小領域毎に行われる。ここで小領域は後述のように、矩形に設定される。小領域毎の予測の適用については、従来の各手法にて定義されている、予測に用いる画素と予測される画素との位置関係及び算出関係を当該小領域に限定して、又は拡張して適用することで予測を行うことができる。 In the present invention, the corresponding processes up to prediction and encoding are performed for each small area obtained by further dividing the unit block. Here, the small area is set to a rectangle as will be described later. Regarding the application of prediction for each small region, the positional relationship and calculation relationship between the pixel used for prediction and the predicted pixel defined in each conventional method is limited to or expanded by the small region. Application can make predictions.
例として、4×4画面内予測の予測モード0(垂直予測)及び予測モード2(平均値予測)を小領域に適用する場合の例を図4に示す。図4の(1)が従来の4×4画面内予測の予測モード0であり、4×4単位ブロックB01内の各画素は垂直方向に予測される。すなわち、ブロックB01上端の4×1(=横方向画素数×縦方法画素数、以下説明において同様)の領域の各画素(a)(b)(c)及び(d)の値がそれぞれ、下方の1×4の各領域(A)(B)(C)及び(D)の予測値として採用される。また図4の(4)が従来の4×4画面内予測の予測モード2であり、4×4単位ブロックB01の全ての画素に対する共通の予測値が、隣接する逆L字型領域(a)〜(d)及び(e)〜(i)の平均値となる。 As an example, FIG. 4 shows an example in which prediction mode 0 (vertical prediction) and prediction mode 2 (average value prediction) of 4 × 4 intra prediction are applied to a small region. (1) in FIG. 4 is the prediction mode 0 of the conventional 4 × 4 intra prediction, and each pixel in the 4 × 4 unit block B01 is predicted in the vertical direction. That is, the values of the respective pixels (a), (b), (c), and (d) in the area of 4 × 1 (= horizontal pixel number × vertical method pixel number, the same applies in the following description) at the upper end of the block B01 are respectively Are used as predicted values for each of the 1 × 4 regions (A), (B), (C), and (D). Also, (4) in FIG. 4 is the prediction mode 2 of the conventional 4 × 4 intra prediction, and the common prediction value for all the pixels of the 4 × 4 unit block B01 is the adjacent inverted L-shaped region (a). It is an average value of ~ (d) and (e) ~ (i).
図4の(2)及び(3)に、(1)で説明した予測モード0を小領域の例であるR02及びR03に適用する場合を示す。(2)では小領域R02は2×1の領域で画素(X1)及び(Y1)からなる。当該領域R02への垂直予測(4×4単位ブロックB01よりも小さい領域へ限定した予測適用)により、画素(X1)及び(Y1)の予測値はそれぞれ、垂直上方に存在する符号化済み画素(a)及び(b)の画素値となる。 (2) and (3) in FIG. 4 show cases where the prediction mode 0 described in (1) is applied to R02 and R03, which are examples of small regions. In (2), the small region R02 is a 2 × 1 region and is composed of pixels (X1) and (Y1). Due to the vertical prediction to the region R02 (prediction application limited to a region smaller than the 4 × 4 unit block B01), the predicted values of the pixels (X1) and (Y1) are encoded pixels ( The pixel values are a) and (b).
また(3)では小領域R03は2×6の領域であり、当該領域を2個の1×6の画素領域(X2)及び(Y2)に分けて示している。当該領域R03への垂直予測(4×4単位ブロックB01を超える部分を含んで拡張した予測適用)により、画素領域(X2)及び(Y2)の各画素の予測値はそれぞれ、垂直上方に存在する画素(a)及び(b)の画素値となる。 In (3), the small region R03 is a 2 × 6 region, and the region is divided into two 1 × 6 pixel regions (X2) and (Y2). Due to the vertical prediction to the region R03 (the prediction application expanded including the portion exceeding the 4 × 4 unit block B01), the prediction values of the pixels in the pixel regions (X2) and (Y2) are present vertically above, respectively. The pixel values of the pixels (a) and (b) are obtained.
以上(2)及び(3)の場合において、共通で予測に用いる画素(a)及び(b)は、それぞれ小領域R02及びR03に対応することで(1)の場合よりも限定されている。 In the cases (2) and (3) above, the pixels (a) and (b) that are commonly used for prediction are more limited than those in the case (1) by corresponding to the small regions R02 and R03, respectively.
図4の(5)及び(6)にそれぞれ、(2)及び(3)と同様の小領域R02及びR03に対して、(4)で説明した予測モード2を適用する場合を示す。(5)では、小領域R02の各画素を対応する隣接領域画素(a)(b)(e)及び(f)の平均値として予測する。当該隣接画素領域は、小領域R02に対応することで(4)の場合と比べて限定されている。 (5) and (6) in FIG. 4 show cases where the prediction mode 2 described in (4) is applied to small regions R02 and R03 similar to (2) and (3), respectively. In (5), each pixel of the small region R02 is predicted as an average value of the corresponding adjacent region pixels (a), (b), (e), and (f). The adjacent pixel region is limited compared to the case of (4) by corresponding to the small region R02.
(6)では、小領域R03の各画素を対応する隣接領域画素(a)(b)及び(e)乃至(k)の平均値として予測する。当該隣接画素領域は、小領域R03に対応することで(4)の場合と比べて(c)(d)の部分が限定され、また(j)(k)の部分が拡張されている。 In (6), each pixel in the small region R03 is predicted as an average value of the corresponding adjacent region pixels (a), (b), and (e) to (k). Since the adjacent pixel region corresponds to the small region R03, the portions (c) and (d) are limited and the portions (j) and (k) are expanded as compared with the case of (4).
また以上の図4の例と同様にして、図3に示すその他の予測モードにおいても、小領域の形状が4×4ではない一般の場合であっても、隣接領域画素の小領域に対応した限定乃至拡張と当該対応に合わせた各予測モードにおける予測値の算出法の適用とによって予測を行うことができる。 Similarly to the example of FIG. 4 described above, in the other prediction modes shown in FIG. 3, even in the general case where the shape of the small region is not 4 × 4, it corresponds to the small region of the adjacent region pixel. Prediction can be performed by limitation or expansion and application of a prediction value calculation method in each prediction mode in accordance with the correspondence.
すなわち、図4の(7)に示すように、小領域R04がサイズa×bであれば、予測に用いる符号化済み画素の領域としての隣接画素領域は、当該小領域の上方の辺に隣接するa×1の領域R05と、当該小領域の左方の辺に隣接する1×bの領域R06と、領域R05及びR06の両者をつなぐ領域R04の対角上の1×1の領域R07とを設定すればよい。また4×4の画面内予測の予測モード3又は7を適用する際には領域R05を右方へ拡張し、4×4の画面内予測の予測モード8を適用する際は領域R06を下方へ拡張する等すればよい。当該小領域のサイズに対応した隣接画素領域を用いて、各予測モードによる予測値の算出を行えばよい。 That is, as shown in (7) of FIG. 4, when the small region R04 is size a × b, the adjacent pixel region as the region of the encoded pixel used for prediction is adjacent to the upper side of the small region. An a × 1 region R05, a 1 × b region R06 adjacent to the left side of the small region, and a 1 × 1 region R07 on the diagonal of the region R04 connecting both the regions R05 and R06 Should be set. In addition, when applying prediction mode 3 or 7 of 4 × 4 intra prediction, region R05 is expanded to the right, and when applying prediction mode 8 of 4 × 4 intra prediction, region R06 is downward. What is necessary is just to expand. The prediction value in each prediction mode may be calculated using the adjacent pixel region corresponding to the size of the small region.
さらに同様に、H.264における4×4、8×8及び16×16のサイズにおける予測モードは、本発明においては単位ブロックが別サイズの場合に利用してもよい。例えば本発明においては単位ブロックをサイズ64×64に設定して、H.264における4×4の9種類からなる予測モードを、当該サイズ64×64内の各小領域に適用するようにしてもよい。 Furthermore, similarly, prediction modes in the sizes of 4 × 4, 8 × 8, and 16 × 16 in H.264 may be used when the unit block has a different size in the present invention. For example, in the present invention, the unit block is set to a size of 64 × 64, and the prediction modes consisting of 9 types of 4 × 4 in H.264 are applied to each small region within the size 64 × 64. Good.
補償手段12(補償手段32)は、蓄積手段21(蓄積手段41)を参照して得られる符号化済み画素(復号済み画素)及び予測手段11で決定された予測情報(復号手段31で復号された予測情報)に基づいて、後述する適応分割手段20(適応分割手段40)で設定された小領域における入力画素の近似値としての予測画素を生成する。生成された予測画素は、符号化構成(図1)においては差分器13及び加算器19へ送られる。一方、復号構成(図2)においては加算器39へ送られる。 The compensation unit 12 (compensation unit 32) is a coded pixel (decoded pixel) obtained by referring to the storage unit 21 (storage unit 41) and prediction information determined by the prediction unit 11 (decoded by the decoding unit 31). Based on the prediction information), a prediction pixel is generated as an approximate value of the input pixel in the small region set by the adaptive division means 20 (adaptive division means 40) described later. The generated prediction pixel is sent to the differentiator 13 and the adder 19 in the encoding configuration (FIG. 1). On the other hand, it is sent to the adder 39 in the decoding configuration (FIG. 2).
本発明の画像符号化装置1の特徴的構成である適応分割手段20による小領域への分割について説明する。 The division into small areas by the adaptive dividing means 20 which is a characteristic configuration of the image encoding device 1 of the present invention will be described.
適応分割手段20の役割は、後段の予測手段11及び補償手段12において符号化対象ブロックを小領域単位で予測・補償するために、当該符号化対象ブロックに最適な小領域への分割を選択して分割することにある。ただし、仮に当該符号化対象ブロックを任意形状に分割したとすると、形状の情報を符号化する必要が生じてしまうため、符号化効率を改善できないという問題がある。この問題を解決するため、次の制約[1]〜[4]の全ての下で構成される分割を用いる、又は当該制約下の分割の中からさらに選択するという手順を取る。 The role of the adaptive division means 20 is to select a division into small regions that is most suitable for the current block in order to predict and compensate the current block in units of small regions in the prediction means 11 and the compensation means 12 in the subsequent stage. To divide. However, if the encoding target block is divided into arbitrary shapes, it is necessary to encode the shape information, and there is a problem that the encoding efficiency cannot be improved. In order to solve this problem, a procedure is used in which a partition configured under all of the following constraints [1] to [4] is used or further selected from the partitions under the constraint.
[1]小領域が全て矩形
[2]分割された小領域の総数がn個以下
[3]小領域の最大サイズがu以上又は最小サイズv以上
[4]最小サイズtの小領域の数がm個以下
[1] All small areas are rectangular
[2] The total number of divided small areas is n or less
[3] The maximum size of the small area is u or more or the minimum size v or more
[4] The number of small areas with the minimum size t is m or less
上記[1]〜[4]において、n,u,v,t及びmはそれぞれ所定の自然数である。また、小領域のサイズは画素数として定義する。例えば2×2の小領域と1×4の小領域とは共に画素数が4のため同じサイズであり、3×2の小領域と1×5の小領域とでは3×2の小領域の方がサイズが大きい。 In the above [1] to [4], n, u, v, t, and m are predetermined natural numbers. The size of the small area is defined as the number of pixels. For example, both the 2 × 2 small area and the 1 × 4 small area have the same size because the number of pixels is 4, and the 3 × 2 small area and the 1 × 5 small area have the same size as the 3 × 2 small area. The size is larger.
具体例として、単位ブロックのサイズが16x16の場合、
n=8; u = 12×8又は8×12; v = 8×4又は4×8; t =4×4;m = 4
とすると、5398種類の分割方法がある。また、上記の条件でn = 4 とすれば258 種類の分割、n = 3 とすれば49 種類の分割がある。
As a specific example, if the unit block size is 16x16,
n = 8; u = 12 × 8 or 8 × 12; v = 8 × 4 or 4 × 8; t = 4 × 4; m = 4
Then, there are 5398 types of division methods. Further, under the above conditions, if n = 4, there are 258 types of division, and n = 3, there are 49 types of division.
このように、一般的な制約[1]〜[4]下で各パラメータとしてのn,u,v,t及びmに所定の値を設定して求めた分割を利用してもよいし、当該分割に対してさらなる選択として、マニュアルで類似した分割を代表して1つにまとめる等した分割を利用してもよい。このようにして事前に用意しておき、適応分割手段20で選択できるようにしておく分割の仕方の各々を分割種、当該ひとまとまりの分割種の組み合わせを分割種のセットと呼ぶこととする。分割種のセットの例を図5、図6及び図7に示す。 In this way, the division obtained by setting predetermined values to n, u, v, t, and m as parameters under general constraints [1] to [4] may be used. As a further selection for the division, a division such as combining the divisions on behalf of the similar divisions manually may be used. In this way, each of the division methods prepared in advance and made available for selection by the adaptive division means 20 is called a division type, and a combination of the group of division types is called a division type set. Examples of the set of division types are shown in FIGS.
図5に示す分割種のセットは、分割種A0〜A11の全12種類からなる。図6に示す分割種のセットは、分割種B0〜B27の全28種類からなる。また図7に示す分割種のセットは、分割種C0〜C32の33種類として示されているが、これは上記のn = 4 とし全258 種類の分割を、回転や対称でまとめた各代表としての分割種を示したものである。図7では、全ての分割種に当該分割種の適用による単位ブロックの分割によって、n個の小領域が生ずることを[n分割]として併記している。また図7では、点線を用いて描かれている分割種については点線のいずれか1本以上を実際に分割する実線として選ぶことで、併記する分割数の小領域を与える分割種となる。 The set of divided types shown in FIG. 5 is composed of a total of 12 types of divided types A0 to A11. The set of divided types shown in FIG. 6 is composed of a total of 28 types of divided types B0 to B27. In addition, the set of division types shown in FIG. 7 is shown as 33 types of division types C0 to C32. This is the above-mentioned n = 4, and all 258 types of divisions are summarized as rotations and symmetry as representatives. This shows the divided species. In FIG. 7, the fact that n small regions are generated by dividing a unit block by applying the division type to all the division types is also shown as [n division]. In FIG. 7, the division type drawn using the dotted line is a division type that gives a small area with the number of divisions to be written by selecting any one or more of the dotted lines as a solid line that is actually divided.
図8は図7の補足説明として、例えば図7の分割種C4がどのようにまとめられているかを示す図である。3つの点線D0、E0又はF0の中から1本を選ぶことで、分割数が3となる分割種がそれぞれD1、E1又はF1と定まる。またこれら分割種D1、E1及びF1を90°、180°、270°回転(時計回り)したものも全て異なる分割種であり、分割種D2乃至F4として定まる。このように、分割種C4は点線の中から1本を選び且つ回転を考えることで、分割種D1乃至分割種F4の12個の分割種をまとめて表したものである。 FIG. 8 is a diagram showing how, for example, the division types C4 of FIG. 7 are collected as a supplementary explanation of FIG. By selecting one of the three dotted lines D0, E0, or F0, the division type with the division number of 3 is determined as D1, E1, or F1, respectively. In addition, those divided types D1, E1, and F1 rotated by 90 °, 180 °, and 270 ° (clockwise) are all different divided types, and are determined as divided types D2 to F4. In this way, the division type C4 is a group of twelve division types, ie, the division type D1 to the division type F4, by selecting one of the dotted lines and considering rotation.
上記分割種C4のようにまとめて表記することで、図7は258種からなる分割種のセットの例を示している。図5及び図6はそれぞれ、当該258種の分割種のセットから類似した分割種を1つにまとめることで作成された分割種のセットの例である。なお、図7は上記説明のように単位ブロックを16×16として作成された分割種のセットであるが、相似拡大又は縮小により、16×16とは別サイズの単位ブロックに用いてもよい。図5及び図6も同様である。 FIG. 7 shows an example of a set of 258 divided types by collectively expressing the divided type C4. FIG. 5 and FIG. 6 are examples of a set of divided types created by combining similar divided types from the set of 258 types of divided types. Although FIG. 7 shows a set of division types created with unit blocks of 16 × 16 as described above, it may be used for unit blocks of a size different from 16 × 16 by similar enlargement or reduction. The same applies to FIGS. 5 and 6.
本発明においては上記制約[1]〜[4]のもとさらにマニュアル選択される好ましい分割種セットの特徴の例として、(1)正方形の単位ブロック全体をそのまま1個の小領域とする分割種(例えば図5の分割種A0)と、単位ブロックよりも小さい正方形及び当該正方形に接する非正方形を小領域として含む分割種(例えばA4,A6,A9,A11)とを含むセット、がある。当該(1)によれば単位ブロックサイズが固定されていても、画像に応じて当該画像内で適応的にブロックサイズを可変とするのと同等の効果が得られる。 In the present invention, as an example of a feature of a preferable division type set that is further manually selected under the above constraints [1] to [4], (1) a division type in which the entire square unit block is directly used as one small region There is a set including a division type (for example, A4, A6, A9, and A11) that includes a square smaller than the unit block and a non-square that touches the square as a small region (for example, division type A0 in FIG. 5). According to (1), even if the unit block size is fixed, the same effect as that in which the block size is adaptively changed in the image according to the image can be obtained.
また、好ましい分割種セットの特徴の例として(2)小領域同士の境界線が横方向のみ(分割種A2など)及び/又は縦方向のみ(分割種A3など)の分割種を含むセット、がある。(1)且つ(2)とすることでさらに多様な画像に対応して符号化効率を高めることができる。 Further, as an example of a feature of a preferable division type set, (2) a set including a division type whose boundary line between small areas is only in the horizontal direction (division type A2 or the like) and / or only in the vertical direction (division type A3 or the like). is there. By setting (1) and (2), it is possible to increase the encoding efficiency corresponding to more various images.
以上のように、適応分割手段20では、予め所与の分割種のセットを保持しておき、当該セットに含まれる各分割種で個別に符号化し、符号量と歪量から算出される符号化コストを最小化する分割種を選択する。当該選択の具体的なフローすなわち、入力画像を構成する単位ブロック毎に分割種を選択して符号化を行うフローを図9に示す。 As described above, the adaptive division unit 20 holds a set of given division types in advance, and individually encodes each division type included in the set, and calculates from the code amount and the distortion amount. Select the split type that minimizes the cost. FIG. 9 shows a specific flow of the selection, that is, a flow for performing encoding by selecting a division type for each unit block constituting the input image.
当該フローは、各単位ブロックiにつき、全ての分割種jで分割を試み、各分割種jに含まれる小領域kの各々で最小の符号化コストを与える予測情報を適用して分割種jによる単位ブロックiの符号化コストを求め、最小の符号化コストを与える分割種を求めるものである。なお、各ステップにおいてカウンタi、j及びkを管理し、各機能ブロックに連係した動作を行わせる主体は画像符号化装置1自身、特に当該装置1に含まれる制御手段(図1には不図示)である。 The flow tries to divide each unit block i by all the division types j, and applies the prediction information that gives the minimum coding cost in each of the small regions k included in each division type j, depending on the division type j. The encoding cost of the unit block i is obtained, and the division type that gives the minimum coding cost is obtained. Note that the entity that manages the counters i, j, and k in each step and performs the operation linked to each functional block is the image encoding device 1 itself, in particular, the control means included in the device 1 (not shown in FIG. 1). ).
ステップS0でフローが開始され、ステップS1では単位ブロックのカウンタiが初期値0に設定される。ステップS2ではi番目の単位ブロックが画像入力手段10より画像符号化装置1へと読み込まれる。ステップS3では、適応分割手段20に予め設定されている所与の分割種のセットに含まれる各分割種に対するカウンタjが初期値の0に設定される。 In step S0, the flow is started. In step S1, the unit block counter i is set to the initial value 0. In step S2, the i-th unit block is read into the image encoding device 1 from the image input means 10. In step S3, the counter j for each division type included in a given division type set preset in the adaptive division means 20 is set to an initial value of zero.
ステップS4では、j番目の種類の分割種jにより定められる複数の小領域(当該複数は1個のみの場合も含む)へと、適応分割手段20がi番目の単位ブロックを分割する。当該分割は単位ブロックiに対する最小の符号化コストを算出するためのいわば仮分割であり、実際に符号化し、画像符号化装置1全体の出力として符号出力手段100へ送るための分割はこれら仮分割の中から以降のステップにて決定される。ステップS5では、分割種jに含まれる各小領域に対するカウンタkが初期値の0に設定される。 In step S4, the adaptive division means 20 divides the i-th unit block into a plurality of small regions (including a case where only one is included) defined by the j-th type of division type j. The division is a provisional division for calculating the minimum coding cost for the unit block i, and the division for actually encoding and sending to the code output means 100 as the output of the entire image coding apparatus 1 is the provisional division. It is determined in the following steps from among the above. In step S5, the counter k for each small region included in the division type j is set to an initial value of 0.
ステップS6では、符号化対象の画素で構成される当該k番目の小領域kに対して最小の符号化コストとなる予測情報を、予測手段11が決定する。当該コスト算出に際しては前述の通り、予測手段11が予測情報の各々すなわち各予測モードmにつき当該小領域kの符号化コストc(m)を求めて、当該コストを最小とする予測モードm=mkを予測情報として決定する。 In step S <b> 6, the prediction unit 11 determines prediction information that provides the minimum encoding cost for the k-th small region k configured by the encoding target pixels. In calculating the cost, as described above, the prediction unit 11 obtains the encoding cost c (m) of the small region k for each prediction information, that is, each prediction mode m, and the prediction mode m = m that minimizes the cost. k is determined as prediction information.
なお当該決定はステップS4での説明と同様、いわば仮決定である。ステップS6ではまた、続くk+1番目以降の小領域の予測情報の仮決定が行えるようにするため、当該仮決定された予測モードmkに従って予測手段11乃至加算器19が各処理を行うことで、蓄積手段21に当該小領域kの仮決定に係る符号化済み画素が蓄積される。当該蓄積される符号化済み画素も、ステップS4の説明と同様に仮決定のものであって、符号出力手段100に送られる最終決定の符号化済み画素とは一般には一致しない。 The determination is a provisional determination as described in step S4. In step S6, the prediction means 11 to the adder 19 perform each process according to the temporarily determined prediction mode m k so that the prediction information of the subsequent k + 1-th and subsequent small regions can be provisionally determined. Thus, the encoded pixel relating to the temporary determination of the small region k is stored in the storage unit 21. The stored encoded pixels are provisionally determined as described in step S4 and generally do not match the final determined encoded pixels sent to the code output means 100.
ステップS7では、全ての小領域kにつき符号化の処理が完了したかの判断が行われる。未処理の小領域が残っていればステップS8にてカウンタkを加算して次の符号化対象の小領域に対して再度ステップS6で仮決定及び対応する符号化を続ける。分割種jの定める全ての小領域kにつきステップS6が完了すれば、ステップS7よりステップ9へ進む。 In step S7, it is determined whether or not the encoding process has been completed for all the small areas k. If an unprocessed small area remains, the counter k is added in step S8, and the provisional determination and the corresponding encoding are continued again in step S6 for the next small area to be encoded. If step S6 is completed for all the small regions k determined by the division type j, the process proceeds from step S7 to step 9.
なお、各分割種jの各小領域kには、上記順次符号化するための順序も予め定められているものとする。図10に、当該順序の例を示す。ここでは図6の分割種B24が例として示されており、4つの小領域(a)(b)(c)(d)に分割されている。この場合、符号化の順は小領域に付与したアルファベット順に(a)(b)(c)(d)であってもよく(第一の場合)、(a)(c)(d)(b)であってもよく(第二の場合)、いずれかが予め定められている。 It is assumed that the order for the sequential encoding is determined in advance for each small region k of each division type j. FIG. 10 shows an example of the order. Here, the division type B24 of FIG. 6 is shown as an example, and is divided into four small regions (a) (b) (c) (d). In this case, the encoding order may be (a) (b) (c) (d) in alphabetical order given to the small regions (first case), (a) (c) (d) (b (In the second case), one of which is predetermined.
上記第一の場合は、縦方向を符号化済みの領域で満たしながら順次横方向へ進むスタイルであり、上記第二の場合は、横方向を符号化済みの領域で満たしながら順次縦方向へ進むスタイルである。他の符号化済み単位ブロックと接している最も左上の小領域から開始して、上記第一又は第二のいずれかのスタイル又はその混合スタイルを各分割種につき設定すればよい。なお、適用可能な予測モードに制限が生じてしまうので、途中に単位ブロック内で符号化済みの小領域群が符号化前の領域を挟んで離れて現れるような順序(途中で符号化済み小領域群が単連結領域ではなくなる場合が生ずるような順序)は設定しない。図10であれば例えば、(a)(d)(c)(b)等の順序は設定しない。 The first case is a style in which the vertical direction is sequentially filled with the encoded region and sequentially proceeds in the horizontal direction, and the second case is the case in which the horizontal direction is filled with the encoded region and the vertical direction is sequentially advanced. Style. The first style or the second style or a mixed style may be set for each division type, starting from the upper leftmost small area in contact with another encoded unit block. In addition, since the applicable prediction mode is limited, an order in which a small region group that has already been encoded in the unit block appears apart from the region before encoding in the middle (in the middle, encoded small No order is set so that the region group may not be a single connected region. In FIG. 10, for example, the order of (a) (d) (c) (b) and the like is not set.
ステップS9では、当該分割種jで単位ブロックiを分割した場合の符号化コストCjを当該分割種jの各小領域kの符号化コストc(mk)の和Σc(mk)として算出し、記憶しておく。 In step S9, the encoding cost C j when the unit block i is divided by the division type j is calculated as the sum Σc (m k ) of the encoding cost c (m k ) of each small region k of the division type j. And remember.
ステップS10では、全ての分割種jに対してステップS4乃至S9の処理が完了したか判断され、完了していなければステップS11にてカウンタjを加算して未処理の分割種につきステップS4から繰り返す。完了していればステップS12に進み、実際に符号化に用いる分割種jを決定する。当該決定においては、各分割種jにつきステップS9で求められた符号化コストCj=Σc(mk)が最小となる分割種が選択される。 In step S10, it is determined whether or not the processing in steps S4 to S9 has been completed for all of the division types j. . If completed, the process proceeds to step S12, and the division type j actually used for encoding is determined. In this determination, the division type that minimizes the coding cost C j = Σc (m k ) obtained in step S9 is selected for each division type j.
ステップS12ではまた、最終決定した分割種jによる小領域k毎に単位ブロックiを実際に符号化し、符号出力手段100及び蓄積手段21に送る。この際、当該最終決定された分割種jについてもステップS6で符号化コストを算出する際に各小領域kを予測手段11乃至蓄積手段21で処理して既に符号化しているので、当該符号を保持していれば改めて符号化を行う必要はない。 In step S 12, the unit block i is actually encoded for each small region k based on the finally determined division type j, and sent to the code output unit 100 and the storage unit 21. At this time, also for the final determined division type j, each subregion k is already processed and encoded by the prediction unit 11 to the storage unit 21 when the encoding cost is calculated in step S6. If it is held, there is no need to re-encode.
ステップS13では全ての単位ブロックiにつき分割種jの決定及び当該決定に従う符号化の処理が行われたかが判定される。完了していればステップS15へ進みフローは終了し、完了していなければステップS14へ進みカウンタiを加算してステップS2へ戻り、次の単位ブロックにつき処理を繰り返す。 In step S13, it is determined whether the division type j is determined for all the unit blocks i and the encoding process according to the determination is performed. If completed, the process proceeds to step S15, and the flow ends. If not completed, the process proceeds to step S14, the counter i is added, the process returns to step S2, and the process is repeated for the next unit block.
なお、単位ブロックのサイズは所定のサイズが定められており、動画の各フレーム又は静止画に対してカウンタiにより順次ラスタースキャン順でステップS2において読み込まれる。 The unit block has a predetermined size, and each frame or still image of the moving image is sequentially read by the counter i in raster scan order in step S2.
図11は、以上の図9のフローにおいて仮決定の各分割種にて符号化コストを算出した後、最小コストの分割種を最終決定することで、実際に符号出力手段100が受け取るストリームデータとしての符号情報の発生する順序を説明するフロー図である。 FIG. 11 shows the stream data actually received by the code output means 100 by calculating the encoding cost for each provisionally determined division type in the flow of FIG. 9 and finally determining the minimum cost division type. It is a flowchart explaining the order that the code | symbol information generate | occur | produces.
ステップS20でフローが開始すると、ステップS21で単位ブロックのカウンタiが初期値の0に設定される。ステップS22で当該単位ブロックiの符号化が開始する。ステップS23では、最終決定により単位ブロックiに対して適用される分割種j=j(i)の情報などが符号化される。ステップS24では、当該分割種j(i)により定まる各小領域kが順次、符号化される。当該符号化においては、予測情報(適用された予測モード)及び量子化値が符号化される。当該量子化値は、当該予測情報に従って補償手段12乃至量子化手段15によって順に予測画素、予測残差、変換係数、量子化値と加工されて得られたものである。 When the flow starts in step S20, the counter i of the unit block is set to the initial value 0 in step S21. In step S22, encoding of the unit block i starts. In step S23, information of the division type j = j (i) applied to the unit block i by the final determination is encoded. In step S24, each small region k determined by the division type j (i) is sequentially encoded. In the encoding, prediction information (applied prediction mode) and a quantized value are encoded. The quantization value is obtained by processing the prediction pixel, the prediction residual, the transform coefficient, and the quantization value in order by the compensation unit 12 to the quantization unit 15 according to the prediction information.
なお、当該各小領域kの符号化順序は、図10で説明した通り、分割j(i)において所与の順序が定まっている。すなわち、前ステップS23にて符号化された分割種j=j(i)の情報に当該符号化順序の情報も含まれる。 Note that, as described with reference to FIG. 10, the encoding order of each small region k is determined in a given order in the division j (i). That is, the information of the encoding order is included in the information of the division type j = j (i) encoded in the previous step S23.
全ての小領域kを符号化すると、ステップS25で当該単位ブロックiの符号化が完了する。ステップS26では全ての単位ブロックiの符号化が完了したかの判断が行われ、未完了であればステップS27へ進んでカウンタiを加算して次の単位ブロックにつきステップS22から繰り返す。ステップS26で完了していればステップS28へ進み、終了する。 When all the small areas k are encoded, the encoding of the unit block i is completed in step S25. In step S26, it is determined whether or not the encoding of all the unit blocks i has been completed. If it has not been completed, the process proceeds to step S27, the counter i is added, and the process is repeated from step S22 for the next unit block. If completed in step S26, the process proceeds to step S28 and ends.
図12は適応分割手段20の細部の機能ブロック図であり、図13は補償手段12の細部の機能ブロック図である。適応分割手段20は、分割種セット保持部201、符号化済みチャネル情報記憶部202、分割種識別番号付与部203及び予測情報識別番号付与部204を含み、当該各部は適応分割手段20の追加的機能を担う。補償手段12は、小領域単位一括補償部121、画素単位反復補償部122及び切替部123を含み、当該各部は補償手段12の追加的機能を担う。以下、これらの各部の機能について説明する。 FIG. 12 is a detailed functional block diagram of the adaptive dividing means 20, and FIG. 13 is a detailed functional block diagram of the compensating means 12. The adaptive division unit 20 includes a division type set holding unit 201, a coded channel information storage unit 202, a division type identification number assigning unit 203, and a prediction information identification number assignment unit 204, each of which is an additional part of the adaptive division unit 20. Take on the function. The compensation unit 12 includes a small area unit collective compensation unit 121, a pixel unit iterative compensation unit 122, and a switching unit 123, and each unit bears an additional function of the compensation unit 12. Hereinafter, the functions of these units will be described.
分割種セット保持部201は、符号化の単位ブロックのサイズに応じて異なる所定の分割種のセットを複数保持する。ここで特に、サイズの大きな単位ブロックに対応するセットほど含まれる分割種の数が多く、逆にサイズの小さな単位ブロックに対応するセットほど含まれる分割種の数が少ないという関係を満たすような所与の複数のセットを保持する。 The division type set holding unit 201 holds a plurality of sets of predetermined division types that differ depending on the size of the encoding unit block. In particular, a set that satisfies the relationship that a set corresponding to a larger unit block includes a larger number of division types, and conversely, a set corresponding to a smaller unit block includes a smaller number of division types. Hold a given set.
例えば、単位ブロックのサイズが4×4、16×16及び64×64の3種類であれば、最小のサイズ4×4に対応する分割種のセットは図5に示した全12種類の第一のセットであり、中間のサイズ16×16に対応する分割種のセットは図6に示した全27種類の第二のセットであり、最大のサイズ64×64に対応する分割種のセットは図7に示した全258種類の第三のセットであってよい。 For example, if the size of the unit block is 3 × 4 × 4, 16 × 16, and 64 × 64, the set of division types corresponding to the minimum size 4 × 4 is the first of all 12 types shown in FIG. The set of division types corresponding to the intermediate size 16 × 16 is the second set of all 27 types shown in FIG. 6, and the set of division types corresponding to the maximum size 64 × 64 is shown in FIG. The third set of all 258 types shown in FIG.
当該関係を満たすセットの利用により、より大きなサイズは制御情報が占める割合が比較的小さいので、分割数を多く設定し、より小さなサイズには少なく設定することで、各サイズにおいて効率的な符号化が行われるという効果がある。なお同様に本発明では、非正方の矩形も含む多彩な分割を分割種のセットとして用意するため、基本的には単位ブロックのサイズは比較的大きく設定することが望ましい。 By using a set that satisfies this relationship, the proportion of control information occupied by a larger size is relatively small. Therefore, by setting a larger number of divisions and a smaller number for a smaller size, efficient coding is possible for each size. Is effective. Similarly, in the present invention, since various divisions including a non-square rectangle are prepared as a set of division types, it is basically desirable to set the unit block size to be relatively large.
実際にいずれのサイズの単位ブロック及び対応する分割種セットを利用するかは、マニュアル設定でもよいし、静止画であれば全ての単位ブロックのサイズ(及び対応する分割種セット)で符号化を試みて、その中から符号化コストの最小となるものを利用するようにしてもよい。動画であれば最初のフレーム又は所定間隔のフレーム毎で上記静止画と同様に最小となるものを求めて、以降のフレームは当該単位サイズを利用するようにしてもよい。 The actual unit block size and corresponding division type set to be used may be set manually, or if it is a still image, encoding is attempted with all unit block sizes (and corresponding division type sets). Of these, the one with the lowest coding cost may be used. In the case of a moving image, the minimum frame size may be obtained for each of the first frame or every frame at a predetermined interval, and the unit size may be used for the subsequent frames.
符号化済みチャネル情報記憶部202は、各単位ブロックにつき図9のフローによって符号化済みの第一のチャネルの画素に対して最終決定され選択された分割種の情報と、当該分割種に含まれる各小領域において適用された予測情報とを記憶し、当該単位ブロックにおける符号化前の第二のチャネルの画素を符号化するに際して、記憶されている第一のチャネルにおける分割種と対応する各小領域の予測情報とをそのまま適用できるようにする。 The encoded channel information storage unit 202 includes information on the division type finally determined and selected for the pixel of the first channel encoded by the flow of FIG. 9 for each unit block and the division type. The prediction information applied in each small area is stored, and when encoding the pixel of the second channel before encoding in the unit block, each small element corresponding to the stored division type in the first channel is stored. The prediction information of the area can be applied as it is.
当該適用の例を図14に示す。ここでは例として三原色のRGBチャネルにおいて、(1)に示す第一のチャネルであるG信号のフレームと、(3)に示す第二のチャネルであるR信号のフレームとが示されている。(1)に示すように、G信号の単位ブロックIG0は図9のフローにより既に符号化済みである。単位ブロックのサイズは4×4であり、分割種のセットとしては図5のセットを利用し、予測モードは図3の予測モードを利用することで、当該単位ブロックIG0は(2)に示すように分割種A1により4個の2×2小領域に分割され、各々の小領域にはラスタースキャン順に予測モード0,1,2及び3が適用されている。 An example of this application is shown in FIG. Here, as an example, in the RGB channel of the three primary colors, the G signal frame which is the first channel shown in (1) and the R signal frame which is the second channel shown in (3) are shown. As shown in (1), the unit block IG0 of the G signal has already been encoded by the flow of FIG. The size of the unit block is 4 × 4, the set of FIG. 5 is used as the set of division types, and the prediction mode is the prediction mode of FIG. 3, so that the unit block IG0 is as shown in (2). Are divided into four 2 × 2 small areas by the division type A1, and prediction modes 0, 1, 2, and 3 are applied to each small area in the raster scan order.
当該符号化の結果(2)を符号化済みチャネル情報記憶部202が記憶することで、符号化済みの第一のチャネルの単位ブロックIG0と同位置及び同時刻の、(3)に示す符号化前の第二のチャネルの単位ブロックIR0には(2)と同じ分割種及び各小領域の予測情報が(4)に示すように適用される。なお動画像を想定してフレームとして説明しているが、静止画であってもよい。 The encoded channel information storage unit 202 stores the result (2) of the encoding so that the encoding shown in (3) at the same position and the same time as the unit block IG0 of the encoded first channel The same division type and prediction information of each small region as in (2) are applied to the unit block IR0 of the previous second channel as shown in (4). In addition, although it has been described as a frame assuming a moving image, it may be a still image.
当該適用により、第二のチャネルにおいては図9のループL1及びループL2を省略することができる。すなわち、各分割種につき各小領域の符号化コストを最小にする予測情報を求めて(ループL2)、各分割種のうちの符号化コストを最小にする分割種を求める(ループL1)ことを省略して、計算負荷を低減することができる。また通常信号のチャネル間には相関があるので、当該省略が符号化効率に悪影響を与えることは少ない。 With this application, the loop L1 and the loop L2 in FIG. 9 can be omitted in the second channel. That is, the prediction information that minimizes the coding cost of each small region is obtained for each division type (loop L2), and the division type that minimizes the coding cost of each division type is obtained (loop L1). By omitting, the calculation load can be reduced. Further, since there is a correlation between channels of normal signals, the omission has little adverse effect on coding efficiency.
また当該適用により、符号量も減らすことができる。すなわち、第一のチャネル及び第二のチャネルで共有される分割種の情報および各小領域の予測情報と、第一のチャネルの(予測残差から算出された)量子化値と、第二のチャネルの(予測残差から算出された)量子化値とを符号化すればよいので、共有された部分の符号量が第一と第二のチャネルとで別個に符号化する場合よりも節約される。当該共有の旨はフラグ情報として一度符号化すれば、以降は共有に係る処理が継続されるようにしてもよい。さらに例えばB信号など、第三のチャネルについても同様に、分割種の情報及び各小領域の予測情報を第一のチャネルと共有して符号量を減らすと共に計算負荷を下げてもよい。 Also, the amount of code can be reduced by the application. That is, information on the division type shared by the first channel and the second channel and the prediction information of each small region, the quantization value (calculated from the prediction residual) of the first channel, and the second Since it is only necessary to encode the channel quantization value (calculated from the prediction residual), the amount of code of the shared part is saved compared to the case where the first and second channels are encoded separately. The Once the sharing is encoded as flag information, the processing related to sharing may be continued thereafter. Furthermore, for the third channel such as a B signal, the division type information and the prediction information of each small area may be shared with the first channel to reduce the code amount and reduce the calculation load.
分割種識別番号付与部203は、所定数の符号化対象単位ブロックを予め符号化した際の各分割種の選択された割合を記憶し、以降の符号化対象ブロックの符号化に際して用いる分割種セット内の各分割種の識別番号を再付与する。ここで当該再付与に際して、選択された割合が大きい分割種ほど小さい識別番号を再付与することで、以降の分割種もほぼ同様の割合で選択されるという仮定のもと、分割種の情報の符号量を低減することができる。 The division type identification number assigning unit 203 stores a selected ratio of each division type when a predetermined number of encoding target unit blocks are encoded in advance, and a division type set used when encoding the subsequent encoding target blocks The identification number of each division type is reassigned. Here, at the time of the re-assignment, the re-assignment of the smaller identification number to the divided type having a larger selected ratio allows the subsequent divided types to be selected at substantially the same rate. The amount of codes can be reduced.
例えば、分割種セットとして図5の分割種A0〜A11を用いて所定量の符号化を実施し、実際の符号化に際して最も多く選択された分割種が上位から順に分割種A3,A0,A1…であったとする。この場合、以降の符号化に際しては、分割種A3に識別番号0を付与し、分割種A0に識別番号1を付与し、分割種A1に識別番号2を付与し、…といったように付与することとなる。 For example, a predetermined amount of encoding is performed using the division types A0 to A11 of FIG. 5 as the division type set, and the division types most frequently selected in actual encoding are the division types A3, A0, A1,. Suppose that In this case, in the subsequent encoding, the identification number 0 is assigned to the division type A3, the identification number 1 is assigned to the division type A0, the identification number 2 is assigned to the division type A1, and so on. It becomes.
予測情報識別番号付与部204は、分割種識別番号付与部203と類似の符号量低減効果を奏する機能を担い、所定数の符号化対象単位ブロックを予め符号化した際の、分割種のセットに属する全ての分割種に含まれる小領域の各形状に対して決定された各予測モードの割合を記憶し、以降の符号化対象ブロックの符号化に際して用いる、小領域の各形状における予測モードの識別番号を再付与する。ここで当該再付与に際しては、各形状毎に別個の再付与を行い、選択された割合が大きい予測モードほど小さい識別番号を再付与することで、以降の予測モードも当該形状の小領域に対してほぼ同様の割合で選択されるという仮定のもと、予測モードの符号量を低減することができる。 The prediction information identification number assigning unit 204 has a function of achieving a code amount reduction effect similar to that of the division type identification number giving unit 203, and is used as a set of division types when a predetermined number of encoding target unit blocks are encoded in advance. Stores the ratio of each prediction mode determined for each shape of the small area included in all the division types to which it belongs, and identifies the prediction mode for each shape of the small area used in the encoding of the subsequent encoding target block Reassign the number. Here, in the reassignment, separate reassignment is performed for each shape, and a smaller identification number is reassigned to a prediction mode with a larger selected ratio, so that the subsequent prediction modes are also applied to small regions of the shape. Therefore, it is possible to reduce the code amount of the prediction mode under the assumption that almost the same ratio is selected.
図15は、当該各形状に対する予測モードの識別番号再付与を説明するための例を示す図である。図15のG1〜G12は、分割種のセットとして図5のA0〜A11を用いた場合の、小領域の各形状を表している。すなわち、A0〜A11の単位ブロックサイズが4×4であるとすれば、形状G1(サイズ4×4)は分割種A0に、形状G2(サイズ3×3)は分割種A4,A6,A9及びA11に、形状G3(サイズ2×2)は分割種A1に、形状G4(サイズ1×1)は分割種A4,A6,A9及びA11に、それぞれ少なくとも1個含まれる小領域の形状である。 FIG. 15 is a diagram illustrating an example for explaining reassignment of the identification number of the prediction mode for each shape. G1 to G12 in FIG. 15 represent the shapes of the small regions when A0 to A11 in FIG. 5 are used as the set of division types. That is, if the unit block sizes of A0 to A11 are 4 × 4, the shape G1 (size 4 × 4) is the division type A0, and the shape G2 (size 3 × 3) is the division types A4, A6, A9, and In A11, the shape G3 (size 2 × 2) is a shape of a small area included in the division type A1, and the shape G4 (size 1 × 1) is a shape of a small area included in each of the division types A4, A6, A9, and A11.
このような各形状と、当該形状の小領域を含む分割種との対応はテーブルT1に示すとおりである。なお上記と同様に単位ブロックのサイズを4×4とすると形状G5〜G12のサイズは次の通りである。
G5(サイズ3×2);G6(サイズ2×3);
G7(サイズ4×1);G8(サイズ3×1);G9(サイズ2×1);
G10(サイズ1×4);G11(サイズ1×3);G12(サイズ1×2)
The correspondence between each of these shapes and the division type including the small region of the shape is as shown in the table T1. Similarly to the above, if the size of the unit block is 4 × 4, the sizes of the shapes G5 to G12 are as follows.
G5 (size 3x2); G6 (size 2x3);
G7 (size 4 × 1); G8 (size 3 × 1); G9 (size 2 × 1);
G10 (size 1x4); G11 (size 1x3); G12 (size 1x2)
予測情報識別番号付与部204は、このような各形状毎に、決定された予測モードの割合を記憶する。例えば図3の予測モードを利用するとして、分割種A0に現れる形状G1については予測モード1が最も多く全体の8割決定され、分割種A4,A6,A9又はA11に現れる形状G2については予測モード2が最も多く全体の9割決定され、等といった各形状における各予測モードの決定割合を記憶する。そして、形状G1に適用される予測モードについては予測モード1に最も小さい識別番号を、形状G2に適用される予測モードについては予測モード2に最も小さい識別番号を付与する等して、予測モードの符号量を低減する。 The prediction information identification number assigning unit 204 stores the ratio of the determined prediction mode for each such shape. For example, assuming that the prediction mode of FIG. 3 is used, the prediction mode 1 is most frequently determined for the shape G1 appearing in the division type A0, and 80% of the whole is determined, and the prediction mode is used for the shape G2 appearing in the division type A4, A6, A9, or A11. 2 is the largest and 90% of the whole is determined, and the determination ratio of each prediction mode in each shape such as etc. is stored. For the prediction mode applied to the shape G1, the smallest identification number is assigned to the prediction mode 1, and for the prediction mode applied to the shape G2, the smallest identification number is assigned to the prediction mode 2. Reduce the amount of code.
なお、分割種識別番号付与部203及び予測情報識別番号付与部204においては、それぞれ識別番号を再付与するため予め符号化する所定数の符号化対象ブロックは、動画像であれば開始時刻の1フレーム、又は所定間隔のフレーム毎として、以降のフレームの符号化に際して当該再付与された識別番号を利用するようにしてよい。静止画であれば各静止画につきラスタースキャン順の若い側の所定数としてもよく、また、ある一枚の静止画全体を予め符号化しておいて以降読み込むその他の静止画に再付与の識別番号を適用してもよい。 In addition, in the division type identification number assigning unit 203 and the prediction information identification number assigning unit 204, a predetermined number of encoding target blocks to be pre-encoded in order to reassign the identification numbers are moving images having a start time of 1 For each frame or every frame at a predetermined interval, the re-assigned identification number may be used when encoding subsequent frames. If it is a still image, it may be a predetermined number on the younger side of the raster scan order for each still image, and an identification number for re-assignment to another still image that is encoded in advance and read afterwards. May be applied.
なおまた、当該所定数の符号化対象単位ブロックを予め符号化しておくに際しては、分割種識別番号付与部203では各分割種に対して、予測情報識別番号付与部204では各形状における各予測モードに対して、所与の初期値としての識別番号を付与しておく。 In addition, when the predetermined number of encoding target unit blocks are encoded in advance, the division type identification number assigning unit 203 uses each prediction type for each division type, and the prediction information identification number assignment unit 204 uses each prediction mode for each shape. Is given an identification number as a given initial value.
小領域単位一括補償部121は、各小領域に対する予測画素の生成を、図4等で説明したような通常の方式で行う。すなわち図4の(2)(3)のように隣接画素領域の画素の値を変えずにそのまま予測値とする、又は(5)(6)のように平均演算を施すなどして予測値とすることで、小領域に対してその全体を一括で予測画素を求める。 The small region unit collective compensation unit 121 generates a prediction pixel for each small region by a normal method as described with reference to FIG. That is, as shown in (2) and (3) in FIG. 4, the predicted value is obtained as it is without changing the value of the pixel in the adjacent pixel area, or the average calculation is performed as in (5) and (6). As a result, the prediction pixels are obtained for the entire small area at once.
これに対して、画素単位反復補償部122は、小領域に対して全体一括で予測画素を求めるのではなく、画素単位で予測画素を順次反復的に生成する。図16に当該反復生成を概念的に示す。図16では小領域B100の画素に対して図3の予測モード0における予測画素の反復生成を、時系列(1)〜(4)で示している。 On the other hand, the pixel unit repetitive compensation unit 122 does not obtain the prediction pixels for the entire small area at once, but sequentially generates the prediction pixels in units of pixels. FIG. 16 conceptually shows the iterative generation. In FIG. 16, the repeated generation of the prediction pixel in the prediction mode 0 of FIG. 3 is shown in time series (1) to (4) for the pixels in the small region B100.
(1)において画素P1は、予測モード0すなわち垂直予測における垂直方向で後方の近傍画素領域R1の重み付き平均として予測される。続いてP1から垂直方向の画素P2も、(2)に示すように近傍画素領域R2の重み付き平均として予測され、同様にP2の垂直方向の画素P3が(3)に示すように近傍画素領域R3の重み付き平均として予測され、さらにP3の垂直方向の画素P4が(4)に示すように近傍画素領域R4の重み付き平均として予測される。 In (1), the pixel P1 is predicted as a weighted average of the neighboring pixel region R1 rearward in the prediction mode 0, that is, in the vertical direction in the vertical prediction. Subsequently, the pixel P2 in the vertical direction from P1 is also predicted as a weighted average of the neighboring pixel region R2 as shown in (2), and similarly the pixel P3 in the vertical direction of P2 is predicted as the neighboring pixel region as shown in (3). The weighted average of R3 is predicted, and the pixel P4 in the vertical direction of P3 is predicted as the weighted average of the neighboring pixel region R4 as shown in (4).
一般に、距離の近いP1の画素値は隣接画素領域R1内の直近の画素の画素値と近く、距離の最も遠いP4の画素値はP1に対する隣接画素領域R1の画素値とは乖離が大きくなる傾向がある。よって特に最も遠いP4の画素値についてはR1のいずれかの画素を直接予測値とするのではなく、R1及びその他の領域の平均を採用した方が全体として符号化効率が高まることが多い。このことは特に単位ブロックのサイズが大きくなり小領域も大きくなる場合に、より顕著となる。 In general, the pixel value of P1 having a short distance is close to the pixel value of the nearest pixel in the adjacent pixel region R1, and the pixel value of P4 having the longest distance tends to be greatly different from the pixel value of the adjacent pixel region R1 with respect to P1. There is. Therefore, in particular, for the farthest pixel value of P4, it is often the case that the encoding efficiency increases as a whole when one of the pixels of R1 is not directly used as a predicted value but the average of R1 and other regions is adopted. This becomes more noticeable especially when the size of the unit block is increased and the small area is also increased.
画素単位反復補償部122によれば、上記の距離の近い画素と遠い画素との両者の全体を考慮した予測値を得るという効果を奏する。すなわち、符号化済みの隣接画素領域R1との距離が近い画素P1等の予測値は当該隣接画素領域R1の直近の画素値自体に近くなり、隣接画素領域R1との距離が遠い画素P4等の予測値は隣接画素領域R1等の平均値へ近くなる。当該効果は換言すれば、P1のような近い画素については図3の予測モード0(垂直予測)の効果が強く得られ、P4のような遠い画素については予測モード2(平均値予測)の効果が強く得られることで、小領域の全体としていわばハイブリッド方式の予測が適用され、符号化効率が高まるという効果である。 According to the pixel unit repetitive compensation unit 122, there is an effect of obtaining a predicted value in consideration of the whole of the pixel having the short distance and the pixel having the far distance. That is, the predicted value of the pixel P1 or the like that is close to the encoded adjacent pixel region R1 is close to the immediate pixel value itself of the adjacent pixel region R1, and is such as the pixel P4 that is far from the adjacent pixel region R1. The predicted value is close to the average value of the adjacent pixel region R1 and the like. In other words, the effect of the prediction mode 0 (vertical prediction) in FIG. 3 is strongly obtained for the close pixels such as P1, and the effect of the prediction mode 2 (average value prediction) is obtained for the distant pixels such as P4. Is strongly obtained, so that the prediction of the hybrid method is applied to the entire small region, and the coding efficiency is increased.
なお、図16の(2)〜(4)で予測値を求めるには、符号化対象の小領域B100に属するR2〜R4の予測値が求まっている必要があるが、次の具体例により当該予測値も求まることが説明される。図17及び図18に、画素単位反復補償部122による反復補償の具体例を示す。図17では(A)の座標値が付記された画素x(1,0)〜x(4,0)及びx(0,1)〜x(0,3)が符号化済みの隣接画素領域であり、符号化対象の小領域は座標値が付記された画素y(1,1)〜y(3,3)のサイズ3×3の領域である。またy(1,1)の上部に付記した[1]等は、当該小領域内で反復補償が実行される順番を示す。 In order to obtain the predicted values in (2) to (4) of FIG. 16, it is necessary to obtain the predicted values of R2 to R4 belonging to the small region B100 to be encoded. It is explained that a predicted value is also obtained. 17 and 18 show specific examples of iterative compensation by the pixel unit iterative compensation unit 122. FIG. In FIG. 17, pixels x (1,0) to x (4,0) and x (0,1) to x (0,3) to which the coordinate value of (A) is added are encoded adjacent pixel regions. In other words, the small region to be encoded is a region of size 3 × 3 of pixels y (1,1) to y (3,3) to which coordinate values are added. In addition, [1] and the like added to the upper part of y (1,1) indicate the order in which the iterative compensation is performed within the small region.
また、(B)は各画素y(i,j)を予測するに際して重み付け平均を行う画素の位置と、重み付けの係数の例とを示している。すなわち、予測に用いる画素は例えば位置が(i-1, j-1), (i, j-1), (i+1, j-1)の符号化済み画素x又は予測済み画素yであり、それぞれの位置の画素に対する重み付け係数が1/4, 1/2, 1/4である。方向D10は予測の方向であり、当該例では図3の予測モード0(垂直予測)で反復補償を行う。以上(A)(B)の説明より、以下のように順次、反復予測が行われる。 Further, (B) shows the positions of pixels for which weighted averaging is performed when predicting each pixel y (i, j), and examples of weighting coefficients. That is, the pixels used for prediction are, for example, the encoded pixel x or the predicted pixel y at positions (i-1, j-1), (i, j-1), (i + 1, j-1). The weighting coefficients for the pixels at the respective positions are 1/4, 1/2, and 1/4. A direction D10 is a prediction direction, and in this example, iterative compensation is performed in the prediction mode 0 (vertical prediction) in FIG. From the description of (A) and (B) above, iterative prediction is performed sequentially as follows.
[1] y(1,1)=x(0,0)/4 + x(1,0)/2 + x(2,0)/4
[2] y(2,1) = x(1,0)/4 + x(2,0)/2 + x(3,0)/4
[3] y(3,1) = x(2,0)/4 + x(3,0)/2 + x(4,0)/4
[4] y(1,2) = x(0,1)/4 + y(1,1)/2 + y(2,1)/4
[5] y(2,2) = […以下同様であり省略]
[1] y (1,1) = x (0,0) / 4 + x (1,0) / 2 + x (2,0) / 4
[2] y (2,1) = x (1,0) / 4 + x (2,0) / 2 + x (3,0) / 4
[3] y (3,1) = x (2,0) / 4 + x (3,0) / 2 + x (4,0) / 4
[4] y (1,2) = x (0,1) / 4 + y (1,1) / 2 + y (2,1) / 4
[5] y (2,2) = [... the same applies below and is omitted]
このように、(B)に示す方向D10の垂直予測の場合であれば、予測値を求める画素y(i,j)に対して、D10に垂直な直線L10の後方の領域R10が符号化済み画素x又は予測済み画素yの領域となるように、(A)に示すように当該L10の方向に並ぶ画素を順次[1]〜[3]と予測しながら、[1],[4],[7]のようにD10の方向へと進めていけばよい。 As described above, in the case of the vertical prediction in the direction D10 shown in (B), the region R10 behind the straight line L10 perpendicular to D10 is already encoded with respect to the pixel y (i, j) for which the prediction value is obtained. [1], [4], [1], [4], and [1] to [3] while sequentially predicting the pixels arranged in the direction of the L10 as shown in (A) so as to be the region of the pixel x or the predicted pixel y. Just go in the direction of D10 as shown in [7].
同様のことが可能であればR10内の所望の領域を所望の係数によって重み付けして予測を行ってもよい。当該例では重み付け係数は図中の各位置に対して1/4, 1/2, 1/4と固定したが、当該係数及び予測に用いる画素の位置は予測値を求める画素毎に変動させてもよい。 If the same is possible, the prediction may be performed by weighting a desired region in R10 with a desired coefficient. In this example, the weighting coefficient is fixed to 1/4, 1/2, 1/4 for each position in the figure, but the coefficient and the position of the pixel used for prediction are changed for each pixel for which the prediction value is obtained. Also good.
特に、上記例では[6]番目にy(3,2)を予測する際にy(4,1)の位置の画素が以降の符号化対象ブロック又は小領域に属する場合が多く一般には利用できないので、重み付け係数が1/4, 1/2, 1/4及び予測に用いる画素の位置を修正して、例えば次のように予測する。
[6] y(3,2) = {y(2,1)/4 + y(3,1)/2} × (4/3)
また、[9]番目のy(3,3)についてもy(4,2)が一般には利用できないので上記と同様にすればよい。なお、当該小領域が図10の(2)の順序における(b)のような位置にあれば上記y(4,1)やy(4,2)も符号化済み画素として利用できるので、その他の画素と同様に係数1/4, 1/2, 1/4を用いて予測してよい。
In particular, in the above example, when predicting y (3,2) for the [6] th, the pixel at the position of y (4,1) often belongs to the subsequent encoding target block or small region and is not generally available. Therefore, the weighting coefficient is 1/4, 1/2, 1/4 and the position of the pixel used for prediction is corrected, and prediction is performed as follows, for example.
[6] y (3,2) = {y (2,1) / 4 + y (3,1) / 2} × (4/3)
In addition, since [9] -th y (3,3) cannot be generally used, it may be the same as described above. If the small region is at a position as shown in (b) in the order of (2) in FIG. 10, y (4,1) and y (4,2) can also be used as encoded pixels. The prediction may be performed using the coefficients 1/4, 1/2, and 1/4 as in the case of the pixels.
なお、符号化済み画素から画素の位置が遠ざかるにつれ、その予測値が符号化済み画素領域の平均値へと収束していく必要がある。よって、各画素の予測値を求めるための各重み付け係数αは0≦α≦1であって、且つ予測に用いる全画素での係数の和が1であるという条件を課すことが好ましい。 Note that as the pixel position moves away from the encoded pixel, the predicted value needs to converge to the average value of the encoded pixel region. Therefore, it is preferable to impose a condition that each weighting coefficient α for obtaining a predicted value of each pixel is 0 ≦ α ≦ 1, and the sum of coefficients in all pixels used for prediction is 1.
図18は図3における予測モード4における反復補償の例であり、予測の方向は(B)の方向D20として示され、(A)に示す符号化済み隣接画素領域及び符号化対象の小領域は図17と共通である。この場合、図17での反復補償との差異点として、(A)に示すように反復補償の順序が変わること、(B)に示すように予測に用いる画素の位置及び重み付け係数が変わること、が挙げられるが、方向D20が図1の方向D10から45°異なるためである。この場合も同様に、以下のように順次反復補償を行うことができる。 FIG. 18 is an example of iterative compensation in the prediction mode 4 in FIG. 3, the direction of prediction is shown as a direction D20 in (B), and the encoded adjacent pixel region and the small region to be encoded shown in (A) are This is common with FIG. In this case, as a difference from the iterative compensation in FIG. 17, the order of the iterative compensation is changed as shown in (A), the position of the pixel used for prediction and the weighting coefficient are changed as shown in (B), This is because the direction D20 differs from the direction D10 in FIG. 1 by 45 °. In this case as well, iterative compensation can be performed sequentially as follows.
[1] y(1,1) = x(0,1)/2 + x(1,0)/2
[2] y(1,2) = x(0,2)/2 + y(1,1)/2
[3] y(2,1) = y(1,1)/2 + x(2,0)/2
[4] y(1,3) = x(0,3)/2 + y(1,2)/2
[5] y(2,2) = […以下同様であり省略]
[1] y (1,1) = x (0,1) / 2 + x (1,0) / 2
[2] y (1,2) = x (0,2) / 2 + y (1,1) / 2
[3] y (2,1) = y (1,1) / 2 + x (2,0) / 2
[4] y (1,3) = x (0,3) / 2 + y (1,2) / 2
[5] y (2,2) = [... the same applies below and is omitted]
ここでは、(B)に示すように予測の方向D20と垂直な直線L20の後方の領域R20が符号化済み画素x又は予測済み画素yの領域となるように、(A)に示すように当該L20の方向に並ぶ画素を順次予測しつつ、D20の方向へと進めていけばよく、当該予測の方向に対する予測の順序の設定は図17と同様である。各係数の設定変更等についても図17と同様である。 Here, as shown in (A), the region R20 behind the straight line L20 perpendicular to the prediction direction D20 as shown in (B) becomes the region of the encoded pixel x or the predicted pixel y, as shown in (A). What is necessary is just to advance to the direction of D20, predicting the pixel lined up in the direction of L20 sequentially, and the setting of the order of prediction with respect to the direction of the said prediction is the same as that of FIG. The setting change of each coefficient is the same as in FIG.
図17及び図18の例と同様にして、図3のその他の方向の予測モードにおいても反復予測を実行することができる。なお、予測モード2(平均値予測)の適用に際しては、当該モードでは予測の方向が定義されないため、反復予測は省略され、小領域の全画素の予測値として平均値を採用する。 Similar to the examples of FIGS. 17 and 18, iterative prediction can be performed in the prediction modes in the other directions of FIG. 3. Note that when applying prediction mode 2 (average value prediction), the prediction direction is not defined in this mode, so that iterative prediction is omitted, and the average value is adopted as the prediction value of all pixels in the small region.
なお、画素単位反復補償部122による予測画素の生成に際しては、上記のような画素毎の反復的な計算を行う結果として、小領域内の各点yにつき符号化済みの隣接画素領域の各画素xに対して所与の重み係数を掛けて足し合わせた値が、予測値として用いられることとなる。ここで当該所与の重み係数は、当該画素yと画素xとの距離が大きいほど小さく、また当該画素xから画素yへ至る方向が予測モードの定める方向と揃っているほど大きくなるという性質を有する。 In addition, when generating the prediction pixel by the pixel unit repetitive compensation unit 122, as a result of performing the repetitive calculation for each pixel as described above, each pixel in the adjacent pixel region that has been encoded for each point y in the small region A value obtained by multiplying x by a given weighting factor is used as a predicted value. Here, the given weighting coefficient has a property that the smaller the distance between the pixel y and the pixel x, the smaller the weight coefficient, and the larger the direction from the pixel x to the pixel y that is aligned with the direction defined by the prediction mode. Have.
反復計算を行う代わりに、上記の各画素xから各画素yを予測する係数を予め求めて一括で予測画素を求めてもよいが、当該係数はマトリクス状であり且つ小領域の形状と予測モードとのペア毎に用意する必要があるため、図17の係数1/4, 1/2, 1/4等と比べると符号量の点で不利となる。係数1/4, 1/2, 1/4等であれば、小領域の形状と予測モードとの全ペアに対して、予測対象の画素からの相対位置が、各予測モードの定める方向における所定の位置となる画素に対して当該係数1/4, 1/2, 1/4等を共通で用いることができるので、符号量が少なくなる。 Instead of performing iterative calculation, a coefficient for predicting each pixel y from each of the above-mentioned pixels x may be obtained in advance, and the predicted pixels may be obtained in a lump. Therefore, it is disadvantageous in terms of code amount compared to the coefficients 1/4, 1/2, 1/4, etc. in FIG. If the coefficients are 1/4, 1/2, 1/4, etc., the relative position from the pixel to be predicted is predetermined in the direction defined by each prediction mode for all pairs of the shape of the small area and the prediction mode. Since the coefficients 1/4, 1/2, 1/4, etc. can be used in common for the pixel at the position of, the amount of code is reduced.
切替部123は、小領域単位一括補償部121と画素単位反復補償部122とのいずれを符号化のために用いるかを切り替える。切り替えの判断としては、各小領域毎に小領域単位一括補償部121を適用した場合と画素単位反復補償部122を適用した場合とでの前記符号化コストを比較して、コストの低い方に切り替える。すなわち図9のステップS9を、各予測モードでの小領域単位一括補償部121の適用と、各予測モードでの画素単位反復補償部122の適用と、について行い、最小コストの場合を求めることとなる。 The switching unit 123 switches which of the small region unit collective compensation unit 121 and the pixel unit iterative compensation unit 122 is used for encoding. As the switching determination, the coding cost is compared between the case where the small region unit collective compensation unit 121 is applied for each small region and the case where the pixel unit iterative compensation unit 122 is applied. Switch. That is, step S9 of FIG. 9 is performed for the application of the small region unit collective compensation unit 121 in each prediction mode and the application of the pixel unit iterative compensation unit 122 in each prediction mode, and obtaining the case of the minimum cost. Become.
図19は、画像復号装置3にて各単位ブロックの各小領域毎に順次復号を行うフローの図である。図19の各ステップ(S30〜S38)は図11の各ステップ(S20〜S28)とそれぞれ対応する。 FIG. 19 is a flowchart of the sequential decoding for each small area of each unit block in the image decoding apparatus 3. Each step (S30 to S38) in FIG. 19 corresponds to each step (S20 to S28) in FIG.
ステップS30でフローを開始し、ステップS31では復号を行う単位ブロックのカウンタiを初期値0に設定し、ステップS32で単位ブロックiの復号を開始する。ステップS33では復号手段31が図11のステップS23で符号化された符号情報を復号し、対応する情報を得る。 In step S30, the flow is started. In step S31, the counter i of the unit block to be decoded is set to an initial value 0, and decoding of the unit block i is started in step S32. In step S33, the decoding unit 31 decodes the code information encoded in step S23 of FIG. 11, and obtains corresponding information.
すなわちステップS33では、単位ブロックiを復号するための前提の情報としての、当該単位ブロックiに適用された分割種j=j(i)の情報などを得る。当該情報には前述の通り、分割種を構成する各小領域kの位置及び形状並びに復号順序の情報などが含まれる。 That is, in step S33, information on the division type j = j (i) applied to the unit block i is obtained as the premise information for decoding the unit block i. As described above, the information includes information on the position and shape of each small region k constituting the division type, decoding order, and the like.
ステップS34では、小領域kを順次復号する。このため復号手段31は、各小領域kにつきステップS24で順次符号化された情報を順次復号して、予測情報(適用された予測モード)及び量子化値を得る。 In step S34, the small area k is sequentially decoded. Therefore, the decoding unit 31 sequentially decodes the information sequentially encoded in step S24 for each small region k, and obtains prediction information (applied prediction mode) and a quantization value.
当該予測情報には、小領域kに適用された予測モードの情報や、小領域単位一括補償部121と画素単位反復補償部122とのいずれを適用したかの情報や、画素単位反復補償部122適用であればその係数の情報などが含まれる。また、符号化済みチャネル情報記憶部202を利用した場合には、分割種の情報に第一及び第二のチャネルでの共有の旨の情報が含まれる。 The prediction information includes information on the prediction mode applied to the small region k, information on which of the small region unit collective compensation unit 121 and the pixel unit iterative compensation unit 122 is applied, and the pixel unit iterative compensation unit 122. If applicable, information about the coefficient is included. When the encoded channel information storage unit 202 is used, the division type information includes information indicating sharing with the first and second channels.
ステップS34では小領域kを復号して復号済み画素として画像出力手段300へ送ると、k+1以降の小領域を順次復号するため、蓄積手段41に蓄積する。この際、(復号側)逆量子化手段37乃至蓄積手段41は符号化装置1側の対応する機能ブロックと同様に機能する。ただし、(復号側)適応分割手段40等は、(符号化側)適応分割手段20等における図9のフローのような全ての分割種での分割等を試みる必要はない。 In step S34, when the small area k is decoded and sent as decoded pixels to the image output means 300, the small areas after k + 1 are sequentially stored in the storage means 41 for decoding. At this time, the (decoding side) inverse quantization means 37 to storage means 41 function in the same manner as the corresponding functional blocks on the encoding apparatus 1 side. However, it is not necessary for the (decoding side) adaptive division means 40 and the like to attempt division or the like in all division types as in the flow of FIG. 9 in the (encoding side) adaptive division means 20 and the like.
すなわちステップS34では、適応分割手段40は復号された分割種j=j(i)に従って単位ブロックi内に小領域kを、復号を行う単位となる領域として再設定するのみでよい。補償手段32は当該再設定された小領域kに対して、蓄積手段41の復号済み画素と復号された予測情報とを用いて、予測画素を復号する。また加算器39が、復号された予測残差と復号された予測画素とを加算して、復号画素とする。当該復号された予測残差は、復号された量子化値を逆量子化手段37及び逆変換手段38で処理することで得られる。 That is, in step S34, the adaptive dividing means 40 only needs to reset the small area k in the unit block i as an area to be decoded according to the decoded division type j = j (i). The compensation unit 32 decodes the predicted pixel for the reset small region k using the decoded pixel of the storage unit 41 and the decoded prediction information. The adder 39 adds the decoded prediction residual and the decoded prediction pixel to obtain a decoded pixel. The decoded prediction residual is obtained by processing the decoded quantized value by the inverse quantization unit 37 and the inverse transform unit 38.
ステップS34で全ての小領域kにつき処理が終わると、ステップS35において単位ブロックiの復号が完了し、ステップS36では全ての単位ブロックが処理完了したか確認する。未完了であればステップS37にてカウンタiを加算し、次の単位ブロックに対して再びステップS32から繰り返し処理を行う。完了であればステップS38へ進み、フローは終了する。 When the processing is completed for all the small areas k in step S34, the decoding of the unit block i is completed in step S35, and it is confirmed in step S36 whether all the unit blocks have been processed. If incomplete, the counter i is added in step S37, and the next unit block is repeated from step S32. If completed, the process proceeds to step S38, and the flow ends.
なお、画像符号化装置1側にて図12に示す適応分割手段20の各細部の機能ブロック(符号化済みチャネル情報記憶部202以外)を利用した場合は、初期値i=0又は各機能ブロックの適用された所定のiにおける単位ブロックの復号開始ステップS32において対応する各情報を復号して、単位ブロックのサイズや予測モードへの識別番号割り当てなどにつき、符号化装置1側で符号化したのと同設定としたうえで復号を行えばよい。 When each functional block (other than the encoded channel information storage unit 202) of the adaptive division unit 20 shown in FIG. 12 is used on the image encoding device 1 side, the initial value i = 0 or each functional block The corresponding information is decoded in the unit block decoding start step S32 to which i is applied, and the encoding apparatus 1 side encodes the unit block size, the identification number assignment to the prediction mode, and the like. Decoding should be performed with the same setting as in FIG.
以上、本発明の画像符号化装置1によれば、各単位ブロックの分割に際して、予め指定された非正方形状を含む小領域へ適応的に分割するとともに、小領域に応じた予測手段及び符号化・復号手段を適用することで、符号化効率が向上する。 As described above, according to the image encoding device 1 of the present invention, when each unit block is divided, the unit block is adaptively divided into small areas including a non-square shape designated in advance, and prediction means and encoding according to the small areas are performed. -Encoding efficiency is improved by applying decoding means.
特に、本発明では図5〜図7のような多彩な分割種を用意しておくことで、例えば図5のセットを用いる場合であれば、画素値が平坦な領域では自動的に分割種A0のような広い小領域の分割種が選択され、画素値の変化の激しい領域では分割種A2,A3,A1等の細かい小領域の分割種が選択され、またそれらの中間的な領域に最適な小領域を含む分割種も適宜選択される。このようにして、単位ブロックのサイズが固定されていても、画素値の分布に応じて単位ブロックのサイズが自動可変するのと同等の効果が得られる。 In particular, in the present invention, by preparing various division types as shown in FIGS. 5 to 7, for example, in the case of using the set of FIG. 5, the division type A0 is automatically obtained in a region where the pixel value is flat. Such as the division type A2, A3, A1, etc. are selected in the region where the pixel value changes drastically, and is optimal for an intermediate region between them. A division type including a small region is also appropriately selected. In this way, even if the size of the unit block is fixed, the same effect as that of automatically changing the size of the unit block according to the distribution of pixel values can be obtained.
また小領域の形状も符号量が過度に増えないような前記制約[1]〜[4]のもとで多彩に用意しておき、且つ図9のフローにおいて、各分割種jの各小領域kに対して各予測モードmで符号化コストc(m)を試算する。この際、小領域kの形状によって利用できる予測モードmに制限を設けることをせず、共通に用いられる予測モードmの全ての中から最適なものを選ぶようにしているので、符号化効率が向上する。 Also, the shape of the small area is prepared in a variety of ways under the above constraints [1] to [4] so that the code amount does not increase excessively, and in the flow of FIG. Coding cost c (m) is estimated for each prediction mode m for k. In this case, since there is no restriction on the prediction mode m that can be used depending on the shape of the small region k, the optimum one is selected from all of the commonly used prediction modes m. improves.
例えば図3の予測モードのもと、図5のサイズ4×1の横長の小領域が4個含まれる分割種A2を適用する場合、一般的には直近の画素が値が近いことが多いので予測モード0(垂直予測)が良い予測値を与える場合が多いが、本発明ではこの逆の場合で例えば画素が遠くなる予測モード1(水平予測)が良い予測値を与える場合その他にも対応して、符号化効率を高めることができる。 For example, in the prediction mode of FIG. 3, when the division type A2 including four horizontally long small areas of size 4 × 1 in FIG. 5 is applied, generally the nearest pixel is often close in value. In many cases, the prediction mode 0 (vertical prediction) gives a good prediction value.In the present invention, however, the opposite is true.For example, the prediction mode 1 (horizontal prediction) in which the pixels are far away gives a good prediction value. Thus, encoding efficiency can be increased.
1…画像符号化装置、11…予測手段、12…補償手段、13…差分器、14…変換手段、15…量子化手段、16…符号化手段、17…逆量子化手段、18…逆変換手段、19…加算器、20…適応分割手段、21…蓄積手段、3…画像復号装置、31…復号手段、37…逆量子化手段、38…逆変換手段、39…加算器、32…補償手段、40…適応分割手段、41…蓄積手段 DESCRIPTION OF SYMBOLS 1 ... Image coding apparatus, 11 ... Prediction means, 12 ... Compensation means, 13 ... Differentiator, 14 ... Conversion means, 15 ... Quantization means, 16 ... Encoding means, 17 ... Dequantization means, 18 ... Inverse transformation Means 19: Adder 20 ... Adaptive division means 21 ... Storage means 3 ... Image decoding device 31 ... Decoding means 37 ... Inverse quantization means 38 ... Inverse transform means 39 ... Adder 32 ... Compensation Means, 40 ... adaptive division means, 41 ... storage means
Claims (9)
予測情報に基づいて各画素の予測画素を生成する補償手段とを備え、
当該各画素とその予測画素との間で差分処理を行って得られた予測残差に対して直交変換及び量子化を行って量子化値となし、単位ブロック毎に符号化を行う画像符号化装置において、
単位ブロックの複数の小領域への分割を定める分割種のセットの中から分割種を選択して分割する適応分割手段を備え、
前記選択された分割種において分割して得られた小領域の各々を構成する画素につき順次、前記予測手段が予測情報を決定し、前記補償手段が予測画素を生成することにより、前記単位ブロック毎に符号化を行うに際して、単位ブロック毎に選択された分割種の情報が符号化され且つ小領域毎に量子化値及び予測情報が符号化されることを特徴とする画像符号化装置。 Prediction means for determining prediction information for predicting each pixel from an encoded pixel for each pixel of a unit block composed of a plurality of pixels;
Compensating means for generating a prediction pixel of each pixel based on the prediction information,
Image coding that performs orthogonal transformation and quantization on the prediction residual obtained by performing difference processing between each pixel and its prediction pixel to produce a quantized value and performs coding for each unit block In the device
Adaptive division means for selecting and dividing a division type from a set of division types that determine division into a plurality of small areas of a unit block;
For each unit block, the prediction unit sequentially determines prediction information and the compensation unit generates a prediction pixel for each pixel constituting each of the small regions obtained by the division in the selected division type. An image encoding apparatus characterized in that when encoding is performed, information of a division type selected for each unit block is encoded, and a quantized value and prediction information are encoded for each small region.
前記複数保持されたセットにおいて対応する単位ブロックのサイズが大きいセットほど当該セットに属する分割種の数が多いことを特徴とする請求項1ないし3のいずれかに記載の画像符号化装置。 The adaptive division unit includes a division type set holding unit, and the division type set holding unit holds a plurality of sets of the division types for each unit block size, so that the adaptive division unit stores a unit block to be encoded. Select the division type from the set according to the size,
The image coding apparatus according to any one of claims 1 to 3, wherein a set having a larger unit block size in the plurality of retained sets has a larger number of division types belonging to the set.
前記第一及び第二のチャネルの画素の符号化に際しては、当該第一及び第二のチャネルの間で前記記憶することにより共有された分割種の情報及び予測情報と、当該第一及び第二の各チャネルの量子化値とが符号化されることを特徴とする請求項1ないし4のいずれかに記載の画像符号化装置。 The adaptive division means includes an encoded channel information storage unit, and the encoded channel information storage unit includes information on the selected division type and the correspondence in the pixel of the first channel encoded for each unit block. By storing the prediction information for each small region to be performed, the image encoding device applies the stored division type and prediction information to the pixel of the second channel before encoding in the unit block. Find the quantization value for each region,
When encoding the pixels of the first and second channels, the division type information and the prediction information shared by the storage between the first and second channels, the first and second channels, 5. The image encoding device according to claim 1, wherein the quantized value of each channel is encoded.
前記適応分割手段は予測情報識別番号付与部を含み、該予測情報識別番号付与部は前記符号化装置にて予め所定数の単位ブロックを符号化した際に前記セットに属する全分割種における小領域の各形状につき決定された各予測モードの割合に基づいて、前記符号化するための予測情報としての予測モードに、小領域の各形状につき前記決定された割合が大きい予測モードほど小さい識別番号を付与することを特徴とする請求項1ないし6のいずれかに記載の画像符号化装置。 The prediction information is information that specifies a prediction mode for predicting a small area to be encoded from the surrounding encoded pixel areas,
The adaptive division means includes a prediction information identification number assigning unit, and the prediction information identification number assignment unit is a small region in all division types belonging to the set when a predetermined number of unit blocks are encoded in advance by the encoding device. Based on the ratio of each prediction mode determined for each shape of the prediction mode as the prediction information for encoding, a smaller identification number for a prediction mode with a larger ratio determined for each shape of the small region The image encoding device according to claim 1, wherein the image encoding device is provided.
前記符号化された単位ブロック毎に選択された分割種の情報並びに小領域毎の量子化値及び予測情報を復号する復号手段と、
前記復号された量子化値を逆量子化して復号された変換係数とする逆量子化手段と、該復号された変換係数を逆変換して復号された予測残差とする逆変換手段と、
前記復号された分割種の情報より、当該分割種にて定められる小領域を復号対象の単位ブロックに再設定する復号側適応分割手段と、
復号済み画素と前記復号された予測情報とに基づいて、前記再設定された小領域毎の復号された予測画素を生成する補償手段を備え、
前記再設定された小領域毎に、前記復号された予測残差と前記復号された予測画素とを加算して復号済み画素を得ることを特徴とする画像復号装置。 An image decoding device for the image encoding device according to any one of claims 1 to 8,
Decoding means for decoding the information of the division type selected for each encoded unit block and the quantization value and prediction information for each small area;
Inverse quantization means for inversely quantizing the decoded quantized value to obtain a decoded transform coefficient, and inverse transform means for inversely transforming the decoded transform coefficient to obtain a decoded prediction residual;
From the decoded division type information, decoding-side adaptive division means for resetting a small area determined by the division type to a unit block to be decoded;
Compensation means for generating a decoded prediction pixel for each of the reset small regions based on the decoded pixel and the decoded prediction information,
An image decoding apparatus, wherein a decoded pixel is obtained by adding the decoded prediction residual and the decoded prediction pixel for each reset small region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178309A JP2013042385A (en) | 2011-08-17 | 2011-08-17 | Image encoder and image decoder |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178309A JP2013042385A (en) | 2011-08-17 | 2011-08-17 | Image encoder and image decoder |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013042385A true JP2013042385A (en) | 2013-02-28 |
Family
ID=47890352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011178309A Withdrawn JP2013042385A (en) | 2011-08-17 | 2011-08-17 | Image encoder and image decoder |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013042385A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017069588A1 (en) * | 2015-10-22 | 2017-04-27 | 엘지전자(주) | Method for encoding/decoding image and device therefor |
JP2018535601A (en) * | 2015-11-24 | 2018-11-29 | サムスン エレクトロニクス カンパニー リミテッド | Coding order coding method and apparatus, decoding method and apparatus |
WO2019064934A1 (en) * | 2017-09-27 | 2019-04-04 | 日本電気株式会社 | Moving image coding device, moving image coding method and moving image coding program |
-
2011
- 2011-08-17 JP JP2011178309A patent/JP2013042385A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10687073B2 (en) * | 2015-10-22 | 2020-06-16 | Lg Electronics Inc. | Method for encoding/decoding image and device therefor |
US20180302638A1 (en) * | 2015-10-22 | 2018-10-18 | Lg Electronics Inc. | Method for encoding/decoding image and device therefor |
WO2017069588A1 (en) * | 2015-10-22 | 2017-04-27 | 엘지전자(주) | Method for encoding/decoding image and device therefor |
US11089306B2 (en) | 2015-11-24 | 2021-08-10 | Samsung Electronics Co., Ltd. | Encoding sequence encoding method and device thereof, and decoding method and device thereof |
US10979713B2 (en) | 2015-11-24 | 2021-04-13 | Samsung Electronics Co., Ltd. | Encoding sequence encoding method and device thereof, and decoding method and device thereof |
JP2021106424A (en) * | 2015-11-24 | 2021-07-26 | サムスン エレクトロニクス カンパニー リミテッド | Coding sequence coding method and device, and coding sequence decoding method and device |
JP2018535601A (en) * | 2015-11-24 | 2018-11-29 | サムスン エレクトロニクス カンパニー リミテッド | Coding order coding method and apparatus, decoding method and apparatus |
JP7069379B2 (en) | 2015-11-24 | 2022-05-17 | サムスン エレクトロニクス カンパニー リミテッド | Coding sequence Coding method and its device, its decoding method and its device |
US11363269B2 (en) | 2015-11-24 | 2022-06-14 | Samsung Electronics Co., Ltd. | Encoding sequence encoding method and device thereof, and decoding method and device thereof |
JP2022093628A (en) * | 2015-11-24 | 2022-06-23 | サムスン エレクトロニクス カンパニー リミテッド | Coding sequence coding method and device, and coding sequence decoding method and device |
JP7274022B2 (en) | 2015-11-24 | 2023-05-15 | サムスン エレクトロニクス カンパニー リミテッド | Coding order encoding method and device thereof, decoding method and device thereof |
US11812023B2 (en) | 2015-11-24 | 2023-11-07 | Samsung Electronics Co., Ltd. | Encoding sequence encoding method and device thereof, and decoding method and device thereof |
WO2019064934A1 (en) * | 2017-09-27 | 2019-04-04 | 日本電気株式会社 | Moving image coding device, moving image coding method and moving image coding program |
JPWO2019064934A1 (en) * | 2017-09-27 | 2020-10-15 | 日本電気株式会社 | Moving image coding device, moving image coding method and moving image coding program |
JP6992815B2 (en) | 2017-09-27 | 2022-01-13 | 日本電気株式会社 | Video coding device, video coding method and video coding program |
US11330269B2 (en) | 2017-09-27 | 2022-05-10 | Nec Corporation | Moving image coding device, moving image coding method and moving image coding program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2694144C1 (en) | Improved intra prediction encoding using planar views | |
AU2011279139B2 (en) | Low-complexity intra prediction for video coding | |
US20200213590A1 (en) | Method and apparatus for encoding/decoding image | |
JP6464272B2 (en) | Image encoding apparatus, image decoding apparatus, and programs thereof | |
CN104883578A (en) | Method And Apparatus For Decoding Intra Prediction Mode | |
CN104935929A (en) | Image decoding apparatus | |
CN1255017A (en) | Down conversion system using pre-sampling filter | |
JP2021502031A (en) | Interpolation filters for inter-prediction equipment and methods for video coding | |
JP2012142886A (en) | Image coding device and image decoding device | |
JP2013042385A (en) | Image encoder and image decoder | |
JP7538243B2 (en) | MIP for all channels for 4:4:4 chroma format and single tree | |
CN113228652B (en) | Image encoding device and method, image decoding device and method, and storage medium | |
JP7090490B2 (en) | Image coding device, image decoding device, image coding method, image decoding method | |
JP2023140150A (en) | Image encoding device, image decoding device, image encoding method, and image decoding method | |
TW202029760A (en) | Image encoding device, image encoding method, image decoding device, and image decoding method | |
AU2018263980A1 (en) | Low-complexity intra prediction for video coding | |
KR20180000886A (en) | Method and apparatus for processing a video signal | |
AU2015264787A1 (en) | Low-complexity intra prediction for video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |