JP2009272727A - Transformation method based on directivity of prediction error, image-encoding method and image-decoding method - Google Patents

Transformation method based on directivity of prediction error, image-encoding method and image-decoding method Download PDF

Info

Publication number
JP2009272727A
JP2009272727A JP2008119298A JP2008119298A JP2009272727A JP 2009272727 A JP2009272727 A JP 2009272727A JP 2008119298 A JP2008119298 A JP 2008119298A JP 2008119298 A JP2008119298 A JP 2008119298A JP 2009272727 A JP2009272727 A JP 2009272727A
Authority
JP
Japan
Prior art keywords
transform
prediction
inverse
orthogonal
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008119298A
Other languages
Japanese (ja)
Inventor
Yuma Sano
雄磨 佐野
Akiyuki Tanizawa
昭行 谷沢
Takeshi Nakajo
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008119298A priority Critical patent/JP2009272727A/en
Publication of JP2009272727A publication Critical patent/JP2009272727A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image-encoding method for which the power concentration of a transformation coefficient is improved by orthogonal transformation, corresponding to the direction of in-screen prediction. <P>SOLUTION: The moving image-encoding method for encoding input image signals includes: a step of generating predicted error signals (116), indicating the difference value among prediction signals (121), generated according to a predetermined prediction mode and the input image signals (115); an orthogonal transformation step of orthogonally transforming the prediction error signals by a first transformation method, depending on the prediction direction of the prediction mode or a second transformation method which is independent of the prediction direction and generating the transformation coefficients; a quantization step of executing quantization processing on the transformation coefficients and generating quantized transformation coefficients; and an encoding processing step of executing entropy-encoding processing to the quantized transformation coefficient (117) and transformation information (118) indicating whether it is the first transformation method or the second transformation method and generating encoded data (124). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画像符号化装置、動画像符号化方法、動画像復号化装置及び動画像復号化方法に係わり、特に画面内予測の方向に対応した直交変換により変換係数の電力集中度を向上させ、ひいては符号化効率を改善する効果が得られるようにした動画像符号化装置、動画像符号化方法、動画像復号化装置、動画像復号化方法に関する。   The present invention relates to a moving image encoding device, a moving image encoding method, a moving image decoding device, and a moving image decoding method, and in particular, improves power concentration of transform coefficients by orthogonal transform corresponding to the direction of intra prediction. The present invention relates to a moving image encoding device, a moving image encoding method, a moving image decoding device, and a moving image decoding method, which can obtain an effect of improving encoding efficiency.

H.264/MPEG−4 AVC(以下H.264と呼ぶ)等の動画像符号化方式では、直交変換として離散コサイン変換(Discrete Cosine Transform、以下DCT)/逆離散コサイン変換(Inverse Discrete Cosine Transform、以下IDCT)が行われている。現状では、DCT/IDCTは水平方向と垂直方向に1次元DCT/IDCTを2回行うことで実現されている[非特許文献1]。DCTは、予測誤差の相関係数が画素間距離に従って規則的に低減するモデルに対しては、カルーネン-レーブ変換(以下KLTと呼ぶ)と同等の変換効率が得られるが、実際の予測誤差信号はエッジ成分などにより、必ずしも水平垂直方向のDCTが最適とは限らず、画像の特徴に応じてDCTをかける向きを変える研究や[非特許文献2]、DCTと離散サイン変換(Discrete Sine Transform、以下DST)を切り替える研究が行われてきた[特許文献1]。
A. Hallapuro, M. Karczewicz, and H. Malvar, “Low complexity transform and quantization,” Joint Video Team of ISO/IEC MPEG and ITU-T VCEG, Jan. 2002, JVT-B038 and JVT-B039. J. Fu, B. Zeng, “Diagonal Discrete Cosine Transforms for Image Coding”, PCM 2006 特開平11-55678
H. In a moving picture coding system such as H.264 / MPEG-4 AVC (hereinafter referred to as H.264), a discrete cosine transform (hereinafter referred to as DCT) / inverse discrete cosine transform (hereinafter referred to as IDCT) is used as an orthogonal transform. ) Is done. At present, DCT / IDCT is realized by performing one-dimensional DCT / IDCT twice in the horizontal and vertical directions [Non-Patent Document 1]. DCT has a conversion efficiency equivalent to that of the Karhunen-Reeve transform (hereinafter referred to as KLT) for a model in which the correlation coefficient of the prediction error is regularly reduced according to the inter-pixel distance. The DCT in the horizontal and vertical directions is not always optimal depending on the edge component, etc., and research on changing the direction of applying the DCT according to the feature of the image [Non-Patent Document 2], DCT and discrete sine transform (Discrete Sine Transform, The following studies have been conducted to switch DST) [Patent Document 1].
A. Hallapuro, M. Karczewicz, and H. Malvar, “Low complexity transform and quantization,” Joint Video Team of ISO / IEC MPEG and ITU-T VCEG, Jan. 2002, JVT-B038 and JVT-B039. J. Fu, B. Zeng, “Diagonal Discrete Cosine Transforms for Image Coding”, PCM 2006 JP-A-11-55678

H.264で用いられている非特許文献1の水平垂直DCTは、予測誤差の相関係数が画素間距離に従って規則的に低減するモデルに対しては、KLTと同等の変換効率が得られるが、予測誤差信号にエッジ成分が発生すると、必ずしも水平垂直方向のDCTが最適とは限らず、変換効率が十分に得られない可能性がある。   H. The horizontal and vertical DCT of Non-Patent Document 1 used in H.264 provides conversion efficiency equivalent to that of KLT for a model in which the correlation coefficient of the prediction error is regularly reduced according to the inter-pixel distance. When an edge component is generated in the error signal, the DCT in the horizontal and vertical directions is not necessarily optimal, and there is a possibility that sufficient conversion efficiency cannot be obtained.

また、特許文献1では、画像の特長によってDCTとDSTを切り替えて変換を行っているが、DSTは内挿予測された画素に対しては変換効率が高いが、H.264におけるイントラ予測は外挿予測であるために、イントラ予測によって生じる予測誤差に対してDSTをかけても変換効率の向上は見込めない。   Further, in Patent Document 1, conversion is performed by switching between DCT and DST depending on the feature of the image. DST has high conversion efficiency for pixels predicted to be interpolated. Since intra prediction in H.264 is extrapolation prediction, improvement in conversion efficiency cannot be expected even if DST is applied to a prediction error caused by intra prediction.

非特許文献2では、サイド情報削減のために1次元DCTをかける方向を、従来のH.264の変換方式に加えて、直交右下方向と直交左下方向の2方向に制限し、これらの方向からレート歪的に最適な変換の方向を選択している。しかし、イントラ予測の方向とその予測誤差の方向性が類似しており、予測方向と異なる方向に1次元DCTをかけても係数の電力が集中しないため、直交右下方向と直交左下方向のそれぞれの方向に変換をかけることは冗長であり、それぞれの変換方向を識別するためのサイド情報は符号化効率の低下につながる。また斜めに1次元DCTをかける際の基底長が、符号化ブロックの端部では著しく短く、変換の効果が十分に発揮されていない。   In Non-Patent Document 2, the direction in which one-dimensional DCT is applied to reduce side information is the same as that of conventional H.264. In addition to the H.264 conversion method, the orthogonal right lower direction and the orthogonal left lower direction are limited to two directions, and the optimum conversion direction in terms of rate distortion is selected from these directions. However, since the direction of intra prediction and the directionality of the prediction error are similar, and the power of the coefficient is not concentrated even if the one-dimensional DCT is applied in a direction different from the prediction direction, each of the orthogonal lower right direction and the orthogonal lower left direction It is redundant to perform conversion in the direction, and side information for identifying each conversion direction leads to a decrease in encoding efficiency. Further, the base length when the one-dimensional DCT is applied obliquely is extremely short at the end of the coding block, and the effect of the conversion is not sufficiently exhibited.

本発明の一態様は、入力画像信号を符号化する動画像符号化方法であって、予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成ステップと、前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換ステップと、前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化ステップと、前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報に対してエントロピー符号化処理を行い、符号化データを生成する符号化処理ステップと、を含む動画像符号化方法を提供する。   One aspect of the present invention is a moving image encoding method for encoding an input image signal, which generates a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and the input image signal. The prediction error signal is generated by the orthogonal transformation of the prediction error signal by the first conversion method depending on the prediction direction of the prediction mode and the second conversion method not depending on the prediction direction to generate a conversion coefficient. An orthogonal transform step, a quantization step for performing a quantization process on the transform coefficient to generate a quantized transform coefficient, the quantized transform coefficient, and the first transform method or the second transform method. And a coding process step for generating encoded data by performing entropy coding processing on the conversion information indicating the above.

空間相関を利用するH.264のようなイントラ予測を行う場合、予測方向と予測誤差の方向性は同一である可能性が高いので、予測方向以外の方向の1次元DCTを考慮しなくても電力集中度は低下しない。また、本発明の態様の方式は、従来のH.264の変換方式に加えて、1次元DCTをかける方向の候補が1つに決まるので、非特許文献2と比較してサイド情報を減らすことが可能である。また、画像の端部の画素について、画素を折り返すことで基底長の長い1次元DCTをかけるため、電力集中度が上がる。これら3点から、本変換方式によって生成された変換係数に対して量子化処理、エントロピー符号化処理を行うことによって、最終的に符号量を削減することが可能である。また、従来水平と垂直の2方向に1次元DCTをかけていたが、本方式では1次元DCTは予測方向に1回で十分であるため、符号化及び復号化処理が低減される。   H. using spatial correlation When intra prediction such as H.264 is performed, there is a high possibility that the prediction direction and the directionality of the prediction error are the same, so the power concentration does not decrease even if one-dimensional DCT in directions other than the prediction direction is not considered. Further, the system of the aspect of the present invention is a conventional H.264 standard. In addition to the H.264 conversion method, one candidate for the direction in which the one-dimensional DCT is applied is determined, so that side information can be reduced as compared with Non-Patent Document 2. Further, since the one-dimensional DCT having a long base length is applied to the pixels at the edge of the image by folding the pixels, the power concentration level is increased. From these three points, it is possible to finally reduce the code amount by performing quantization processing and entropy coding processing on the transform coefficient generated by this transform method. Conventionally, one-dimensional DCT is applied in two directions, horizontal and vertical. However, in this method, one-dimensional DCT is sufficient in the prediction direction, so that encoding and decoding processes are reduced.

以下、添付図面を参照して、本発明に係る動画像符号化方法及び動画像符号化装置、動画像復号方法及び動画像復号化装置の最良な実施の形態を詳細に説明する。   DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Exemplary embodiments of a moving picture coding method, a moving picture coding apparatus, a moving picture decoding method, and a moving picture decoding apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.

[第1の実施形態]
(符号化器について)
図1に示す第1の実施形態に係わる動画像符号化装置100は、予測モード情報から変換情報を制御する制御部107と、変換情報によって変換方法を選択する変換方法選択スイッチ101と、予測の方向に対応して変換量子化を行う変換量子化部102〜105と、変換係数と変換情報とを符号化するエントロピー符号化部106とを備えている。
[First embodiment]
(About the encoder)
A video encoding apparatus 100 according to the first embodiment shown in FIG. 1 includes a control unit 107 that controls conversion information from prediction mode information, a conversion method selection switch 101 that selects a conversion method based on the conversion information, Transform quantization units 102 to 105 that perform transform quantization corresponding to directions, and an entropy encoding unit 106 that encodes transform coefficients and transform information are provided.

図1において、入力動画像信号115はマクロブロック毎又はマクロブロックペア毎に分割されて、動画像符号化装置100に入力される。動画像符号化装置100では、予測部114が入力動画像信号115に対してフレーム内予測を行う。この予測部114について以下に具体的に説明する。   In FIG. 1, an input moving image signal 115 is divided for each macroblock or macroblock pair and input to the moving image encoding apparatus 100. In the video encoding device 100, the prediction unit 114 performs intra-frame prediction on the input video signal 115. The prediction unit 114 will be specifically described below.

予測部114は、マクロブロックをさらに分割したサブブロックを単位として予測を行う。例えば、H.264のイントラ予測における輝度信号においては、16個の4x4画素サブブロックを持つマクロブロックと、4個の8x8画素サブブロックを持つマクロブロックと、1個の16x16画素サブブロックを持つマクロブロックが存在する。符号化対象フレームと符号化対象マクロブロックとの関係を図2(a)に、4x4画素サブブロックを持つマクロブロックを図2(b)に、8x8画素サブブロックを持つマクロブロックを図2(c)に、16x16画素サブブロックを持つマクロブロックを図2(d)に示す。4x4サブブロックと8x8サブブロックには9つの予測モードが存在し、16x16サブブロックには4つの予測モードが存在し、各サブブロックでイントラ予測が行われる。   The prediction unit 114 performs prediction in units of sub blocks obtained by further dividing the macro block. For example, H.M. In the luminance signal in the H.264 intra prediction, there are a macroblock having 16 4 × 4 pixel subblocks, a macroblock having four 8 × 8 pixel subblocks, and a macroblock having one 16 × 16 pixel subblock. . FIG. 2A shows the relationship between the encoding target frame and the encoding target macroblock, FIG. 2B shows the macroblock having 4 × 4 pixel subblocks, and FIG. 2C shows the macroblock having 8 × 8 pixel subblocks. 2) shows a macroblock having 16 × 16 pixel sub-blocks in FIG. Nine prediction modes exist in the 4x4 subblock and the 8x8 subblock, and four prediction modes exist in the 16x16 subblock, and intra prediction is performed in each subblock.

図3はH.264のイントラ予測の4x4サブブロック及び8x8サブブロックにおける全予測モード、即ち垂直予測モード、水平予測モード、DC予測モード、直交左下予測モード、直交右下予測モード、垂直右予測モード、水平下予測モード、垂直左予測モード、及び水平上予測モードを示している。各予測モードの予測方向を図4(a)に示す。図4(a)に示す予測方向について具体的な予測方法を、図4(b)〜(d)を用いて説明する。   FIG. All prediction modes in 4 × 4 sub-block and 8 × 8 sub-block of H.264 intra prediction, that is, vertical prediction mode, horizontal prediction mode, DC prediction mode, orthogonal lower left prediction mode, orthogonal lower right prediction mode, vertical right prediction mode, horizontal lower prediction mode , Vertical left prediction mode, and horizontal top prediction mode. The prediction direction of each prediction mode is shown in FIG. A specific prediction method for the prediction direction shown in FIG. 4A will be described with reference to FIGS.

図4(b)の符号化対象サブブロックに対して、H.264イントラ予測モードのモード2のDC予測が選択された場合、数式(1)で予測画素が計算される。
H=(A+B+C+D)、V=(I+J+K+L)
a〜p=(H+V+4)>>3
…(1)。
For the sub-block to be encoded in FIG. When the mode 2 DC prediction in the H.264 intra prediction mode is selected, the prediction pixel is calculated by Expression (1).
H = (A + B + C + D), V = (I + J + K + L)
a ~ p = (H + V + 4) >> 3
... (1).

参照画素が利用できない時は、利用できる参照画素の平均値で予測値が生成される。利用できる画素が1つも存在しない場合は、符号化装置の最大輝度値の半分の値(8ビットなら128)で予測値が生成される。その他のモードが選択された場合、方向予測部114は、図4(a)で示される予測方向に対して、参照画素から補間された予測値をコピーする予測方法を用いる。具体的には、モード0(垂直予測)が選択された場合の予測値生成方法を説明する。   When the reference pixel cannot be used, a predicted value is generated using an average value of the available reference pixels. If there is no usable pixel, a prediction value is generated with a value that is half the maximum luminance value of the encoding device (128 for 8 bits). When the other mode is selected, the direction prediction unit 114 uses a prediction method that copies the prediction value interpolated from the reference pixel with respect to the prediction direction shown in FIG. Specifically, a prediction value generation method when mode 0 (vertical prediction) is selected will be described.

下記のモードは、参照画素AからDまでが利用できるときだけ、選択することが可能である。
a, e, i, m= A
b, f, j, n = B
c, g, k, o = C
d, h, l, p = D予測方法の詳細は図4(c)に示されており、参照画素A〜Dの輝度値がそのまま垂直方向にコピーされ、予測値として補填される。
The following modes can be selected only when reference pixels A to D are available.
a, e, i, m = A
b, f, j, n = B
c, g, k, o = C
The details of the d, h, l, p = D prediction method are shown in FIG. 4C, and the luminance values of the reference pixels A to D are copied as they are in the vertical direction and supplemented as prediction values.

一方、モード4(直交右下予測)が選択されたときの予測方法についても数式(2)で説明する。
d = ( B + ( C << 1 ) + D + 2 ) >> 2
c, h = ( A + ( B << 1 ) + C + 2 ) >> 2
b, g, l = ( M + ( A << 1 ) + B + 2 ) >> 2
a, f, k, p = (I + ( M << 1 ) + A + 2 ) >> 2
e, j, o = (J + ( I << 1 ) + M +2 ) >> 2
i, n = (K + ( J<< 1) + I + 2 ) >> 2
m = (L + (K << 1) + J + 2 ) >> 2
…(2)
この予測モードは、参照画素AからD、IからMまでが利用できるときにのみ選択することができる。本予測モードの詳細は図4(d)に示されており、この本予測モードによると、3タップのフィルタによって生成された値を右下45度方向へコピーし、予測値として補填する。
On the other hand, the prediction method when mode 4 (orthogonal lower right prediction) is selected will also be described using equation (2).
d = (B + (C << 1) + D + 2) >> 2
c, h = (A + (B << 1) + C + 2) >> 2
b, g, l = (M + (A << 1) + B + 2) >> 2
a, f, k, p = (I + (M << 1) + A + 2) >> 2
e, j, o = (J + (I << 1) + M +2) >> 2
i, n = (K + (J << 1) + I + 2) >> 2
m = (L + (K << 1) + J + 2) >> 2
... (2)
This prediction mode can be selected only when reference pixels A to D and I to M are available. The details of the main prediction mode are shown in FIG. 4D, and according to the main prediction mode, the value generated by the 3-tap filter is copied in the lower right 45 degrees direction and compensated as a predicted value.

予測モード0、2、4以外の予測方法に関してもほぼ同様の枠組みが用いられており、予測方向に対して利用できる参照画素から補間値を生成し、その値を予測方向に応じてコピーするという予測を行う。また、4x4画素ブロックについて予測方法を説明したが、8x8画素ブロックについても同様の方法で参照画素から補間値を生成し、その値を予測方向に応じてコピーすることで予測を行う。   An almost similar framework is used for prediction methods other than prediction modes 0, 2, and 4, and an interpolation value is generated from reference pixels that can be used in the prediction direction, and the value is copied according to the prediction direction. Make a prediction. Moreover, although the prediction method was demonstrated about the 4x4 pixel block, it predicts by producing | generating the interpolation value from a reference pixel also about an 8x8 pixel block, and copying the value according to a prediction direction.

以上のように、予測部114で生成された予測画像信号121と入力画像信号115との差分を取ることで、予測誤差信号116が生成される。このとき、予測部114で選択された予測モード情報120に応じて、符号化制御部107は変換情報118を生成する。変換情報118は、直交変換に関して水平垂直方向のDCTを行うのか、予測モード情報が示す予測方向に沿って1次元DCTを行うのかを判別するための情報であり、変換方法選択スイッチ101、逆変換方法選択スイッチ108を切り替えるために用いられる。実施形態では、符号化制御部107は予測モード情報が示す予測方向が水平又は垂直方向のとき水平垂直変換情報のみを出力し、斜め方向であると水平垂直変換情報と斜め変換情報とを出力する。   As described above, the prediction error signal 116 is generated by taking the difference between the prediction image signal 121 generated by the prediction unit 114 and the input image signal 115. At this time, the encoding control unit 107 generates conversion information 118 according to the prediction mode information 120 selected by the prediction unit 114. The conversion information 118 is information for determining whether to perform DCT in the horizontal / vertical direction for orthogonal transform or to perform one-dimensional DCT along the prediction direction indicated by the prediction mode information. Used to switch the method selection switch 108. In the embodiment, the encoding control unit 107 outputs only horizontal / vertical conversion information when the prediction direction indicated by the prediction mode information is horizontal or vertical, and outputs horizontal / vertical conversion information and diagonal conversion information when the prediction direction is the diagonal direction. .

予測誤差信号116は、変換方法選択スイッチ101に入力され、変換情報118に従って、スイッチが切り替えられ、第1変換部102か第2変換部103のいずれかに入力される。第1変換部102では図5(a)に示すように予測誤差信号116は水平垂直DCT器200により水平垂直DCTされる。水平垂直DCT器200からの変換係数232はその後図5(b)に示すように第1量子化部104内で水平垂直DCT器200に対応した量子化器201で量子化される。   The prediction error signal 116 is input to the conversion method selection switch 101, the switch is switched according to the conversion information 118, and is input to either the first conversion unit 102 or the second conversion unit 103. In the first conversion unit 102, the prediction error signal 116 is subjected to horizontal and vertical DCT by a horizontal and vertical DCT unit 200 as shown in FIG. The transform coefficient 232 from the horizontal / vertical DCT unit 200 is then quantized by a quantizer 201 corresponding to the horizontal / vertical DCT unit 200 in the first quantizing unit 104 as shown in FIG.

第2変換部103では、図6(a)に示すように、予測誤差信号116は、DCT器203〜208から選択された、予測モード情報120の予測方向に対応したDCT器によってDCT変換される。その後、第2量子化部105では、図6(b)に示すように、量子化器210〜215から、予測モード情報120に対応した量子化器が選択され、第2変換部103の変換係数233が量子化され、量子化変換係数117が生成される。   In the second conversion unit 103, as shown in FIG. 6A, the prediction error signal 116 is DCT-transformed by the DCT unit selected from the DCT units 203 to 208 and corresponding to the prediction direction of the prediction mode information 120. . Thereafter, in the second quantization unit 105, as shown in FIG. 6B, a quantizer corresponding to the prediction mode information 120 is selected from the quantizers 210 to 215, and the transform coefficient of the second transform unit 103 is selected. 233 is quantized and a quantized transform coefficient 117 is generated.

ここで、符号化効率の観点から、最適なモードを判定するためのモード判定について詳細に説明を行う。サブブロックがとりうる全ての予測モードについて、変換情報118が示す直交変換以降の符号化処理を行い、その結果得られた符号化コストが最小となるモードが、サブブロックの最適モードと判定される。具体的に説明すると、予測モードに規定された予測方法で生成された予測信号と原画像信号との差分値の絶対値を計算した差分誤差SADとその予測モードを用いたときに必要となるサイド情報の値OHから数式(3)を用いてモードを判定する。
K=SAD+λ×OH (3)
λは定数で与えられ、量子化スケールの値に基づいて決められる。このようにして得られたコストKを基にモードが決定される。一般的にコストKがもっとも小さい値を与えるモードが最適モードとして選択される。
Here, from the viewpoint of encoding efficiency, mode determination for determining an optimal mode will be described in detail. For all the prediction modes that can be taken by the sub-block, the encoding process after the orthogonal transformation indicated by the transformation information 118 is performed, and the mode that results in the lowest coding cost is determined as the optimum mode of the sub-block. . More specifically, the difference error SAD obtained by calculating the absolute value of the difference value between the prediction signal generated by the prediction method defined in the prediction mode and the original image signal and the side required when using the prediction mode The mode is determined from the information value OH using Equation (3).
K = SAD + λ × OH (3)
λ is given as a constant and is determined based on the value of the quantization scale. The mode is determined based on the cost K thus obtained. Generally, the mode that gives the smallest value of cost K is selected as the optimum mode.

本実施の形態では、サイド情報と差分値の絶対値を用いたが、別の実施の形態として、モード情報のみ、予測誤差信号の絶対和のみを用いてモードを判定しても良いし、これらをアダマール変換したり、近似した値を利用したりしても良い。また、入力画像のアクティビティを用いてコストを作成しても良いし、量子化スケールを利用してコスト関数を作成しても良い。   In this embodiment, the side information and the absolute value of the difference value are used. However, as another embodiment, the mode may be determined using only the mode information or only the absolute sum of the prediction error signals. May be subjected to Hadamard transform or an approximate value may be used. Further, the cost may be created using the activity of the input image, or the cost function may be created using the quantization scale.

コストを算出するための別の実施の形態として、仮符号化を行い、仮符号化の予測モードで生成された予測信号と原画像との差分値を実際に符号化した場合の符号量と、変換係数を局部復号した局部復号画像と入力画像信号との二乗誤差を用いてモードを判定しても良い。この場合のモード判定式は数式(4)のようになる。
J=D+λ×R (4)
ここで、Dは、入力画像と局部復号画像の二乗誤差を表す符号化歪である。一方、Rは仮符号化によって見積もられた符号量を表している。本コストを用いた場合は、符号化モード毎にエントロピー符号化と局部復号(逆量子化や逆変換処理を含む)が必要となるため、回路規模は増大するが、正確な符号量と符号化歪を用いることが可能となり、符号化効率を高く維持することが可能である。本コストも、符号量のみ、符号化歪のみを用いてコストを算出しても良いし、これらを近似した値を用いてコスト関数を作成しても良い。
As another embodiment for calculating cost, provisional encoding is performed, and the amount of code when the difference value between the prediction signal generated in the prediction mode of provisional encoding and the original image is actually encoded, and The mode may be determined using a square error between the locally decoded image obtained by locally decoding the transform coefficient and the input image signal. The mode determination formula in this case is as shown in Formula (4).
J = D + λ × R (4)
Here, D is an encoding distortion representing a square error between the input image and the locally decoded image. On the other hand, R represents a code amount estimated by provisional encoding. When this cost is used, entropy coding and local decoding (including inverse quantization and inverse transform processing) are required for each coding mode, so the circuit scale increases, but the exact code amount and coding Distortion can be used, and encoding efficiency can be kept high. For this cost, the cost may be calculated using only the code amount or only the coding distortion, or a cost function may be created using a value approximating these.

次に、予測方向に沿った1次元DCTの方法について説明を行う。まず、H.264で行われているDCTについて説明する。4x4サブブロックに対して、入力信号をX、変換行列をT、変換係数をCとすると、変換係数Cは数式(5)に従って求められる。

Figure 2009272727
Next, a one-dimensional DCT method along the prediction direction will be described. First, H. The DCT performed in H.264 will be described. For a 4 × 4 sub-block, if the input signal is X, the transformation matrix is T, and the transformation coefficient is C, the transformation coefficient C is obtained according to Equation (5).
Figure 2009272727

すなわち、入力画像信号に対して、変換行列Tを用いて、水平方向に1次元DCTをかけた後、変換行列Tの転置行列Ttを用いて、垂直方向に1次元DCTをかけている。 That is, the input image signal is subjected to the one-dimensional DCT in the horizontal direction using the transformation matrix T, and then subjected to the one-dimensional DCT in the vertical direction using the transposed matrix T t of the transformation matrix T.

上記演算は、8x8サブブロックに対しても同様である。それに対し、本実施の形態では、4x4サブブロックと8x8サブブロックに対して、H.264で定められている9種類のイントラ予測の中から、垂直予測、水平予測、DC予測の3種類を除いた6方向について、予測方向に沿った、方向性をもったDCT変換を行う。   The above calculation is the same for the 8 × 8 sub-block. On the other hand, in the present embodiment, H.264 is applied to 4 × 4 subblocks and 8 × 8 subblocks. A DCT transform with directionality along the prediction direction is performed for six directions from among the nine types of intra prediction defined in H.264 except for three types of vertical prediction, horizontal prediction, and DC prediction.

まず、H.264のイントラ予測モード3〜8までの各モードに対応した変換方法について、図7に示す4x4サブブロックを使って説明する。予測モード3の場合、サブブロック内の画素を、予測方向に沿って、(a)、(b,e)、(c,f,i)、(d,g,j,m)、(h,k,n)、(l,o)、(p)の7組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図8(a)に示す。変換係数をF(u)とすると、4x4画素ブロックの対角線にあたる画素列(d,g,j,m)に関しては、数式(6)のように基底長4の1次元DCTが行われる。

Figure 2009272727
First, H. A conversion method corresponding to each of the H.264 intra prediction modes 3 to 8 will be described using 4 × 4 sub-blocks illustrated in FIG. 7. In the prediction mode 3, the pixels in the sub-block are moved along the prediction direction (a), (b, e), (c, f, i), (d, g, j, m), (h, Pixels are grouped into 7 sets of k, n), (l, o), and (p). FIG. 8A shows a combination of pixel columns to which one-dimensional DCT is applied. Assuming that the conversion coefficient is F (u), a one-dimensional DCT with a base length of 4 is performed on the pixel column (d, g, j, m) corresponding to the diagonal line of the 4 × 4 pixel block as shown in Equation (6).
Figure 2009272727

(ただし、f(0)=d, f(1)=g, f(2)=j, f(3)=m)。  (However, f (0) = d, f (1) = g, f (2) = j, f (3) = m).

次に、画素列(c,f,i)に関しては、数式(7)のように基底長3の1次元DCTが行われる。

Figure 2009272727
Next, for the pixel column (c, f, i), a one-dimensional DCT with a base length of 3 is performed as in Equation (7).
Figure 2009272727

(ただし、f(0)=c, f(1)=f, f(2)=i)。  (However, f (0) = c, f (1) = f, f (2) = i).

さらに、画素列(a)、(b,e)については、画素を折り返し結合して数式(8)のように基底長3の1次元DCTが行われる。

Figure 2009272727
Further, for the pixel columns (a) and (b, e), one-dimensional DCT with a base length of 3 is performed as shown in Equation (8) by folding and combining the pixels.
Figure 2009272727

(ただし、f(0)=b, f(1)=e, f(2)=a 又は、f(0)=e, f(1)=b, f(2)=a)。  (However, f (0) = b, f (1) = e, f (2) = a or f (0) = e, f (1) = b, f (2) = a).

また、4x4変換の別の例として、画素を折り返し合わせずに1次DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図8(b)に示す。画素列(d,g,j,m)、(e,f,i)に関しては前記1次元DCTと同様であるが、(b,e)、(a)に関して、画素を折り返し結合せずそれぞれに対して数式(9)、数式(10)のように1次元DCTを行う。

Figure 2009272727
Further, as another example of 4 × 4 conversion, a method of performing primary DCT without returning pixels is conceivable. FIG. 8B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time. The pixel columns (d, g, j, m) and (e, f, i) are the same as those of the one-dimensional DCT, but the pixels are not folded and combined with respect to (b, e) and (a). On the other hand, one-dimensional DCT is performed as shown in Equation (9) and Equation (10).
Figure 2009272727

(ただし、f(0)=b, f(1)=e)

Figure 2009272727
(However, f (0) = b, f (1) = e)
Figure 2009272727

(ただし、f(0)= a)。  (However, f (0) = a).

また、別の例として、画素列(c,f,i)、(e,b)、(a)を全て折り返し結合して1次元DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図8(c)に示す。画素列(d,g,j,m)に関しては前記1次元DCTと同様であるが、画素列(c,f,i)、(e,b)、(a)に関しては、数式(11)のように1次元DCTを行う。

Figure 2009272727
As another example, a method of performing one-dimensional DCT by folding and joining all the pixel columns (c, f, i), (e, b), and (a) is conceivable. FIG. 8C shows a combination of pixel columns to which one-dimensional DCT is applied at this time. The pixel column (d, g, j, m) is the same as the one-dimensional DCT, but the pixel column (c, f, i), (e, b), (a) As such, one-dimensional DCT is performed.
Figure 2009272727

(ただし、f(0)=c, f(1)=f, f(2)=i, f(3)=e, f(4)=b, f(5)=a
もしくは、f(0)=i, f(1)=f, f(2)=c, f(3)=b, f(4)=e, f(5)=a)
残りの画素列(h,k,n)、(l,e)、(p)については、(e,f,i)、(b,e)、(a)と、4x4ブロックの対角線である画素列(d,g,j,m)に関して線対称であるので、(e,f,i)、(b,e)、(a)と同様の計算で1次元DCTを行う。
(However, f (0) = c, f (1) = f, f (2) = i, f (3) = e, f (4) = b, f (5) = a
Or f (0) = i, f (1) = f, f (2) = c, f (3) = b, f (4) = e, f (5) = a)
For the remaining pixel columns (h, k, n), (l, e), (p), pixels that are diagonal lines of (e, f, i), (b, e), (a) and 4x4 blocks Since the line (d, g, j, m) is line symmetric, one-dimensional DCT is performed by the same calculation as (e, f, i), (b, e), and (a).

予測モード4の場合は、予測モード3の予測方向を左右反転したものと考えられるので、予測モード3の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the prediction mode 4, since it is considered that the prediction direction of the prediction mode 3 is reversed left and right, the DCT calculation can be performed in the same manner as in the prediction mode 3.
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.

次に、予測モード5〜8に対応するDCT演算方法を説明する。
予測モード5の場合、サブブロック内の画素を、予測方向に沿って、(a,e,j,n)、(b,f,k,o)、(c,g,l,p)、(i,m)、(d,h)の5組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図9(a)に示す。変換係数をF(u)とすると、画素列(a,e,j,n)に関しては、数式(12)のように基底長4の1次元DCTが行われる。

Figure 2009272727
Next, DCT calculation methods corresponding to prediction modes 5 to 8 will be described.
In the case of the prediction mode 5, the pixels in the sub-block are moved along the prediction direction (a, e, j, n), (b, f, k, o), (c, g, l, p), ( Pixels are grouped into five groups i, m) and (d, h). FIG. 9A shows a combination of pixel columns to which one-dimensional DCT is applied. Assuming that the conversion coefficient is F (u), a one-dimensional DCT with a base length of 4 is performed on the pixel array (a, e, j, n) as shown in Equation (12).
Figure 2009272727

(ただし、f(0)=a, f(1)=e, f(2)=j, f(3)=n)
画素列(b,f,k,o)、(c,g,l,p)に関しても同じ演算が行われる。
(However, f (0) = a, f (1) = e, f (2) = j, f (3) = n)
The same calculation is performed on the pixel columns (b, f, k, o) and (c, g, l, p).

次に、画素列(i,m)に関しては、数式(13)のように基底長3の1次元DCTが行われる。

Figure 2009272727
Next, for the pixel column (i, m), a one-dimensional DCT with a base length of 3 is performed as in Equation (13).
Figure 2009272727

(ただし、f(0)=i, f(1)=m)
画素列(d,h)に関しても数式(13)と同じ演算が行われる。
(However, f (0) = i, f (1) = m)
The same calculation as Expression (13) is performed on the pixel column (d, h).

また、予測モード5に対応したDCT演算の別の例として、画素を折り返し合わせて1次DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図9(b)に示す。画素列(b,f,k,o)に関しては前記1次元DCTと同様であるが、(a,e,j,n)、(m,i)と(p,l,g,c)、(d,h)に関しては、画素を折り返し結合して数式(14)のように1次元DCTを行う。

Figure 2009272727
Further, as another example of the DCT calculation corresponding to the prediction mode 5, a method of performing primary DCT by folding pixels together is conceivable. FIG. 9B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time. The pixel column (b, f, k, o) is the same as the one-dimensional DCT, but (a, e, j, n), (m, i) and (p, l, g, c), ( With respect to d, h), the pixels are folded and combined to perform one-dimensional DCT as shown in Equation (14).
Figure 2009272727

(ただし、f(0)=a, f(1)=e, f(2)=j, f(3)=n, f(4)=m, f(5)=i)
画素列(p,l,g,c)、(d,h)に関しても数式(14)と同じ演算が行われる。
(However, f (0) = a, f (1) = e, f (2) = j, f (3) = n, f (4) = m, f (5) = i)
The same calculation as Expression (14) is performed for the pixel columns (p, l, g, c) and (d, h).

予測モード6〜8の場合は、予測モード5の予測方向を回転又は反転したものと考えられるので、予測モード5の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the prediction modes 6 to 8, since it is considered that the prediction direction of the prediction mode 5 is rotated or inverted, it is possible to perform the DCT calculation in the same manner as in the prediction mode 5.
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.

次に、8x8サブブロックについて、H.264のイントラ予測モード3〜8までの各モードについて、図10に示す8x8ブロックを用いて説明する。
予測モード3の場合、サブブロック内の画素を、予測方向に沿って、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)、(a7,b6,c5,d4,e3,f2,g1,h0)、(b7,c6,d5,e4,f3,g2,h1)、(c7,d6,e5,f4,g3,h2)、(d7,e6,f5,g4,h3)、(e7,f6,g5,h4)、(f7,g6,h5)、(g7,h6)、(h7)の15組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図11(a)に示す。変換係数をF(u)とすると、8x8画素ブロックの対角線にあたる画素列(a7,b6,c5,d4,e3,f2,g1,h0)に関しては、数式(15)のように基底長8の1次元DCTが行われる。

Figure 2009272727
Next, for the 8 × 8 sub-block, Each of the H.264 intra prediction modes 3 to 8 will be described using an 8 × 8 block shown in FIG. 10.
In the prediction mode 3, the pixels in the sub-block are moved along the prediction direction (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1, d0), (a4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0), (a6, b5, c4, d3, e2, f1, g0), (a7, b6, c5, d4, e3, f2, g1, h0), (b7, c6, d5, e4, f3, g2, h1), (c7, d6, e5, f4, g3, h2), (d7, e6, f5, g4, h3), ( e7, f6, g5, h4), (f7, g6, h5), (g7, h6), and 15 groups of (h7). FIG. 11A shows a combination of pixel columns to which one-dimensional DCT is applied. Assuming that the conversion coefficient is F (u), the pixel length (a7, b6, c5, d4, e3, f2, g1, h0) corresponding to the diagonal line of the 8 × 8 pixel block is 1 with a base length of 8 as shown in Equation (15). Dimensional DCT is performed.
Figure 2009272727

(ただし、f(0)=a7, f(1)=b6, f(2)=c5, f(3)=d4, f(4)=e3, f(5)=f2, f(6)=g1, f(7)=h0)。  (However, f (0) = a7, f (1) = b6, f (2) = c5, f (3) = d4, f (4) = e3, f (5) = f2, f (6) = g1, f (7) = h0).

次に、画素列(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)に関しては、画素列を折り返し合わせて、数式(16)のように基底長13の1次元DCTが行われる。

Figure 2009272727
Next, with respect to the pixel columns (a5, b4, c3, d2, e1, f0) and (a6, b5, c4, d3, e2, f1, g0), the pixel columns are folded back to obtain Equation (16) A one-dimensional DCT with a base length of 13 is performed.
Figure 2009272727

(ただし、f(0)=a6, ,f(1)=b5, f(2)=c4, f(3)=d3, f(4)=e2, f(5)=f1, f(6)=g0, f(7)=f0,
f(8)=e1, ,f(9)=d2, f(10)=c3, f(11)=b4, f(12)=a5,
又は、f(0)=g0, ,f(1)=f1, f(2)=e2, f(3)=d3, f(4)=c4, f(5)=b5, f(6)=a6, f(7)=a5,
f(8)=b4, ,f(9)=c3, f(10)=d2, f(11)=e1, f(12)=f0)。
(However, f (0) = a6,, f (1) = b5, f (2) = c4, f (3) = d3, f (4) = e2, f (5) = f1, f (6) = g0, f (7) = f0,
f (8) = e1,, f (9) = d2, f (10) = c3, f (11) = b4, f (12) = a5,
Or f (0) = g0,, f (1) = f1, f (2) = e2, f (3) = d3, f (4) = c4, f (5) = b5, f (6) = a6, f (7) = a5,
f (8) = b4,, f (9) = c3, f (10) = d2, f (11) = e1, f (12) = f0).

さらに、画素列(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)については、画素列を折り返し合わせて数式(17)のように基底長9の1次元DCTが行われる。

Figure 2009272727
Further, for the pixel columns (a3, b2, c1, d0) and (a4, b3, c2, d1, e0), the pixel columns are folded and a one-dimensional DCT having a base length of 9 is performed as shown in Equation (17). Is called.
Figure 2009272727

(ただし、f(0)=a4, ,f(1)=b3, f(2)=c2, f(3)=d1, f(4)=e0, f(5)=d0, f(6)=c1, f(7)=b2,
f(8)=a3又は、f(0)=e0, ,f(1)=d1, f(2)=c2, f(3)=b3, f(4)=a4, f(5)=a3, f(6)=b2, f(11)=c1, f(12)=d0)。
(However, f (0) = a4,, f (1) = b3, f (2) = c2, f (3) = d1, f (4) = e0, f (5) = d0, f (6) = c1, f (7) = b2,
f (8) = a3 or f (0) = e0,, f (1) = d1, f (2) = c2, f (3) = b3, f (4) = a4, f (5) = a3 , f (6) = b2, f (11) = c1, f (12) = d0).

さらに、画素列(a0)、(a1,b0)、(a2,b1,c0)については、画素列を折り返し結合して数式(18)のように基底長6の1次元DCTが行われる。

Figure 2009272727
Further, for the pixel columns (a0), (a1, b0), and (a2, b1, c0), the pixel columns are folded and combined, and a one-dimensional DCT with a base length of 6 is performed as shown in Equation (18).
Figure 2009272727

(ただし、f(0)=a2, f(1)=b1, f(2)=c0, f(3)=b0,f(4)=a(1),f(5)=a(0)
もしくは、f(0)=c0,f(1)=b1,f(2)=a2,f(3)=a1,f(4)=b0,f(5)=a(0))。
(However, f (0) = a2, f (1) = b1, f (2) = c0, f (3) = b0, f (4) = a (1), f (5) = a (0)
Or, f (0) = c0, f (1) = b1, f (2) = a2, f (3) = a1, f (4) = b0, f (5) = a (0)).

また、上記では、画素列(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)に対して、隣り合う画素列を結合して1次元DCTを行ったが、 (a7,b6,c5,d4,e3,f2,g1,h0)に対して行った1次元DCT同様に、それぞれの画素列を結合せずに1次元DCTを行うことも可能である。この時の1次元DCTをかける画素列の組み合わせを図11(b)に示す。   In the above, the pixel columns (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1, d0), (a4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0) and (a6, b5, c4, d3, e2, f1, g0) were subjected to one-dimensional DCT by combining adjacent pixel columns. , c5, d4, e3, f2, g1, h0), it is also possible to perform a one-dimensional DCT without combining the respective pixel columns. FIG. 11B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time.

残りの画素列の(b7,c6,d5,e4,f3,g2,h1)、(c7,d6,e5,f4,g3,h2)、(d7,e6,f5,g4,h3)、(e7,f6,g5,h4)、(f7,g6,h5)、(g7,h6)については、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)と、8x8ブロックの対角線である画素列(a7,b6,c5,d4,e3,f2,g1,h0)に関して線対称であるので、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)と同様の計算で1次元DCTを行う。   (B7, c6, d5, e4, f3, g2, h1), (c7, d6, e5, f4, g3, h2), (d7, e6, f5, g4, h3), (e7, For (f6, g5, h4), (f7, g6, h5), (g7, h6), (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1, d0) , (A4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0), (a6, b5, c4, d3, e2, f1, g0) and a diagonal line of 8 × 8 blocks Since it is axisymmetric with respect to the pixel column (a7, b6, c5, d4, e3, f2, g1, h0), (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1 , d0), (a4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0), (a6, b5, c4, d3, e2, f1, g0) Perform one-dimensional DCT.

予測モード4の場合は、予測モード3の予測方向を回転又は反転したものと考えられるので、予測モード3の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the prediction mode 4, since it is considered that the prediction direction of the prediction mode 3 is rotated or reversed, the DCT calculation can be performed in the same manner as in the prediction mode 3.
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.

次に、予測モード5〜8に対応するDCT演算方法を説明する。   Next, DCT calculation methods corresponding to prediction modes 5 to 8 will be described.

予測モード5の場合、サブブロック内の画素を、予測方向に沿って、(a0,b0,c1,d1,e2,f2,g3,h3)、(a1,b1,c2,d2,e3,f3,g4,h4)、(a2,b2,c3,d3,e4,f4,g5,h5)、(a3,b3,c4,d4,e5,f5,g6,h6)、(a4,b4,c5,d5,e6,f6,g7,h7)、(c0,d0,e1,f1,g2,h2)、(a5,b5,c6,d6,e7,f7)、(e0,f0,g1,h1)、(h0,g0) 、(a6,b6,c7,d7)、(a7,b7)の11組に画素をまとめる。この時の1次元DCTをかける画素列の組み合わせを図12(a)に示す。変換係数をF(u)とすると、画素列(a0,b0,c1,d1,e2,f2,g3,h3)に関しては、数式(19)のように基底長8の1次元DCTが行われる。

Figure 2009272727
In the case of the prediction mode 5, the pixels in the sub-block are (a0, b0, c1, d1, e2, f2, g3, h3), (a1, b1, c2, d2, e3, f3, g4, h4), (a2, b2, c3, d3, e4, f4, g5, h5), (a3, b3, c4, d4, e5, f5, g6, h6), (a4, b4, c5, d5, e6, f6, g7, h7), (c0, d0, e1, f1, g2, h2), (a5, b5, c6, d6, e7, f7), (e0, f0, g1, h1), (h0, g0), (a6, b6, c7, d7) and (a7, b7) are grouped into 11 groups of pixels. FIG. 12A shows a combination of pixel columns to which one-dimensional DCT is applied at this time. Assuming that the conversion coefficient is F (u), a one-dimensional DCT with a base length of 8 is performed on the pixel column (a0, b0, c1, d1, e2, f2, g3, h3) as shown in Equation (19).
Figure 2009272727

(ただし、f(0)=a0, f(1)=b0, f(2)=c1, f(3)=d1, f(4)=e2, f(5)=f2, f(6)=g3, f(7)=h3)
画素列(a1,b1,c2,d2,e3,f3,g4,h4)、(a2,b2,c3,d3,e4,f4,g5,h5)、(a3,b3,c4,d4,e5,f5,g6,h6)、(a4,b4,c5,d5,e6,f6,g7,h7)に関しても同じ演算が行われる。
(However, f (0) = a0, f (1) = b0, f (2) = c1, f (3) = d1, f (4) = e2, f (5) = f2, f (6) = g3, f (7) = h3)
Pixel column (a1, b1, c2, d2, e3, f3, g4, h4), (a2, b2, c3, d3, e4, f4, g5, h5), (a3, b3, c4, d4, e5, f5 , g6, h6) and (a4, b4, c5, d5, e6, f6, g7, h7), the same calculation is performed.

次に、画素列(c0,d0,e1,f1,g2,h2)に関しては、数式(20)のように基底長6の1次元DCTが行われる。

Figure 2009272727
Next, for the pixel column (c0, d0, e1, f1, g2, h2), a one-dimensional DCT with a base length of 6 is performed as in Equation (20).
Figure 2009272727

(ただし、f(0)=c0, f(1)=d0,f(2)=e1,f(3)=f1,f(4)=g2,f(5)=h2)
画素列(a5,b5,c6,d6,e7,f7)に関しても同じ演算が行われる。
(However, f (0) = c0, f (1) = d0, f (2) = e1, f (3) = f1, f (4) = g2, f (5) = h2)
The same calculation is performed on the pixel columns (a5, b5, c6, d6, e7, f7).

次に、画素列(e0,f0,g1,h1)、(h0,g0) に関しては、画素列を折り返し結合して、数式(21)のように基底長6の1次元DCTが行われる。

Figure 2009272727
Next, with respect to the pixel columns (e0, f0, g1, h1) and (h0, g0), the pixel columns are folded and combined, and a one-dimensional DCT with a base length of 6 is performed as shown in Equation (21).
Figure 2009272727

(ただし、f(0)=e0, f(1)=f0,f(2)=g1,f(3)=h1,f(4)=h0,f(5)=g0)
画素(a6,b6,c7,d7)、(a7,b7)に関しても同じ演算が行われる。
(However, f (0) = e0, f (1) = f0, f (2) = g1, f (3) = h1, f (4) = h0, f (5) = g0)
The same calculation is performed on the pixels (a6, b6, c7, d7) and (a7, b7).

また、上記では、画素列(e0,f0,g1,h1)、(h0,g0)、(d7,c7,b6,a6)、(a7,b7)に対して、隣り合う画素列を結合して1次元DCTを行ったが、 (a0,b0,c1,d1,e2,f2,g3,h3)に対して行った1次元DCT同様に、それぞれの画素列を結合せずに1次元DCTを行うことも可能である。この時の1次元DCTをかける画素列の組み合わせを図12(b)に示す。   In the above, the pixel columns (e0, f0, g1, h1), (h0, g0), (d7, c7, b6, a6), (a7, b7) are combined with adjacent pixel columns. The one-dimensional DCT is performed, but the one-dimensional DCT is performed without combining the respective pixel columns, similarly to the one-dimensional DCT performed on (a0, b0, c1, d1, e2, f2, g3, h3). It is also possible. FIG. 12B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time.

予測モード6〜8の場合は、予測モード5の予測方向を回転もしくは反転したものと考えられるので、予測モード5の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the prediction modes 6 to 8, since it is considered that the prediction direction of the prediction mode 5 is rotated or reversed, it is possible to perform the DCT calculation as in the case of the prediction mode 5.
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.

本実施の形態では、符号化対象のサブブロックのブロックサイズとして、4x4サイズと8x8サイズを用いたが、別の実施の形態として、4x4サイズよりも小さいサイズのブロックや、8x8サイズよりも大きいサイズのブロックをサブブロックとして符号化処理を行うことも可能である。例えば、2x2サイズや16x16サイズのブロックで符号化処理を行っても構わない。   In this embodiment, the 4 × 4 size and the 8 × 8 size are used as the block size of the sub-block to be encoded. However, as another embodiment, a block having a size smaller than the 4 × 4 size or a size larger than the 8 × 8 size is used. It is also possible to perform the encoding process using these blocks as sub-blocks. For example, the encoding process may be performed with a block of 2 × 2 size or 16 × 16 size.

また、本実施の形態では、直交変換方法として、DCTを用いたが、別の実施の形態として、KLT、DST、離散ウェーブレット変換(Discrete Wavelet Transform、以下DWT)を用いることが可能である。   In this embodiment, DCT is used as the orthogonal transformation method. However, as another embodiment, KLT, DST, and discrete wavelet transform (hereinafter referred to as DWT) can be used.

エントロピー符号化部106には、第1変換部102及び第1量子化部104又は第2変換部103及び第2量子化部105で生成された量子化変換係数117、そして符号化制御部107で生成された変換情報118が入力され、エントロピー符号化が行われる。モード判定によって最適と判定されたモードの変換情報118、変換係数117がエントロピー符号化され、符号化データ124が生成される。
また、モード判定によって最適モードと判定された予測モードが平均予測、垂直方向又は水平方向の予測である場合、エントロピー符号化部106は変換情報118を符号化せず、量子化変換係数117のみをエントロピー符号化する。
The entropy encoding unit 106 includes a quantized transform coefficient 117 generated by the first transform unit 102 and the first quantization unit 104 or the second transform unit 103 and the second quantization unit 105, and an encoding control unit 107. The generated conversion information 118 is input and entropy coding is performed. The conversion information 118 and the conversion coefficient 117 of the mode determined to be optimal by the mode determination are entropy encoded, and encoded data 124 is generated.
In addition, when the prediction mode determined as the optimum mode by the mode determination is average prediction, prediction in the vertical direction or horizontal direction, the entropy encoding unit 106 does not encode the conversion information 118, and only the quantized conversion coefficient 117 is used. Entropy encoding.

量子化変換係数117は、逆変換方法選択スイッチ108に入力される。逆変換方法選択スイッチ108は、変換情報118の値に従ってスイッチが切り替えられ、量子化変換係数117は、第2逆量子化部109又は第1逆量子化部110に入力される。   The quantized transform coefficient 117 is input to the inverse transform method selection switch 108. The inverse transformation method selection switch 108 is switched according to the value of the transformation information 118, and the quantized transformation coefficient 117 is input to the second inverse quantization unit 109 or the first inverse quantization unit 110.

第1逆量子化部110では図13(a)のように、量子化変換係数117に対して水平垂直方向の逆DCTに対応した逆量子化が逆量子化器216によって行われ、変換係数はその後図13(b)のように、第1逆変換部112で水平垂直方向の逆DCTが逆DCT器217によって行われ、復号予測誤差信号119が生成される。また、第2逆量子化部109では図14(a)のように、量子化変換係数117は予測モード情報120の予測方向の逆DCTに対応した逆量子化が逆量子化器(219〜224)によって行われる。さらに変換係数は、図14(b)のように、第2逆変換部111で、逆DCT器226〜231から選択された、予測モード情報120の予測方向に対応した逆DCT器によって逆DCTが行われ、復号予測誤差信号119が生成される。
復号予測誤差信号119は、予測部114で生成された予測画像信号121と加算され、参照メモリ113に蓄えられた後、参照画像信号122として予測部114に入力される。
In the first inverse quantization unit 110, as shown in FIG. 13A, inverse quantization corresponding to inverse DCT in the horizontal and vertical directions is performed on the quantized transform coefficient 117 by the inverse quantizer 216, and the transform coefficient is Thereafter, as shown in FIG. 13B, the inverse DCT in the horizontal and vertical directions is performed by the inverse DCT unit 217 in the first inverse transform unit 112, and the decoded prediction error signal 119 is generated. In addition, in the second inverse quantization unit 109, as shown in FIG. 14A, the quantization transform coefficient 117 is subjected to inverse quantization corresponding to inverse DCT in the prediction direction of the prediction mode information 120 by an inverse quantizer (219 to 224). ). Further, as shown in FIG. 14B, the transform coefficient is obtained by the inverse DCT by the inverse DCT unit corresponding to the prediction direction of the prediction mode information 120 selected from the inverse DCT units 226 to 231 by the second inverse transform unit 111. And a decoded prediction error signal 119 is generated.
The decoded prediction error signal 119 is added to the prediction image signal 121 generated by the prediction unit 114, stored in the reference memory 113, and then input to the prediction unit 114 as the reference image signal 122.

以上が本実施の形態にかかる動画像符号化装置100の構成である。以下、本実施の形態の動画像符号化方法について、動画像符号化装置100が実施する場合を例にあげ、図15のフローチャートを参照しながら説明する。   The above is the configuration of the video encoding apparatus 100 according to the present embodiment. Hereinafter, the moving picture coding method according to the present embodiment will be described with reference to the flowchart of FIG.

動画像符号化装置100に、1フレーム毎に動画像信号が入力されると、入力された画像はマクロブロック毎又はマクロブロックペア毎に符号化が開始される(ステップS301)。マクロブロックを符号化するに当たって、サブブロックのインデックスをsub_blk=0に初期化し、同時にサブブロックの個数MAX_SUB_BLKをセットする(ステップS302)。   When a moving image signal is input to the moving image encoding device 100 for each frame, encoding of the input image is started for each macroblock or macroblock pair (step S301). In encoding the macroblock, the subblock index is initialized to sub_blk = 0, and the number of subblocks MAX_SUB_BLK is set at the same time (step S302).

サブブロックのインデックスsub_blkがMAX_SUB_BLKより小さいかどうかを判別し、マクロブロック内のサブブロックにまだ符号化していないサブブロックが存在することを確認する(ステップS303)。ステップS303の判定が「Yes」の場合は、予測モードのインデックスをmode_idx=0に初期化し、選択されうるモード数MAX_MODEをセットする(ステップS304)。   It is determined whether or not the sub-block index sub_blk is smaller than MAX_SUB_BLK, and it is confirmed that there is an uncoded sub-block in the sub-block in the macro block (step S303). If the determination in step S303 is “Yes”, the prediction mode index is initialized to mode_idx = 0, and the number of modes MAX_MODE that can be selected is set (step S304).

次に、mode_idxがMAX_MODEよりも小さいか否かを判定し(ステップS305)、ステップS305の判定が「Yes」の場合は、mode_idxの値に応じてtrans_idxをセットする。すなわち、mode_idxが斜め方向の予測モードを示すモード番号である場合は、trans_idx=0に設定し、mode_idxが斜め方向ではない予測モードを示すモード番号である場合は、trans_idxは生成されない(ステップS306)。さらに、予測部114にて、予測モードmode_idxにおける予測画像信号121が生成される(ステップS307)。予測部114で生成された予測画像信号121と入力画像信号115との差分をとることで、予測モードmode_idxにおける予測誤差信号116が求められる(ステップS308)。   Next, it is determined whether or not mode_idx is smaller than MAX_MODE (step S305). If the determination in step S305 is “Yes”, trans_idx is set according to the value of mode_idx. That is, when mode_idx is a mode number indicating a prediction mode in an oblique direction, trans_idx = 0 is set, and when mode_idx is a mode number indicating a prediction mode not in an oblique direction, trans_idx is not generated (step S306). . Further, the prediction unit 114 generates a prediction image signal 121 in the prediction mode mode_idx (step S307). By taking the difference between the predicted image signal 121 generated by the prediction unit 114 and the input image signal 115, the prediction error signal 116 in the prediction mode mode_idx is obtained (step S308).

次に、符号化制御部107は、予測部114で選択された予測モードmode_idxが、斜め方向の予測モードを示すモード番号のうち最小の値であるmode_directionよりも小さいか、又はtrans_idx==1かどうかを判別する(ステップS309)。ステップS309の判定における2つの条件のうちいずれかを満たす場合は変換方法選択スイッチ101を第1変換部102に切り替え、予測誤差信号116に対して水平垂直DCTが行われ(ステップS310)、その後変換係数は水平垂直DCTに対応した量子化が行われ、量子化変換係数117が生成される(ステップS312)。   Next, the encoding control unit 107 determines whether the prediction mode mode_idx selected by the prediction unit 114 is smaller than mode_direction which is the smallest value among the mode numbers indicating the prediction modes in the oblique direction, or trans_idx == 1 It is determined whether or not (step S309). If either of the two conditions in the determination in step S309 is satisfied, the conversion method selection switch 101 is switched to the first conversion unit 102, and the horizontal / vertical DCT is performed on the prediction error signal 116 (step S310). The coefficient is quantized corresponding to horizontal and vertical DCT, and a quantized transform coefficient 117 is generated (step S312).

ステップS309の判定における2つの条件をいずれも満たさない場合、選択スイッチ101を第2変換部103に切り替え、さらに予測モードmode_idxに従って、第2変換部103のスイッチ202は変換器203〜208を切り替える。スイッチ202により選択された変換器により予測誤差信号116に対して予測方向に応じたDCTが行われる(ステップ311)。その後変換係数は、第2量子化部105において各DCTに対応した量子化が第2量子化部105の量子化器210〜215の対応する各量子化器によって行われ、量子化変換係数117が生成される(ステップS313)。   When neither of the two conditions in the determination in step S309 is satisfied, the selection switch 101 is switched to the second conversion unit 103, and the switch 202 of the second conversion unit 103 switches the converters 203 to 208 according to the prediction mode mode_idx. DCT corresponding to the prediction direction is performed on the prediction error signal 116 by the converter selected by the switch 202 (step 311). Thereafter, the transform coefficient is quantized corresponding to each DCT in the second quantizing unit 105 by the corresponding quantizers of the quantizers 210 to 215 of the second quantizing unit 105, and the quantized transform coefficient 117 is obtained. It is generated (step S313).

即ち、予測方向が垂直方向及び水平方向ではない場合のみ、垂直水平方向の変換方法と予測モードに従った予測方向の変換方法とを切替え、予測方向が垂直方向及び水平方向の場合、常に垂直水平方向の変換方法を選択する。要するに、予測方向が斜め方向の場合には、垂直水平方向の変換と斜め方向の変換とを行い、予測方向が垂直方向及び水平方向の場合には、垂直水平方向の変換のみを行う。   That is, only when the prediction direction is not the vertical direction or the horizontal direction, the conversion method between the vertical horizontal direction and the prediction direction conversion method according to the prediction mode is switched. When the prediction direction is the vertical direction and the horizontal direction, the horizontal direction is always vertical. Select the direction conversion method. In short, when the prediction direction is an oblique direction, conversion in the vertical and horizontal directions and conversion in the oblique direction are performed, and when the prediction directions are the vertical direction and the horizontal direction, only conversion in the vertical and horizontal directions is performed.

次に、量子化変換係数117と変換情報118は、エントロピー符号化部106で符号化される(ステップS314)。この際、mode_idx < mode_directionの場合は、変換情報trans_idxが生成されないので、変換情報118は符号化されず、変換係数117のみが符号化される。即ち、前記エントロピー符号化部106は、変換情報と変換係数を符号化する際に、予測モード情報が示す予測方向が垂直方向及び水平方向ではない場合のみ、変換係数に加えて変換情報を符号化し、予測モードが示す予測方向が垂直方向及び水平方向である場合は、変換情報は符号化せず、変換係数のみを符号化する。   Next, the quantized transform coefficient 117 and the transform information 118 are encoded by the entropy encoding unit 106 (step S314). At this time, if mode_idx <mode_direction, the conversion information trans_idx is not generated, so the conversion information 118 is not encoded, and only the conversion coefficient 117 is encoded. That is, when encoding the transform information and the transform coefficient, the entropy coding unit 106 codes the transform information in addition to the transform coefficient only when the prediction direction indicated by the prediction mode information is not the vertical direction and the horizontal direction. When the prediction directions indicated by the prediction mode are the vertical direction and the horizontal direction, the conversion information is not encoded, and only the conversion coefficient is encoded.

ステップS314のエントロピー符号化の後、予測モードのRDコストを保存し(ステップS315)、その後、trans_idxが1かどうかを判定する(ステップS316)。ステップS316において、trans_idx==0だった場合は、trans_idxに1を足して(ステップS317)、ステップS309に戻り、予測モードmode_idxと変換情報trans_idxに基づいて再度分岐判定を行う。   After entropy coding in step S314, the prediction mode RD cost is stored (step S315), and then it is determined whether or not trans_idx is 1 (step S316). In step S316, if trans_idx == 0, 1 is added to trans_idx (step S317), the process returns to step S309, and branch determination is performed again based on the prediction mode mode_idx and the conversion information trans_idx.

ステップS309〜S315を経て、再度ステップS316においてtrans_idxが1かどうかの判定を行う。ステップS316の判定において、trans_idx==1だった場合はmode_idxに1を加算して、次の予測モードをセットする(ステップS318)。その後、セットした予測モードmode_idxがMAX_MODEより小さいか否かを確認し(ステップS305)、小さい場合ステップS306〜ステップS318の処理を行う。可能な全てのモードについて、ステップS306〜ステップS318までの処理を行った後、ステップS305でmode_idx<MAX_MODEの判定が「NO」と判定されると、サブブロックのインデックスsub_blkに1を加算して、次のサブブロックの符号化処理に移る(ステップS319)。次のサブブロックがMAX_SUB_BLKより小さいか否かを判定し(ステップS303)、ステップS303の判定が「Yes」の場合はステップS304〜ステップS319の処理を行う。全サブブロックについてステップS304〜ステップS319が終了した後、sub_blk<MAX_SUB_BLKの判定が「NO」と判定されると、各サブブロックについて求められた各モードのコスト関数を比較し、各ブロックの最適モードをロードし(ステップS320)、最適モードで符号化を行った際の符号化データをマクロブロックで多重化し、送出される(ステップS321)。   After steps S309 to S315, it is determined again whether or not trans_idx is 1 in step S316. If it is determined in step S316 that trans_idx == 1, 1 is added to mode_idx, and the next prediction mode is set (step S318). Thereafter, it is confirmed whether or not the set prediction mode mode_idx is smaller than MAX_MODE (step S305). If it is smaller, the processes of steps S306 to S318 are performed. After performing the processing from step S306 to step S318 for all possible modes, if the determination of mode_idx <MAX_MODE is “NO” in step S305, 1 is added to the subblock index sub_blk, The process proceeds to the encoding process for the next sub-block (step S319). It is determined whether or not the next sub-block is smaller than MAX_SUB_BLK (step S303). If the determination in step S303 is “Yes”, the processing from step S304 to step S319 is performed. If the determination of sub_blk <MAX_SUB_BLK is “NO” after steps S304 to S319 have been completed for all the subblocks, the cost functions of the respective modes obtained for the respective subblocks are compared, and the optimum mode of each block is compared. Is loaded (step S320), and the encoded data when encoding is performed in the optimum mode is multiplexed with a macroblock and transmitted (step S321).

次に、本実施の形態で用いられるシンタクスの説明を行う。シンタクスの全体的な構造を図18に示す。本実施の形態で用いられるシンタクスは、主に3つのパートからなり、High Level Syntaxはスライス以上の上位レイヤのシンタクス情報が詰め込まれている。Slice Level Syntaxはスライス毎に必要な情報が明記されており、Macroblock Level Syntaxはマクロブロック毎に必要とされる可変長符号化された誤差信号やモード情報が明記されている。
シンタクスのそれぞれは、さらに詳細なシンタクスで構成されており、High Level Syntaxでは、Sequence parameter set syntaxとPicture parameter set syntaxなどのシーケンス、ピクチャレベルのシンタクスから構成されている。Slice Level Syntaxでは、Slice header syntax、Slice data syntaxなどから成る。さらに、Macroblock Level Syntaxは、Macroblock layer syntax、Macroblock prediction syntaxなどから構成されている。
Next, the syntax used in this embodiment will be described. The overall structure of the syntax is shown in FIG. The syntax used in the present embodiment is mainly composed of three parts, and High Level Syntax is packed with syntax information of an upper layer higher than a slice. Slice Level Syntax specifies information required for each slice, and Macroblock Level Syntax specifies error signal and mode information encoded in variable length required for each macroblock.
Each syntax is composed of more detailed syntax, and in High Level Syntax, it is composed of sequences such as Sequence parameter set syntax and Picture parameter set syntax, and syntax of picture level. Slice Level Syntax consists of Slice header syntax, Slice data syntax, etc. Furthermore, Macroblock Level Syntax is composed of Macroblock layer syntax, Macroblock prediction syntax, and the like.

本実施の形態で、必要となるシンタクス情報はシーケンスヘッダ、スライスヘッダ、マクロブロックヘッダであり、それぞれのシンタクスを以下で説明する。   In the present embodiment, required syntax information is a sequence header, a slice header, and a macroblock header, and each syntax will be described below.

図19のシーケンスヘッダ内に示されるdirectional_dct_seq_flagは、符号化対象シーケンスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、符号化対象シーケンスで本実施の形態の直交変換方式を使用することが可能である。次に、図20のピクチャヘッダ内に示されるdirectional_dct_pic_flagは、ピクチャで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、ピクチャで本実施の形態の直交変換方式を用いることが可能となる。次に、図21のスライスヘッダ内に示されるdirectional_dct_slice_flagは、スライスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、スライスで本実施の形態の直交変換方式を用いることが可能となる。   The directional_dct_seq_flag shown in the sequence header of FIG. 19 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the encoding target sequence. When this flag is 1, the directional_dct_seq_flag is set in the encoding target sequence. It is possible to use a form of orthogonal transform scheme. Next, directional_dct_pic_flag shown in the picture header of FIG. 20 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used for a picture. When this flag is 1, the orthogonal of the present embodiment is used for a picture. A conversion method can be used. Next, directional_dct_slice_flag shown in the slice header of FIG. 21 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the slice. When this flag is 1, the orthogonal of the present embodiment is used in the slice. A conversion method can be used.

図22に示すようにマクロブロックヘッダ内には、マクロブロックレイヤ内のシンタクスとして、directional_dct4x4_mode_flag、directional_dct8x8_mode_flagの二つのフラグを持つ。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをマクロブロックにつき1ビット生成する。これら二つのフラグは、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報であり、それぞれのフラグが1を示す場合は、水平垂直DCTが行われていることを示し、0を示す場合は予測方向に依存したDCTが行われていることを示す。   As shown in FIG. 22, the macroblock header has two flags of directional_dct4x4_mode_flag and directional_dct8x8_mode_flag as syntax in the macroblock layer. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each macroblock. These two flags are transformation information indicating whether the orthogonal transformation is horizontal / vertical DCT or DCT depending on the prediction direction. When each flag indicates 1, horizontal / vertical DCT is used. Indicates that DCT is being performed, and a value of 0 indicates that DCT depending on the prediction direction is being performed.

本実施の形態では、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、別の実施の形態として、サブブロックごとに変換情報を決定したり、さらにはサブブロック単位で補助情報に従って変換情報を決定したりする方法が考えられる。   In this embodiment, for each macroblock, transform information indicating whether orthogonal transform is performing horizontal / vertical DCT or DCT depending on the prediction direction is determined. However, as another embodiment, A method of determining conversion information for each sub-block, or determining conversion information according to auxiliary information for each sub-block can be considered.

上述のように第1の実施の形態によると、各ブロックに対して、従来のH.264の変換方式に加えて、変換方向をイントラ予測が行われる方向に限定して1次元DCTをかける。また、斜め方向に1次元DCTをかける際には、イントラ予測の方向を考慮して画素を折り返すことで、基底長の長い1次元DCTをかける。また、予測方向に1次元DCTをかける際は、予測方向に1回だけ1次元DCTをかける。即ち、予測方向が斜め方向の場合、垂直水平変換と予測方向の斜め変換との2つを行い、斜め方向の変換を予測方向に対応する一種類に絞り、垂直水平変換結果と予測方向に合わせた斜め方向の変換結果とを比較して最適な変換方法を採用する。   As described above, according to the first embodiment, in addition to the conventional H.264 conversion method, one-dimensional DCT is applied to each block while limiting the conversion direction to the direction in which intra prediction is performed. In addition, when the one-dimensional DCT is applied in an oblique direction, the one-dimensional DCT having a long base length is applied by folding back pixels in consideration of the direction of intra prediction. In addition, when the one-dimensional DCT is applied in the prediction direction, the one-dimensional DCT is applied only once in the prediction direction. In other words, when the prediction direction is diagonal, the vertical horizontal conversion and the diagonal conversion of the prediction direction are performed, and the diagonal conversion is narrowed down to one type corresponding to the prediction direction, and the vertical horizontal conversion result and the prediction direction are matched. The optimum conversion method is adopted by comparing the result of conversion in the diagonal direction.

[第2の実施の形態]
次に、第2の実施の形態について説明する。本実施の形態における動画像符号化装置の全体的な構成は、第1の実施形態とほぼ同様であるため、第1の実施の形態との相違点のみを説明する。第1の実施の形態では、本実施の形態の直交変換方式を用いるかどうかを、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、本実施の形態では、変換情報を、サブマクロブロック単位で切り替える。本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図23に示す。
[Second Embodiment]
Next, a second embodiment will be described. Since the overall configuration of the moving picture coding apparatus according to the present embodiment is substantially the same as that of the first embodiment, only differences from the first embodiment will be described. In the first embodiment, whether or not the orthogonal transform method of the present embodiment is used is determined for each macroblock whether the orthogonal transform performs horizontal / vertical DCT or performs DCT depending on the prediction direction. In this embodiment, the conversion information is switched in units of sub-macroblocks. FIG. 23 shows the syntax structure in the macroblock header in the present embodiment.

本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブマクロブロックにつき1ビット生成する。すなわち、マクロブロックが4x4変換を行う場合は、1マクロブロック中に16個のdirectional_dct4x4_mode_flagが存在し、8x8変換を行う場合は1マクロブロック中に4個のdirectional_dct8x8_mode_flagが存在する。   In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each sub macroblock. That is, 16 directional_dct4x4_mode_flag exists in one macroblock when the macroblock performs 4x4 conversion, and 4 directional_dct8x8_mode_flag exists in one macroblock when the 8x8 conversion is performed.

[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。本実施の形態における動画像符号化装置の全体的な構成は、第2の実施形態とほぼ同様であるため、第2の実施の形態との相違点のみを説明する。本実施の形態では、第2の実施の形態と同様にして、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブブロックにつき1ビットを生成する。この際に、第2の実施の形態とは異なり、全てのサブブロックにフラグを作成するのではなく、予測モード情報やサブブロックに非ゼロ係数が含まれるかを表すcoded_block_patternの補助情報を用いて、サブブロックにフラグを生成するかどうかを決定する。本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図24に示す。intra8x8_pred_mode、intra4x4_pred_modeはそれぞれ、8x8ブロックと4x4ブロックの予測モードを表す値で、予測方向と予測モードの値の関係は図3の値と同様である。符号化の際に、予測モードが示す予測の方向が垂直方向、水平方向、DC方向である場合、さらにサブブロックが含まれる8x8画素ブロックにおいて、Coded_Block_Patternから非ゼロ係数を持たないと判定される場合は、予測方向に依存した変換を行う必要がないので、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagは生成されない。
[Third embodiment]
Next, a third embodiment of the present invention will be described. Since the overall configuration of the moving picture encoding apparatus in the present embodiment is substantially the same as that of the second embodiment, only differences from the second embodiment will be described. In this embodiment, as in the second embodiment, when the macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, the subblock in the macroblock is a 4 × 4 block. If there is, directional_dct_4x4_mode_flag is generated, and if the subblock is an 8x8 block, directional_dct8x8_mode_flag is generated for one bit per subblock. At this time, unlike the second embodiment, instead of creating a flag for all sub-blocks, using prediction mode information and auxiliary information of coded_block_pattern indicating whether the non-zero coefficient is included in the sub-block Determine whether to generate a flag in the sub-block. FIG. 24 shows the syntax structure in the macroblock header in the present embodiment. intra8x8_pred_mode and intra4x4_pred_mode are values representing prediction modes of the 8x8 block and the 4x4 block, respectively, and the relationship between the prediction direction and the value of the prediction mode is the same as the value of FIG. When encoding, when the prediction direction indicated by the prediction mode is the vertical direction, the horizontal direction, or the DC direction, and when it is determined that the 8 × 8 pixel block including the sub-block does not have a non-zero coefficient from Coded_Block_Pattern Since there is no need to perform conversion depending on the prediction direction, directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is not generated.

[第4の実施の形態]
図16は、第4の実施形態に係わる動画像復号化装置400の構成を示すブロック図である。本実施形態に係る動画像復号化装置400は、符号化データから変換係数、予測モード情報、変換情報を解析するエントロピー復号部401と、解析された変換情報から逆量子化及び逆変換方法を選択する逆変換方法選択スイッチ402と、予測モード情報から得られる予測の方向に対応した逆量子化及び逆変換を行う逆量子化変換部403〜406とを備えている。
[Fourth embodiment]
FIG. 16 is a block diagram illustrating a configuration of a video decoding device 400 according to the fourth embodiment. The video decoding apparatus 400 according to the present embodiment selects an entropy decoding unit 401 that analyzes transform coefficients, prediction mode information, and transform information from encoded data, and an inverse quantization and inverse transform method from the analyzed transform information. Inverse transform method selection switch 402, and inverse quantization transform units 403 to 406 that perform inverse quantization and inverse transform corresponding to the direction of prediction obtained from the prediction mode information.

図16において、動画像符号化装置100から送出され、伝送系又は蓄積系を経て送られてきた符号化データ409は、多重化分離器(図示せず)により1フレーム毎にシンタクスに基づいて分離された後、エントロピー復号部401に入力される。エントロピー復号部401では、符号化データの各シンタクスの可変長符号が復号され、変換情報410、予測モード情報411、量子化変換係数412などが再生される。   In FIG. 16, encoded data 409 sent from the moving image encoding apparatus 100 and sent via the transmission system or the storage system is separated on the basis of the syntax for each frame by a demultiplexer (not shown). Is then input to the entropy decoding unit 401. In the entropy decoding unit 401, the variable length code of each syntax of the encoded data is decoded, and the transform information 410, the prediction mode information 411, the quantized transform coefficient 412 and the like are reproduced.

量子化変換係数は、逆変換方法選択スイッチ402に入力され、エントロピー復号部401で復号された変換情報410に基づいて、第1逆量子化部403、第2逆量子化部404のいずれかに接続される。第1逆量子化部403に接続された場合、水平垂直DCTに対応した逆量子化方法で、量子化変換係数は逆量子化される。一方、第2逆量子化部404に接続された場合、エントロピー復号部401で再生された予測モード情報411によって、逆量子化方法が逆量子化器219〜224から選択され、予測モード情報が示す予測方向のDCTに対応した逆量子化が行われる。第1逆量子化部403又は第2逆量子化部404で逆量子化された変換係数は、対応する第1逆変換部405又は第2逆変換部406に入力される。第1逆変換部405では、水平垂直逆DCTが行われ、第2逆変換部406では、予測モード情報411によって、逆DCTの方法が逆DCT器226〜231から選択され、予測モードが示す予測方向に依存した逆DCTが行われ、復号予測誤差信号413が出力される。   The quantized transform coefficient is input to the inverse transform method selection switch 402, and based on the transform information 410 decoded by the entropy decoding unit 401, either the first inverse quantizer 403 or the second inverse quantizer 404. Connected. When connected to the first inverse quantization unit 403, the quantized transform coefficients are inversely quantized by an inverse quantization method corresponding to horizontal and vertical DCT. On the other hand, when connected to the second inverse quantization unit 404, the inverse quantization method is selected from the inverse quantizers 219 to 224 by the prediction mode information 411 reproduced by the entropy decoding unit 401, and the prediction mode information indicates Inverse quantization corresponding to DCT in the prediction direction is performed. The transform coefficient inversely quantized by the first inverse quantization unit 403 or the second inverse quantization unit 404 is input to the corresponding first inverse transform unit 405 or second inverse transform unit 406. The first inverse transform unit 405 performs horizontal / vertical inverse DCT, and the second inverse transform unit 406 selects the inverse DCT method from the inverse DCT units 226 to 231 based on the prediction mode information 411, and indicates the prediction indicated by the prediction mode. The direction-dependent inverse DCT is performed, and a decoded prediction error signal 413 is output.

参照メモリ407に蓄積されていた参照画像414と予測モード情報411を用いて、予測部408で予測画像415が生成される。復号予測誤差信号413と予測画像415を足し合わせることで復号画像信号が生成され、参照メモリ407に蓄積された後、再生画像として出力される。   A prediction image 415 is generated by the prediction unit 408 using the reference image 414 and the prediction mode information 411 stored in the reference memory 407. A decoded image signal is generated by adding the decoded prediction error signal 413 and the predicted image 415, accumulated in the reference memory 407, and then output as a reproduced image.

また、本実施の形態では、直交逆変換方法として、IDCTを用いたが、別の実施の形態として、KLT、DST、DWTの逆変換を用いることが可能である。   In this embodiment, IDCT is used as the orthogonal inverse transform method. However, as another embodiment, inverse transform of KLT, DST, and DWT can be used.

以上が本実施の形態にかかる動画像復号化装置400の構成である。以下、本発明にかかる本実施の形態の動画像復号化方法について、動画像復号化装置400が実施する場合を例にあげ、図17のフローチャートを参照しながら説明する。   The above is the configuration of the moving picture decoding apparatus 400 according to the present embodiment. Hereinafter, the moving picture decoding method according to the present embodiment of the present invention will be described with reference to the flowchart of FIG. 17 by taking the moving picture decoding apparatus 400 as an example.

動画像復号化装置400が、1フレーム毎に動画像符号化データを取得する(ステップS501)と、入力された動画像符号化データはマクロブロック毎、或いはマクロブロックペア毎に復号化が開始される。符号化データはまず、エントロピー復号部401に入力され、符号化データの各シンタクスの可変長符号が復号され、変換情報410、予測モード情報411、量子化変換係数412などが再生される(ステップS502)。さらに、ステップS502で復号されたデータから、シンタックスの解析を行う(ステップS503)。   When the moving image decoding apparatus 400 obtains moving image encoded data for each frame (step S501), decoding of the input moving image encoded data is started for each macroblock or each macroblock pair. The First, the encoded data is input to the entropy decoding unit 401, the variable length code of each syntax of the encoded data is decoded, and the transform information 410, the prediction mode information 411, the quantized transform coefficient 412 and the like are reproduced (step S502). ). Further, syntax analysis is performed from the data decoded in step S502 (step S503).

次に、サブブロックのインデックスをsub_blk=0に初期化する(ステップS504)。sub_blkがマクロブロックのサブブロック数MAX_SUB_BLKよりも小さいかどうかを判定し(ステップS505)、小さい場合はステップS503で解析したシンタックスから、予測モード情報mode_idx、変換情報trans_idxをロードする(ステップS506)。その後予測部408は、ステップS506でロードした予測モードmode_idxの予測画像を生成する(S507)。   Next, the sub-block index is initialized to sub_blk = 0 (step S504). It is determined whether or not sub_blk is smaller than the number of sub-blocks MAX_SUB_BLK of the macroblock (step S505). If smaller, prediction mode information mode_idx and conversion information trans_idx are loaded from the syntax analyzed in step S503 (step S506). Thereafter, the prediction unit 408 generates a prediction image of the prediction mode mode_idx loaded in step S506 (S507).

次に、予測モードmode_idxが斜め方向の予測を示す最も小さい予測モード番号mode_directionよりも小さいか、又はtrans_idx==1であるかどうかを判定する(ステップS508)。ステップS508の判定が「Yes」であれば、水平垂直DCTに対応した逆量子化が行われ(ステップS509)、その後水平垂直逆DCTが行われる(ステップS511)。ステップS508の判定が「NO」であれば、イントラ予測方向のDCTに対応した逆量子化が行われ(ステップS510)、その後イントラ予測方向に依存した逆DCTが行われる(ステップS512)。その後、復号された誤差信号と予測画像が合成され(ステップS513)、参照メモリ407に蓄積される(ステップS514)。その後、サブブロックのインデックスsub_blkに1を加算して、ステップS505に戻る。ステップS505の判定が、「NO」である場合、マクロブロックの全サブブロックの復号化が終了し、復号画像を出力する(ステップS516)。   Next, it is determined whether or not the prediction mode mode_idx is smaller than the smallest prediction mode number mode_direction indicating prediction in the oblique direction, or trans_idx == 1 (step S508). If the determination in step S508 is “Yes”, inverse quantization corresponding to horizontal and vertical DCT is performed (step S509), and then horizontal and vertical inverse DCT is performed (step S511). If the determination in step S508 is “NO”, inverse quantization corresponding to DCT in the intra prediction direction is performed (step S510), and then inverse DCT depending on the intra prediction direction is performed (step S512). Thereafter, the decoded error signal and the predicted image are combined (step S513) and stored in the reference memory 407 (step S514). Thereafter, 1 is added to the sub-block index sub_blk, and the process returns to step S505. If the determination in step S505 is “NO”, decoding of all the sub-blocks of the macroblock is completed and a decoded image is output (step S516).

即ち、予測方向が斜め方向の場合、復号された変換情報から垂直水平逆変換又は予測方向の斜め逆変換のいずれか1つの逆変換を行い、予測方向が斜めでは無い場合、常に垂直水平逆変換を行う。   That is, when the prediction direction is diagonal, the inverse one of vertical and horizontal reverse conversion or diagonal prediction conversion is performed from the decoded conversion information. When the prediction direction is not diagonal, the vertical horizontal reverse conversion is always performed. I do.

次に本実施の形態で用いられるシンタクスの説明を行う。シンタクスの全体的な構造を図18に示す。本実施の形態で用いられるシンタクスは、主に3つのパートからなり、High Level Syntaxはスライス以上の上位レイヤのシンタクス情報が詰め込まれている。Slice Level Syntaxはスライス毎に必要な情報が明記されており、Macroblock Level Syntaxはマクロブロック毎に必要とされる可変長符号化された誤差信号やモード情報が明記されている。
これらシンタックスのそれぞれは、さらに詳細なシンタクスで構成されており、High Level Syntaxでは、Sequence parameter set syntaxとPicture parameter set syntaxなどのシーケンス、ピクチャレベルのシンタクスから構成されている。Slice Level Syntaxでは、Slice header syntax、Slice data syntaxなどから成る。さらに、Macroblock Level Syntaxは、Macroblock layer syntax、Macroblock prediction syntaxなどから構成されている。
Next, the syntax used in this embodiment will be described. The overall structure of the syntax is shown in FIG. The syntax used in the present embodiment is mainly composed of three parts, and High Level Syntax is packed with syntax information of an upper layer higher than a slice. Slice Level Syntax specifies information required for each slice, and Macroblock Level Syntax specifies error signal and mode information encoded in variable length required for each macroblock.
Each of these syntaxes is composed of more detailed syntax, and in High Level Syntax, it is composed of sequences such as Sequence parameter set syntax and Picture parameter set syntax, and picture level syntax. Slice Level Syntax consists of Slice header syntax, Slice data syntax, etc. Furthermore, Macroblock Level Syntax is composed of Macroblock layer syntax, Macroblock prediction syntax, and the like.

本実施の形態で、必要となるシンタクス情報はシーケンスヘッダ、スライスヘッダ、マクロブロックヘッダであり、それぞれのシンタクスを以下で説明する。
図19のシーケンスヘッダ内に示されるdirectional_dct_seq_flagは、符号化対象シーケンスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、符号化対象シーケンスで本実施の形態の直交変換方式を使用することが可能である。次に、図20のピクチャヘッダ内に示されるdirectional_dct_pic_flagは、ピクチャで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、ピクチャで本実施の形態の直交変換方式を用いることが可能となる。次に、図21のスライスヘッダ内に示されるdirectional_dct_slice_flagは、スライスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、スライスで本実施の形態の直交変換方式を用いることが可能となる。
In the present embodiment, required syntax information is a sequence header, a slice header, and a macroblock header, and each syntax will be described below.
The directional_dct_seq_flag shown in the sequence header of FIG. 19 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the encoding target sequence. When this flag is 1, the directional_dct_seq_flag is set in the encoding target sequence. It is possible to use a form of orthogonal transform scheme. Next, directional_dct_pic_flag shown in the picture header of FIG. 20 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used for a picture. When this flag is 1, the orthogonal of the present embodiment is used for a picture. A conversion method can be used. Next, directional_dct_slice_flag shown in the slice header of FIG. 21 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the slice. When this flag is 1, the orthogonal of the present embodiment is used in the slice. A conversion method can be used.

図22に示すようにマクロブロックヘッダ内には、マクロブロックレイヤ内のシンタクスとして、directional_dct4x4_mode_flag、directional_dct8x8_mode_flagの二つのフラグを持つ。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをマクロブロックにつき1ビット生成する。この二つのフラグは、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報であり、それぞれのフラグが1を示す場合は、水平垂直DCTが行われていることを示し、0を示す場合は予測方向に依存したDCTが行われていることを示す。   As shown in FIG. 22, the macroblock header has two flags of directional_dct4x4_mode_flag and directional_dct8x8_mode_flag as syntax in the macroblock layer. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each macroblock. These two flags are transformation information indicating whether the orthogonal transformation is horizontal / vertical DCT or DCT depending on the prediction direction. When each flag indicates 1, the horizontal / vertical DCT is used. Indicates that DCT is being performed, and a value of 0 indicates that DCT depending on the prediction direction is being performed.

本実施の形態では、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、別の実施の形態として、サブブロックごとに変換情報を決定したり、サブブロック単位で補助情報に従って変換情報を決定したりする方法が考えられる。   In this embodiment, for each macroblock, transform information indicating whether orthogonal transform is performing horizontal / vertical DCT or DCT depending on the prediction direction is determined. However, as another embodiment, A method of determining conversion information for each sub-block or determining conversion information according to auxiliary information in units of sub-blocks can be considered.

[第5の実施の形態]
次に本発明の第5の実施の形態について説明する。本実施の形態における動画像復号化装置の全体的な構成は、第4の実施形態とほぼ同様であるため、第4の実施の形態との相違点のみを説明する。
[Fifth embodiment]
Next, a fifth embodiment of the present invention will be described. Since the overall configuration of the moving picture decoding apparatus in the present embodiment is substantially the same as that of the fourth embodiment, only differences from the fourth embodiment will be described.

第4の実施の形態では、本実施の形態の直交変換方式を用いるかどうかを、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、本実施の形態では、変換情報を、サブマクロブロック単位で切り替える。   In the fourth embodiment, whether or not the orthogonal transform method of the present embodiment is used is determined for each macroblock whether the orthogonal transform performs horizontal / vertical DCT or performs DCT depending on the prediction direction. In this embodiment, the conversion information is switched in units of sub-macroblocks.

本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図23に示す。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブマクロブロックにつき1ビットを生成する。すなわち、マクロブロックが4x4変換を行う場合は、1マクロブロック中に16個のdirectional_dct4x4_mode_flagが存在し、8x8変換を行う場合は1マクロブロック中に4個のdirectional_dct8x8_mode_flagが存在する。   FIG. 23 shows the syntax structure in the macroblock header in the present embodiment. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, directional_dct8x8_mode_flag is generated by 1 bit per sub macroblock. That is, 16 directional_dct4x4_mode_flag exists in one macroblock when the macroblock performs 4x4 conversion, and 4 directional_dct8x8_mode_flag exists in one macroblock when the 8x8 conversion is performed.

[第6の実施の形態]
次に、本発明の第6の実施の形態について説明する。本実施の形態における動画像復号化装置の全体的な構成は、第5の実施の形態とほぼ同様であるため、第5の実施の形態との相違点のみを説明する。
[Sixth embodiment]
Next, a sixth embodiment of the present invention will be described. Since the overall configuration of the moving picture decoding apparatus in the present embodiment is almost the same as that of the fifth embodiment, only differences from the fifth embodiment will be described.

本実施の形態では、第5の実施の形態と同様にして、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブブロックにつき1ビットを生成する。この際に、第5の実施の形態とは異なり、全てのサブブロックにフラグを作成するのではなく、予測モード情報やサブブロックに非ゼロ係数が含まれるかを表すcoded_block_patternの補助情報を用いて、サブブロックにフラグを生成するかどうかを決定する。   In the present embodiment, as in the fifth embodiment, when the macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, the subblock in the macroblock is a 4 × 4 block. If there is, directional_dct_4x4_mode_flag is generated, and if the subblock is an 8x8 block, directional_dct8x8_mode_flag is generated for one bit per subblock. At this time, unlike the fifth embodiment, instead of creating a flag for all sub-blocks, using prediction mode information and auxiliary information of coded_block_pattern indicating whether the non-zero coefficient is included in the sub-block Determine whether to generate a flag in the sub-block.

本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図24に示す。intra8x8_pred_mode、intra4x4_pred_modeはそれぞれ、8x8ブロックと4x4ブロックの予測モードを表す値で、予測方向と予測モードの値の関係は図3の値と同様である。符号化の際に、予測モードが示す予測の方向が垂直方向、水平方向、DC方向である場合、さらにサブブロックが含まれる8x8画素ブロックにおいて、Coded_Block_Patternから非ゼロ係数を持たないと判定される場合は、予測方向に依存した変換を行う必要がないので、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagは生成されない。復号化器は、復号化したデータの中に、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagが存在しない場合、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagの値が1であるとして、その後の復号化処理を行う。   FIG. 24 shows the syntax structure in the macroblock header in the present embodiment. intra8x8_pred_mode and intra4x4_pred_mode are values representing prediction modes of the 8x8 block and the 4x4 block, respectively, and the relationship between the prediction direction and the value of the prediction mode is the same as the value of FIG. When encoding, when the prediction direction indicated by the prediction mode is the vertical direction, the horizontal direction, or the DC direction, and when it is determined that the 8 × 8 pixel block including the sub-block does not have a non-zero coefficient from Coded_Block_Pattern Since there is no need to perform conversion depending on the prediction direction, directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is not generated. When there is no directional_dct4x4_mode_flag or directional_dct8x8_mode_flag in the decoded data, the decoder assumes that the value of directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is 1, and performs subsequent decoding processing.

第1の実施の形態に従う画像符号化装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image encoding device according to a first embodiment. H.264におけるマクロブロックと各サイズのサブブロックの関係を示す図。H. The figure which shows the relationship between the macroblock in H.264, and the subblock of each size. H.264イントラ予測の全予測モードを示す図。H. The figure which shows all the prediction modes of H.264 intra prediction. H.264イントラ予測の予測方向示す図。H. The figure which shows the prediction direction of H.264 intra prediction. 第1の実施の形態に係わる第1変換部、第1量子化部の構造を示す図。The figure which shows the structure of the 1st conversion part concerning the 1st Embodiment, and a 1st quantization part. 同実施の形態に係わる第2変換部、第2量子化部の構造を示す図。The figure which shows the structure of the 2nd conversion part concerning the same embodiment, and a 2nd quantization part. 同実施の形態に係わる4x4画素サブブロック。4 × 4 pixel sub-block according to the embodiment. 同実施の形態に係わる1次元DCT方法(4x4ブロック、予測モード3)を示す図The figure which shows the one-dimensional DCT method (4x4 block, prediction mode 3) concerning the embodiment 同実施の形態に係わる1次元DCT方法(4x4ブロック、予測モード5)を示す図The figure which shows the one-dimensional DCT method (4x4 block, prediction mode 5) concerning the embodiment 同実施の形態に係わる8x8画素サブブロックを示す図。The figure which shows the 8x8 pixel subblock concerning the embodiment. 同実施の形態に係わる1次元DCT方法(8x8ブロック、予測モード3)を示す図The figure which shows the one-dimensional DCT method (8x8 block, prediction mode 3) concerning the embodiment 同実施の形態に係わる1次元DCT方法(8x8ブロック、予測モード5)を示す図The figure which shows the one-dimensional DCT method (8x8 block, prediction mode 5) concerning the embodiment 同実施の形態に係わる第1逆変換部、第1逆量子化部の構造を示す図。The figure which shows the structure of the 1st inverse transformation part concerning the same embodiment, and a 1st inverse quantization part. 同実施の形態に係わる第2逆変換部、第2逆量子化部の構造を示す図。The figure which shows the structure of the 2nd inverse transformation part concerning the same embodiment, and a 2nd inverse quantization part. 同画像符号化装置による動画像符号化方法の処理フローチャート。The processing flowchart of the moving image encoding method by the image encoding apparatus. 本発明の第1の実施の形態に従う画像復号化装置の構成を示すブロック図。1 is a block diagram showing a configuration of an image decoding device according to a first embodiment of the present invention. 同画像復号化装置による動画像復号化方法の処理フローチャート。The processing flowchart of the moving image decoding method by the image decoding apparatus. 同実施の形態に係わる全体的なシンタクス構造の概略を示す図。The figure which shows the outline of the whole syntax structure concerning the embodiment. 第1、第4の実施の形態に係わるシーケンスヘッダのデータ構造の概略を示す図。The figure which shows the outline of the data structure of the sequence header concerning 1st, 4th embodiment. 第1、第4の実施形態に係わるピクチャヘッダのデータ構造の概略を示す図。The figure which shows the outline of the data structure of the picture header concerning 1st, 4th embodiment. 第1、第4の実施形態に係わるスライスヘッダのデータ構造の概略を示す図。The figure which shows the outline of the data structure of the slice header concerning 1st, 4th embodiment. 第1、第4の実施形態に係わるマクロブロックヘッダのデータ構造概略を示す図。The figure which shows the data structure outline | summary of the macroblock header concerning 1st, 4th embodiment. 第2、第5の実施形態に係わるマクロブロックヘッダのデータ構造概略を示す図。The figure which shows the data structure outline | summary of the macroblock header concerning 2nd, 5th embodiment. 第3、第6の実施形態に係わるマクロブロックヘッダのデータ構造概略を示す図。The figure which shows the data structure outline | summary of the macroblock header concerning 3rd, 6th embodiment.

符号の説明Explanation of symbols

100…動画像符号化装置、101…変換方法選択スイッチ、102…第1変換部、103…第2変換部、104…第1量子化部、105…第2量子化部、106…エントロピー符号化部、107…符号化制御部、108…逆変換方法選択スイッチ、109…第2逆量子化部、110…第1逆量子化部、111…第2逆変換部、112…第1逆変換部、113…参照メモリ、114…予測部、115…入力画像信号、116…予測誤差信号、117…量子化変換係数、118…変換情報、119…復号予測誤差信号、120…予測モード情報、121…予測画像信号、122…参照画像信号、124…符号化データ、200…水平垂直DCT器、201…水平垂直DCT用量子化器、202…スイッチ、203〜208…DCT器、210〜215…量子化器、216…水平垂直DCT用逆量子化器、217…水平垂直逆DCT器、218…スイッチ、219〜224…逆量子化器、225…スイッチ、226〜231…逆DCT器、401…エントロピー復号部、402…逆変換方法選択スイッチ、403…第1逆量子化部、404…第2逆量子化部、405…第1逆変換部、406…第2逆変換部、407…参照メモリ、408…予測部、409…符号化データ、410…変換情報、411…予測モード情報、412…量子化変換係数、413…復号予測誤差信号、414…参照画像、415…予測画像、416…復号画像信号、417…復号化制御部 DESCRIPTION OF SYMBOLS 100 ... Moving image encoding apparatus, 101 ... Conversion method selection switch, 102 ... 1st conversion part, 103 ... 2nd conversion part, 104 ... 1st quantization part, 105 ... 2nd quantization part, 106 ... Entropy encoding 107: Encoding control unit, 108: Inverse transform method selection switch, 109 ... Second inverse quantization unit, 110 ... First inverse quantization unit, 111 ... Second inverse transform unit, 112 ... First inverse transform unit , 113 ... Reference memory, 114 ... Prediction unit, 115 ... Input image signal, 116 ... Prediction error signal, 117 ... Quantization transform coefficient, 118 ... Conversion information, 119 ... Decoded prediction error signal, 120 ... Prediction mode information, 121 ... Predicted image signal, 122 ... reference image signal, 124 ... encoded data, 200 ... horizontal / vertical DCT, 201 ... quantizer for horizontal / vertical DCT, 202 ... switch, 203-208 ... DCT, 210-2 DESCRIPTION OF SYMBOLS 15 ... Quantizer, 216 ... Inverse quantizer for horizontal / vertical DCT, 217 ... Horizontal / vertical inverse DCT, 218 ... Switch, 219-224 ... Inverse quantizer, 225 ... Switch, 226-231 ... Inverse DCT, 401 ... entropy decoding unit, 402 ... inverse transformation method selection switch, 403 ... first inverse quantization unit, 404 ... second inverse quantization unit, 405 ... first inverse transformation unit, 406 ... second inverse transformation unit, 407 ... Reference memory, 408 ... prediction unit, 409 ... encoded data, 410 ... transform information, 411 ... prediction mode information, 412 ... quantized transform coefficient, 413 ... decoded prediction error signal, 414 ... reference image, 415 ... predicted image, 416 ... Decoded image signal, 417 ... Decoding control unit

Claims (16)

入力画像信号を符号化する動画像符号化方法であって、
予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成ステップと、
前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換ステップと、
前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化ステップと、
前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報とに対してエントロピー符号化処理を行い、符号化データを生成する符号化処理ステップと、
を含む動画像符号化方法。
A moving image encoding method for encoding an input image signal,
A prediction error signal generation step for generating a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and an input image signal;
An orthogonal transform step of orthogonally transforming the prediction error signal to generate transform coefficients by a first transform method that depends on a prediction direction of the prediction mode or a second transform method that does not depend on the prediction direction;
A quantization step of performing a quantization process on the transform coefficient to generate a quantized transform coefficient;
An encoding process step of performing entropy encoding processing on the quantized transform coefficient and transform information indicating the first transform method or the second transform method to generate encoded data;
A moving picture encoding method including:
前記予測方向が垂直方向及び水平方向ではない場合には前記第1の変換方法または第2の変換方法を選択し、前記予測方向が垂直方向及び水平方向の場合には前記第1の変換方法を選択する変換方法選択ステップをさらに有し、
前記直交変換ステップは選択された変換方法に従って直交変換すること、を特徴とする請求項1記載の動画像符号化方法。
When the prediction direction is not the vertical direction or the horizontal direction, the first conversion method or the second conversion method is selected. When the prediction direction is the vertical direction or the horizontal direction, the first conversion method is selected. A conversion method selection step to select;
The moving image encoding method according to claim 1, wherein the orthogonal transformation step performs orthogonal transformation according to a selected transformation method.
前記変換方法選択ステップにおいて第1の変換方法が選択された場合、前記直交変換ステップは、予測モードが示す予測方向に沿って前記予測誤差信号を直交変換すること、を特徴とする請求項1又は2項に記載の動画像符号化方法。   The orthogonal transformation step, when the first transformation method is selected in the transformation method selection step, orthogonally transforms the prediction error signal along a prediction direction indicated by a prediction mode. The moving image encoding method according to Item 2. 前記直交変換ステップは、予測方向に沿った直交変換を行う際に、隣り合う空間的に一直線な画素列をブロック端で折り返して結合した画素列に対して1次元直交変換を行うこと、を特徴とする請求項1〜3のいずれか1項に記載の動画像符号化方法。   In the orthogonal transforming step, when performing orthogonal transform along the prediction direction, one-dimensional orthogonal transform is performed on a pixel sequence obtained by folding back and joining adjacent spatially linear pixel sequences at a block end. The moving picture encoding method according to any one of claims 1 to 3. 前記直交変換ステップは、前記予測方向に沿った直交変換を行う際に、直交変換の方法として、DCT、KLT、DST、DWTのいずれかを用いて直交変換を行うこと、を特徴とする請求項1〜4のいずれか1項に記載の動画像符号化方法。   The orthogonal transformation step, when performing orthogonal transformation along the prediction direction, orthogonal transformation is performed using any of DCT, KLT, DST, and DWT as a method of orthogonal transformation. 5. The moving image encoding method according to any one of 1 to 4. 前記直交変換ステップは、予測方向に依存した前記第1の変換方法が行われた場合、前記量子化ステップが、前記第1の直交変換方法による直交変換ごとに異なる量子化方法で量子化を行うこと、を特徴とする請求項1〜5のいずれか1項に記載の動画像符号化方法。   In the orthogonal transform step, when the first transform method depending on the prediction direction is performed, the quantization step performs quantization using a different quantization method for each orthogonal transform according to the first orthogonal transform method. The moving picture coding method according to claim 1, wherein 前記エントロピー符号化ステップは、変換情報と変換係数を符号化する際に、予測モード情報が示す予測方向が垂直方向及び水平方向ではない場合のみ、変換係数に加えて変換情報を符号化し、前記予測モードが示す予測方向が垂直方向及び水平方向である場合は、変換情報は符号化せず、変換係数のみを符号化すること、を特徴とする請求項1〜6のいずれか1項に記載の動画像符号化方法。   The entropy encoding step encodes the conversion information in addition to the conversion coefficient only when the prediction direction indicated by the prediction mode information is not the vertical direction and the horizontal direction when encoding the conversion information and the conversion coefficient. The conversion information is not encoded when the prediction directions indicated by the modes are the vertical direction and the horizontal direction, and only the conversion coefficient is encoded. Video encoding method. 前記変換方法選択ステップは、前記符号化対象ブロックの直交変換方法を前記第1の変換方法又は前記第2の変換方法に、シーケンス毎、ピクチャ毎、スライス毎、マクロブロック毎、の少なくとも1つの単位で変更すること、を特徴とする請求項1〜7のいずれか1項に記載の動画像符号化方法。   In the transform method selection step, the orthogonal transform method of the encoding target block is changed from the first transform method or the second transform method to at least one unit of sequence, picture, slice, or macroblock. The moving picture coding method according to claim 1, wherein the moving picture coding method is changed by: 入力画像信号を符号化する動画像符号化装置であって、
予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成部と、
前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換部と、
前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化部と、
前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報とに対してエントロピー符号化処理を行い、符号化データを生成する符号化部と、
を含む動画像符号化装置。
A moving image encoding device for encoding an input image signal,
A prediction error signal generation unit that generates a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and an input image signal;
An orthogonal transform unit that orthogonally transforms the prediction error signal and generates transform coefficients by a first transform method that depends on a prediction direction of the prediction mode or a second transform method that does not depend on the prediction direction;
A quantization unit that performs a quantization process on the transform coefficient and generates a quantized transform coefficient;
An encoding unit that performs entropy encoding processing on the quantized conversion coefficient and conversion information indicating the first conversion method or the second conversion method, and generates encoded data;
A video encoding apparatus including:
入力された符号化データを所定の方法に従って解読して、復号処理に必要な直交変換係数と、予測モード情報と、変換情報を導出する復号ステップと、
前記変換情報に従って、前記符号化データの復号化対象ブロックの逆変換方法として、予測方向に依存した第1の逆変換方法又は予測方向に依存しない第2の逆変換方法を選択する逆変換方法選択ステップと、
前記復号ステップで得られた直交変換係数に対して、逆量子化処理を施し、直交変換係数を生成する逆量子化ステップと、
前記逆変換方法選択ステップで選択された逆変換方法に従って、前記直交変換係数を逆直交変換し、復号予測誤差信号を生成する逆直交変換ステップと、
復号された復号画像信号から前記符号化モード情報をもとに予測信号を生成し、前記復号予測誤差信号に前記予測信号を加えて復号画像を生成するステップと、
を有する動画像復号化方法。
A decoding step of decoding the input encoded data according to a predetermined method and deriving orthogonal transform coefficients necessary for the decoding process, prediction mode information, and transform information;
Inverse transform method selection for selecting a first inverse transform method that depends on the prediction direction or a second inverse transform method that does not depend on the prediction direction as an inverse transform method of the decoding target block of the encoded data according to the transform information Steps,
An inverse quantization step of performing an inverse quantization process on the orthogonal transform coefficient obtained in the decoding step to generate an orthogonal transform coefficient;
According to the inverse transformation method selected in the inverse transformation method selection step, the orthogonal transformation coefficient is inversely orthogonal transformed to generate a decoded prediction error signal; and
Generating a prediction signal from the decoded decoded image signal based on the encoding mode information, and adding the prediction signal to the decoded prediction error signal to generate a decoded image;
A video decoding method comprising:
前記逆変換選択ステップは、前記第1の変換方法が選択された場合、前記逆量子化ステップは、前記予測方向に依存した直交変換ごとに異なる逆量子化方法で逆量子化を行うこと、を特徴とする請求項11に記載の動画像復号化方法   In the inverse transform selection step, when the first transform method is selected, the inverse quantization step performs inverse quantization with a different inverse quantization method for each orthogonal transform depending on the prediction direction. The moving picture decoding method according to claim 11, wherein: 前記逆変換選択ステップは、前記第1の変換方法が選択された場合、前記逆直交変換ステップは、予測モードが示す予測方向に沿って逆直交変換をかけること、を特徴とする請求項10又は11に記載の動画像復号化方法。   11. The inverse transform selection step, when the first transform method is selected, the inverse orthogonal transform step performs an inverse orthogonal transform along a prediction direction indicated by a prediction mode. The moving picture decoding method according to claim 11. 前記逆直交変換ステップは、前記予測方向に沿った逆直交変換を行う際に、空間的に一直線な変換係数に対してのみ1次元逆直交変換を行うのではなく、隣り合う空間的に一直線な変換係数をブロック端で折り返して結合した変換係数列に対して1次元逆直交変換を行うこと、を特徴とする請求項11〜12のいずれか1項に記載の動画像復号化方法。   In the inverse orthogonal transform step, when performing the inverse orthogonal transform along the prediction direction, the one-dimensional inverse orthogonal transform is not performed only on the spatially linear transform coefficients, but adjacent spatially straight lines are performed. 13. The moving picture decoding method according to claim 11, wherein one-dimensional inverse orthogonal transform is performed on a transform coefficient sequence obtained by folding transform transform coefficients at a block end and combining them. 前記逆直交変換ステップは、前記予測方向に沿った直交変換を行う際に、逆直交変換の方法として、逆DCT、逆KLT、逆DST、逆DWTのいずれかを用いて逆直交変換を行うこと、を特徴とする請求項11〜13のいずれか1項に記載の動画像復号化方法。   The inverse orthogonal transform step performs inverse orthogonal transform using any one of inverse DCT, inverse KLT, inverse DST, and inverse DWT as an inverse orthogonal transform method when performing orthogonal transform along the prediction direction. The moving picture decoding method according to claim 11, wherein: the moving picture decoding method according to claim 11. 前記逆変換方法選択ステップは、前記符号化データの復号化対象ブロックの逆直交変換方法を、シーケンス毎、ピクチャ毎、スライス毎、マクロブロック毎、の少なくとも1つの単位で前記第1逆変換方法又は前記第2逆変換方法に変更すること、を特徴とする請求項11〜14のいずれか1項に記載の動画像復号化方法。   In the inverse transform method selection step, the inverse orthogonal transform method of the decoding target block of the encoded data is the first inverse transform method or the first inverse transform method in at least one unit of each sequence, each picture, each slice, or each macroblock The moving picture decoding method according to claim 11, wherein the moving picture decoding method is changed to the second inverse transform method. 入力された符号化データを所定の方法に従って解読して、復号処理に必要な直交変換係数と、予測モード情報と、変換情報を導出する復号部と、
前記変換情報に従って、前記符号化データの復号化対象ブロックの逆変換方法として、予測方向に依存した第1の逆変換方法又は予測方向に依存しない第2の逆変換方法を選択する逆変換方法選択部と、
前記復号ステップで得られた直交変換係数に対して、逆量子化処理を施し、直交変換係数を生成する逆量子化部と、
前記逆変換方法選択ステップで選択された逆変換方法に従って、前記直交変換係数を逆直交変換し、復号予測誤差信号を生成する逆直交変換部と、
復号された復号画像信号から前記符号化モード情報をもとに予測信号を生成し、前記復号予測誤差信号に前記予測信号を加えて復号画像を生成する画像復元部と、
を有する動画像復号化装置。
A decoding unit that decodes input encoded data according to a predetermined method and derives orthogonal transform coefficients necessary for decoding processing, prediction mode information, and transform information;
Inverse transform method selection for selecting a first inverse transform method that depends on the prediction direction or a second inverse transform method that does not depend on the prediction direction as an inverse transform method of the decoding target block of the encoded data according to the transform information And
An inverse quantization unit that performs an inverse quantization process on the orthogonal transform coefficient obtained in the decoding step and generates an orthogonal transform coefficient;
According to the inverse transform method selected in the inverse transform method selection step, an inverse orthogonal transform unit that performs inverse orthogonal transform on the orthogonal transform coefficient and generates a decoded prediction error signal;
An image restoration unit that generates a prediction signal from the decoded decoded image signal based on the coding mode information, and adds the prediction signal to the decoded prediction error signal to generate a decoded image;
A moving picture decoding apparatus comprising:
JP2008119298A 2008-04-30 2008-04-30 Transformation method based on directivity of prediction error, image-encoding method and image-decoding method Withdrawn JP2009272727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008119298A JP2009272727A (en) 2008-04-30 2008-04-30 Transformation method based on directivity of prediction error, image-encoding method and image-decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008119298A JP2009272727A (en) 2008-04-30 2008-04-30 Transformation method based on directivity of prediction error, image-encoding method and image-decoding method

Publications (1)

Publication Number Publication Date
JP2009272727A true JP2009272727A (en) 2009-11-19

Family

ID=41438925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008119298A Withdrawn JP2009272727A (en) 2008-04-30 2008-04-30 Transformation method based on directivity of prediction error, image-encoding method and image-decoding method

Country Status (1)

Country Link
JP (1) JP2009272727A (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010146772A1 (en) * 2009-06-19 2010-12-23 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
WO2011083599A1 (en) * 2010-01-07 2011-07-14 株式会社 東芝 Video encoding device, and video decoding device
WO2011108240A1 (en) * 2010-03-01 2011-09-09 パナソニック株式会社 Image coding method and image decoding method
JP2011188130A (en) * 2010-03-05 2011-09-22 Nippon Hoso Kyokai <Nhk> Intra prediction device, encoder, decoder and program
WO2011155332A1 (en) * 2010-06-09 2011-12-15 ソニー株式会社 Image decoder apparatus, image encoder apparatus and methods and programs thereof
WO2012008039A1 (en) * 2010-07-15 2012-01-19 株式会社 東芝 Image encoding method and image decoding method
WO2012090501A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus
JP2013017167A (en) * 2011-07-01 2013-01-24 Mitsubishi Electric Corp Method for coding pictures
JP2013507794A (en) * 2009-10-21 2013-03-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to decode a bitstream
JP2013070419A (en) * 2010-01-07 2013-04-18 Toshiba Corp Video encoding device and video decoding device
WO2013058473A1 (en) * 2011-10-17 2013-04-25 주식회사 케이티 Adaptive transform method based on in-screen prediction and apparatus using the method
JPWO2011083599A1 (en) * 2010-01-07 2013-05-13 株式会社東芝 Moving picture coding apparatus and moving picture decoding apparatus
JP2013522957A (en) * 2010-03-10 2013-06-13 トムソン ライセンシング Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection
JP2013176111A (en) * 2013-04-10 2013-09-05 Toshiba Corp Image decoder
JP2013176110A (en) * 2013-04-10 2013-09-05 Toshiba Corp Image encoder
JP2013183207A (en) * 2012-02-29 2013-09-12 Kddi Corp Coding device, decoding device, coding method and decoding method of moving image, and program
US8538179B2 (en) 2011-02-10 2013-09-17 Sony Corporation Image coding device, image decoding device, methods thereof, and programs
JP2014042332A (en) * 2010-01-07 2014-03-06 Toshiba Corp Moving image encoding device and moving image decoding device
JP2014078976A (en) * 2010-01-07 2014-05-01 Toshiba Corp Moving image decoder, moving image decoding method and program
JP2014078977A (en) * 2010-01-07 2014-05-01 Toshiba Corp Moving image decoder, moving image decoding method and program
JP2014143737A (en) * 2010-01-07 2014-08-07 Toshiba Corp Moving image encoder and moving image decoder
WO2014137159A1 (en) * 2013-03-08 2014-09-12 Samsung Electronics Co., Ltd. Method and apparatus for applying secondary transforms on enhancement-layer residuals
JP2014171229A (en) * 2014-04-17 2014-09-18 Toshiba Corp Image decoding device, method and program
JP2014197890A (en) * 2010-01-07 2014-10-16 株式会社東芝 Moving image encoder and moving image decoder
JP2015029318A (en) * 2014-09-17 2015-02-12 株式会社東芝 Image decoding device, method, and program, first program and second program, server system, and download control method
WO2015053115A1 (en) * 2013-10-11 2015-04-16 ソニー株式会社 Decoding device, decoding method, encoding device, and encoding method
JP2015109695A (en) * 2010-01-07 2015-06-11 株式会社東芝 Moving image encoder and moving image decoder
JP2015146624A (en) * 2015-04-01 2015-08-13 株式会社東芝 Image decoding device
JP2016526854A (en) * 2013-07-12 2016-09-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Parallel processing of horizontal and vertical conversion
JP2017076977A (en) * 2016-10-20 2017-04-20 株式会社東芝 Decoding device, decoding method, and decoding program
US9832464B2 (en) 2011-10-19 2017-11-28 Kt Corporation Method and apparatus for encoding/decoding image using transform skip flag
WO2019191888A1 (en) * 2018-04-02 2019-10-10 北京大学 Loop filtering method and apparatus, and computer system
US10587882B2 (en) 2011-03-09 2020-03-10 Panasonic Intellectual Property Corporation Of America Device and method of video decoding with first and second decoding code
US10757422B2 (en) 2011-03-09 2020-08-25 Panasonic Intellectual Property Corporation Of America Device and method of video encoding with first and second encoding code

Cited By (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010146772A1 (en) * 2009-06-19 2012-11-29 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
WO2010146772A1 (en) * 2009-06-19 2010-12-23 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2013507794A (en) * 2009-10-21 2013-03-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to decode a bitstream
CN105451018A (en) * 2010-01-07 2016-03-30 株式会社东芝 Moving image decoding device and moving image decoding method
US9294768B2 (en) 2010-01-07 2016-03-22 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
US9113139B2 (en) 2010-01-07 2015-08-18 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
US9392282B2 (en) 2010-01-07 2016-07-12 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
CN102763416A (en) * 2010-01-07 2012-10-31 株式会社东芝 Video encoding device, and video decoding device
JP2015109695A (en) * 2010-01-07 2015-06-11 株式会社東芝 Moving image encoder and moving image decoder
CN105681794B (en) * 2010-01-07 2018-09-04 株式会社东芝 Moving image decoding apparatus and dynamic image decoding method
US9143777B2 (en) 2010-01-07 2015-09-22 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
CN103024391A (en) * 2010-01-07 2013-04-03 株式会社东芝 Video encoding device, and video decoding device
JP2013070419A (en) * 2010-01-07 2013-04-18 Toshiba Corp Video encoding device and video decoding device
US9148659B2 (en) 2010-01-07 2015-09-29 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
JPWO2011083599A1 (en) * 2010-01-07 2013-05-13 株式会社東芝 Moving picture coding apparatus and moving picture decoding apparatus
JP2014197890A (en) * 2010-01-07 2014-10-16 株式会社東芝 Moving image encoder and moving image decoder
US9154779B2 (en) 2010-01-07 2015-10-06 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
WO2011083599A1 (en) * 2010-01-07 2011-07-14 株式会社 東芝 Video encoding device, and video decoding device
JP2014143737A (en) * 2010-01-07 2014-08-07 Toshiba Corp Moving image encoder and moving image decoder
CN103024391B (en) * 2010-01-07 2016-06-29 株式会社东芝 Moving image decoding apparatus and dynamic image decoding method
US9113138B2 (en) 2010-01-07 2015-08-18 Kabushiki Kaisha Toshiba Moving-picture encoding apparatus and moving-picture decoding apparatus
CN105681794A (en) * 2010-01-07 2016-06-15 株式会社东芝 Moving image encoding device and moving image decoding method
JP5323209B2 (en) * 2010-01-07 2013-10-23 株式会社東芝 Moving picture coding apparatus and moving picture decoding apparatus
JP2014042332A (en) * 2010-01-07 2014-03-06 Toshiba Corp Moving image encoding device and moving image decoding device
JP2014078976A (en) * 2010-01-07 2014-05-01 Toshiba Corp Moving image decoder, moving image decoding method and program
JP2014078977A (en) * 2010-01-07 2014-05-01 Toshiba Corp Moving image decoder, moving image decoding method and program
WO2011108240A1 (en) * 2010-03-01 2011-09-09 パナソニック株式会社 Image coding method and image decoding method
JP2011188130A (en) * 2010-03-05 2011-09-22 Nippon Hoso Kyokai <Nhk> Intra prediction device, encoder, decoder and program
JP2013522957A (en) * 2010-03-10 2013-06-13 トムソン ライセンシング Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection
US9277245B2 (en) 2010-03-10 2016-03-01 Thomson Licensing Methods and apparatus for constrained transforms for video coding and decoding having transform selection
US9596476B2 (en) 2010-06-09 2017-03-14 Sony Corporation Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding
WO2011155332A1 (en) * 2010-06-09 2011-12-15 ソニー株式会社 Image decoder apparatus, image encoder apparatus and methods and programs thereof
US9979982B2 (en) 2010-06-09 2018-05-22 Sony Corporation Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding
US9053549B2 (en) 2010-06-09 2015-06-09 Sony Corporation Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding
US10499083B2 (en) 2010-06-09 2019-12-03 Sony Corporation Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding
US9706226B2 (en) 2010-07-15 2017-07-11 Kabushiki Kaisha Toshiba Image encoding apparatus and image decoding apparatus employing intra preciction and direction transform matrix
WO2012008039A1 (en) * 2010-07-15 2012-01-19 株式会社 東芝 Image encoding method and image decoding method
JP5259879B2 (en) * 2010-07-15 2013-08-07 株式会社東芝 Image encoding method and image decoding method
US9426467B2 (en) 2010-07-15 2016-08-23 Kabushiki Kaisha Toshiba Image decoding method using a vertical inverse transform matrix and a horizontal inverse transform matrix
JP2015233325A (en) * 2010-12-28 2015-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Reproducing method and device
JP2014132793A (en) * 2010-12-28 2014-07-17 Panasonic Corp Image coding method and image encoder
CN103238332A (en) * 2010-12-28 2013-08-07 松下电器产业株式会社 Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus
JPWO2012090501A1 (en) * 2010-12-28 2014-06-05 パナソニック株式会社 Image decoding method
JP5530533B2 (en) * 2010-12-28 2014-06-25 パナソニック株式会社 Image decoding method
WO2012090501A1 (en) * 2010-12-28 2012-07-05 パナソニック株式会社 Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus
US9852521B2 (en) 2011-02-10 2017-12-26 Sony Corporation Image coding device, image decoding device, methods thereof, and programs
US8538179B2 (en) 2011-02-10 2013-09-17 Sony Corporation Image coding device, image decoding device, methods thereof, and programs
US9153041B2 (en) 2011-02-10 2015-10-06 Sony Corporation Image coding device, image decoding device, methods thereof, and programs
US11303910B2 (en) 2011-03-09 2022-04-12 Panasonic Intellectual Property Corporation Of America Device and method of video encoding with first and second encoding code
US10587882B2 (en) 2011-03-09 2020-03-10 Panasonic Intellectual Property Corporation Of America Device and method of video decoding with first and second decoding code
US10757422B2 (en) 2011-03-09 2020-08-25 Panasonic Intellectual Property Corporation Of America Device and method of video encoding with first and second encoding code
US11234005B2 (en) 2011-03-09 2022-01-25 Panasonic Intellectual Property Corporation Of America Device and method of video decoding with first and second decoding code
US11706424B2 (en) 2011-03-09 2023-07-18 Panasonic Intellectual Property Corporation Of America Device and method of video decoding with first and second decoding code
US11849124B2 (en) 2011-03-09 2023-12-19 Panasonic Intellectual Property Corporation Of America Device and method of video encoding with first and second encoding code
JP2013017167A (en) * 2011-07-01 2013-01-24 Mitsubishi Electric Corp Method for coding pictures
GB2559063B (en) * 2011-10-17 2018-11-14 Kt Corp Video decoding method using transform method selected from a transform method set
US9979967B2 (en) 2011-10-17 2018-05-22 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
GB2510289A (en) * 2011-10-17 2014-07-30 Kt Corp Adaptive transform method on in-screen prediction and apparatus using the method
US9294775B2 (en) 2011-10-17 2016-03-22 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
US9294774B2 (en) 2011-10-17 2016-03-22 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
US10419759B2 (en) 2011-10-17 2019-09-17 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
US9736480B2 (en) 2011-10-17 2017-08-15 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
GB2555287B (en) * 2011-10-17 2018-11-07 Kt Corp Video decoding method using transform method selected from a transform method set
GB2510289B (en) * 2011-10-17 2018-11-07 Kt Corp Video decoding method using transform method selected from a transform method set
US10057575B2 (en) 2011-10-17 2018-08-21 Kt Corporation Adaptive transform method based on in-screen prediction and apparatus using the method
GB2559063A (en) * 2011-10-17 2018-07-25 Kt Corp Adaptive transform method based on in-screen prediction and apparatus using the method
GB2555287A (en) * 2011-10-17 2018-04-25 Kt Corp Adaptive transform method based on in-screen prediction and apparatus using the method
WO2013058473A1 (en) * 2011-10-17 2013-04-25 주식회사 케이티 Adaptive transform method based on in-screen prediction and apparatus using the method
US9866832B2 (en) 2011-10-19 2018-01-09 Kt Corporation Method and apparatus for encoding/decoding image using transform skip flag
US9832464B2 (en) 2011-10-19 2017-11-28 Kt Corporation Method and apparatus for encoding/decoding image using transform skip flag
US9930333B2 (en) 2011-10-19 2018-03-27 Kt Corporation Method and apparatus for encoding/decoding image using transform skip flag
US10313667B2 (en) 2011-10-19 2019-06-04 Kt Corporation Method and apparatus for encoding/decoding image using transform skip flag
GB2562173B (en) * 2011-10-19 2019-02-06 Kt Corp Video decoding comprising selecting transfrom method from set
GB2562173A (en) * 2011-10-19 2018-11-07 Kt Corp Method and apparatus for encoding/decoding image
GB2509671B (en) * 2011-10-19 2019-01-02 Kt Corp Encoding and decoding video using skip transform mode
JP2013183207A (en) * 2012-02-29 2013-09-12 Kddi Corp Coding device, decoding device, coding method and decoding method of moving image, and program
WO2014137159A1 (en) * 2013-03-08 2014-09-12 Samsung Electronics Co., Ltd. Method and apparatus for applying secondary transforms on enhancement-layer residuals
JP2013176110A (en) * 2013-04-10 2013-09-05 Toshiba Corp Image encoder
JP2013176111A (en) * 2013-04-10 2013-09-05 Toshiba Corp Image decoder
JP2016526854A (en) * 2013-07-12 2016-09-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Parallel processing of horizontal and vertical conversion
JP2018078572A (en) * 2013-07-12 2018-05-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Concurrent processing of horizontal and vertical transforms
CN105594208A (en) * 2013-10-11 2016-05-18 索尼公司 Decoding device, decoding method, encoding device, and encoding method
JPWO2015053115A1 (en) * 2013-10-11 2017-03-09 ソニー株式会社 Decoding device, decoding method, and encoding device and encoding method
WO2015053115A1 (en) * 2013-10-11 2015-04-16 ソニー株式会社 Decoding device, decoding method, encoding device, and encoding method
JP2014171229A (en) * 2014-04-17 2014-09-18 Toshiba Corp Image decoding device, method and program
JP2015029318A (en) * 2014-09-17 2015-02-12 株式会社東芝 Image decoding device, method, and program, first program and second program, server system, and download control method
JP2015146624A (en) * 2015-04-01 2015-08-13 株式会社東芝 Image decoding device
JP2017076977A (en) * 2016-10-20 2017-04-20 株式会社東芝 Decoding device, decoding method, and decoding program
WO2019191888A1 (en) * 2018-04-02 2019-10-10 北京大学 Loop filtering method and apparatus, and computer system

Similar Documents

Publication Publication Date Title
JP2009272727A (en) Transformation method based on directivity of prediction error, image-encoding method and image-decoding method
KR101479141B1 (en) Coding Method and Apparatus by Using Tree Structure
KR101608426B1 (en) Method for predictive intra coding/decoding for video and apparatus for same
KR101292091B1 (en) Method for encoding/decoding with adaptive intra prediction
KR100362863B1 (en) Image encoder and image decoder
CN101467461B (en) Multilayer-based video encoding method and apparatus thereof
US20090310677A1 (en) Image encoding and decoding method and apparatus
WO2011083573A1 (en) Video encoder and video decoder
WO2012161444A2 (en) Method and apparatus for intra prediction within display screen
JP6789256B2 (en) Image coding device, moving image coding method, moving image decoding device and moving image decoding method
KR20110135787A (en) Image/video coding and decoding system and method using edge-adaptive transform
CN107810635A (en) Method and apparatus based on illuminance compensation prediction block in image compiling system
JP2010135864A (en) Image encoding method, device, image decoding method, and device
KR20110081304A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP6300884B2 (en) Image decoding apparatus, image decoding method, image encoding apparatus, image encoding method, and recording medium
WO2011013253A1 (en) Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device
JP2011035902A (en) Method for decoding stream of coded data representative of sequence of images, and method for coding sequence of images
KR20110114524A (en) Device, method and program for image prediction encoding, device, method and program for image prediction decoding, and encoding/decoding system and method
CN104718758A (en) Transform-domain intra prediction
KR20120009693A (en) Competition-Based Intra Prediction Coding/Decoding Apparatus and Method Using Multiple Prediction Filters
WO2011080807A1 (en) Moving picture coding device and moving picture decoding device
RU2427976C2 (en) Method and device for coding and decoding of image
JP2008166916A (en) Intra prediction encoder and intra prediction coding method
JP4523522B2 (en) Hierarchical image encoding apparatus, transcoder, hierarchical image encoding method, and transcoding method
JP5455229B2 (en) Image encoding apparatus and image decoding apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110705