JP2009272727A - Transformation method based on directivity of prediction error, image-encoding method and image-decoding method - Google Patents
Transformation method based on directivity of prediction error, image-encoding method and image-decoding method Download PDFInfo
- Publication number
- JP2009272727A JP2009272727A JP2008119298A JP2008119298A JP2009272727A JP 2009272727 A JP2009272727 A JP 2009272727A JP 2008119298 A JP2008119298 A JP 2008119298A JP 2008119298 A JP2008119298 A JP 2008119298A JP 2009272727 A JP2009272727 A JP 2009272727A
- Authority
- JP
- Japan
- Prior art keywords
- transform
- prediction
- inverse
- orthogonal
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、動画像符号化装置、動画像符号化方法、動画像復号化装置及び動画像復号化方法に係わり、特に画面内予測の方向に対応した直交変換により変換係数の電力集中度を向上させ、ひいては符号化効率を改善する効果が得られるようにした動画像符号化装置、動画像符号化方法、動画像復号化装置、動画像復号化方法に関する。 The present invention relates to a moving image encoding device, a moving image encoding method, a moving image decoding device, and a moving image decoding method, and in particular, improves power concentration of transform coefficients by orthogonal transform corresponding to the direction of intra prediction. The present invention relates to a moving image encoding device, a moving image encoding method, a moving image decoding device, and a moving image decoding method, which can obtain an effect of improving encoding efficiency.
H.264/MPEG−4 AVC(以下H.264と呼ぶ)等の動画像符号化方式では、直交変換として離散コサイン変換(Discrete Cosine Transform、以下DCT)/逆離散コサイン変換(Inverse Discrete Cosine Transform、以下IDCT)が行われている。現状では、DCT/IDCTは水平方向と垂直方向に1次元DCT/IDCTを2回行うことで実現されている[非特許文献1]。DCTは、予測誤差の相関係数が画素間距離に従って規則的に低減するモデルに対しては、カルーネン-レーブ変換(以下KLTと呼ぶ)と同等の変換効率が得られるが、実際の予測誤差信号はエッジ成分などにより、必ずしも水平垂直方向のDCTが最適とは限らず、画像の特徴に応じてDCTをかける向きを変える研究や[非特許文献2]、DCTと離散サイン変換(Discrete Sine Transform、以下DST)を切り替える研究が行われてきた[特許文献1]。
H.264で用いられている非特許文献1の水平垂直DCTは、予測誤差の相関係数が画素間距離に従って規則的に低減するモデルに対しては、KLTと同等の変換効率が得られるが、予測誤差信号にエッジ成分が発生すると、必ずしも水平垂直方向のDCTが最適とは限らず、変換効率が十分に得られない可能性がある。
H. The horizontal and vertical DCT of
また、特許文献1では、画像の特長によってDCTとDSTを切り替えて変換を行っているが、DSTは内挿予測された画素に対しては変換効率が高いが、H.264におけるイントラ予測は外挿予測であるために、イントラ予測によって生じる予測誤差に対してDSTをかけても変換効率の向上は見込めない。
Further, in
非特許文献2では、サイド情報削減のために1次元DCTをかける方向を、従来のH.264の変換方式に加えて、直交右下方向と直交左下方向の2方向に制限し、これらの方向からレート歪的に最適な変換の方向を選択している。しかし、イントラ予測の方向とその予測誤差の方向性が類似しており、予測方向と異なる方向に1次元DCTをかけても係数の電力が集中しないため、直交右下方向と直交左下方向のそれぞれの方向に変換をかけることは冗長であり、それぞれの変換方向を識別するためのサイド情報は符号化効率の低下につながる。また斜めに1次元DCTをかける際の基底長が、符号化ブロックの端部では著しく短く、変換の効果が十分に発揮されていない。
In
本発明の一態様は、入力画像信号を符号化する動画像符号化方法であって、予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成ステップと、前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換ステップと、前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化ステップと、前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報に対してエントロピー符号化処理を行い、符号化データを生成する符号化処理ステップと、を含む動画像符号化方法を提供する。 One aspect of the present invention is a moving image encoding method for encoding an input image signal, which generates a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and the input image signal. The prediction error signal is generated by the orthogonal transformation of the prediction error signal by the first conversion method depending on the prediction direction of the prediction mode and the second conversion method not depending on the prediction direction to generate a conversion coefficient. An orthogonal transform step, a quantization step for performing a quantization process on the transform coefficient to generate a quantized transform coefficient, the quantized transform coefficient, and the first transform method or the second transform method. And a coding process step for generating encoded data by performing entropy coding processing on the conversion information indicating the above.
空間相関を利用するH.264のようなイントラ予測を行う場合、予測方向と予測誤差の方向性は同一である可能性が高いので、予測方向以外の方向の1次元DCTを考慮しなくても電力集中度は低下しない。また、本発明の態様の方式は、従来のH.264の変換方式に加えて、1次元DCTをかける方向の候補が1つに決まるので、非特許文献2と比較してサイド情報を減らすことが可能である。また、画像の端部の画素について、画素を折り返すことで基底長の長い1次元DCTをかけるため、電力集中度が上がる。これら3点から、本変換方式によって生成された変換係数に対して量子化処理、エントロピー符号化処理を行うことによって、最終的に符号量を削減することが可能である。また、従来水平と垂直の2方向に1次元DCTをかけていたが、本方式では1次元DCTは予測方向に1回で十分であるため、符号化及び復号化処理が低減される。
H. using spatial correlation When intra prediction such as H.264 is performed, there is a high possibility that the prediction direction and the directionality of the prediction error are the same, so the power concentration does not decrease even if one-dimensional DCT in directions other than the prediction direction is not considered. Further, the system of the aspect of the present invention is a conventional H.264 standard. In addition to the H.264 conversion method, one candidate for the direction in which the one-dimensional DCT is applied is determined, so that side information can be reduced as compared with
以下、添付図面を参照して、本発明に係る動画像符号化方法及び動画像符号化装置、動画像復号方法及び動画像復号化装置の最良な実施の形態を詳細に説明する。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Exemplary embodiments of a moving picture coding method, a moving picture coding apparatus, a moving picture decoding method, and a moving picture decoding apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.
[第1の実施形態]
(符号化器について)
図1に示す第1の実施形態に係わる動画像符号化装置100は、予測モード情報から変換情報を制御する制御部107と、変換情報によって変換方法を選択する変換方法選択スイッチ101と、予測の方向に対応して変換量子化を行う変換量子化部102〜105と、変換係数と変換情報とを符号化するエントロピー符号化部106とを備えている。
[First embodiment]
(About the encoder)
A video encoding apparatus 100 according to the first embodiment shown in FIG. 1 includes a
図1において、入力動画像信号115はマクロブロック毎又はマクロブロックペア毎に分割されて、動画像符号化装置100に入力される。動画像符号化装置100では、予測部114が入力動画像信号115に対してフレーム内予測を行う。この予測部114について以下に具体的に説明する。
In FIG. 1, an input
予測部114は、マクロブロックをさらに分割したサブブロックを単位として予測を行う。例えば、H.264のイントラ予測における輝度信号においては、16個の4x4画素サブブロックを持つマクロブロックと、4個の8x8画素サブブロックを持つマクロブロックと、1個の16x16画素サブブロックを持つマクロブロックが存在する。符号化対象フレームと符号化対象マクロブロックとの関係を図2(a)に、4x4画素サブブロックを持つマクロブロックを図2(b)に、8x8画素サブブロックを持つマクロブロックを図2(c)に、16x16画素サブブロックを持つマクロブロックを図2(d)に示す。4x4サブブロックと8x8サブブロックには9つの予測モードが存在し、16x16サブブロックには4つの予測モードが存在し、各サブブロックでイントラ予測が行われる。
The
図3はH.264のイントラ予測の4x4サブブロック及び8x8サブブロックにおける全予測モード、即ち垂直予測モード、水平予測モード、DC予測モード、直交左下予測モード、直交右下予測モード、垂直右予測モード、水平下予測モード、垂直左予測モード、及び水平上予測モードを示している。各予測モードの予測方向を図4(a)に示す。図4(a)に示す予測方向について具体的な予測方法を、図4(b)〜(d)を用いて説明する。 FIG. All prediction modes in 4 × 4 sub-block and 8 × 8 sub-block of H.264 intra prediction, that is, vertical prediction mode, horizontal prediction mode, DC prediction mode, orthogonal lower left prediction mode, orthogonal lower right prediction mode, vertical right prediction mode, horizontal lower prediction mode , Vertical left prediction mode, and horizontal top prediction mode. The prediction direction of each prediction mode is shown in FIG. A specific prediction method for the prediction direction shown in FIG. 4A will be described with reference to FIGS.
図4(b)の符号化対象サブブロックに対して、H.264イントラ予測モードのモード2のDC予測が選択された場合、数式(1)で予測画素が計算される。
H=(A+B+C+D)、V=(I+J+K+L)
a〜p=(H+V+4)>>3
…(1)。
For the sub-block to be encoded in FIG. When the
H = (A + B + C + D), V = (I + J + K + L)
a ~ p = (H + V + 4) >> 3
... (1).
参照画素が利用できない時は、利用できる参照画素の平均値で予測値が生成される。利用できる画素が1つも存在しない場合は、符号化装置の最大輝度値の半分の値(8ビットなら128)で予測値が生成される。その他のモードが選択された場合、方向予測部114は、図4(a)で示される予測方向に対して、参照画素から補間された予測値をコピーする予測方法を用いる。具体的には、モード0(垂直予測)が選択された場合の予測値生成方法を説明する。
When the reference pixel cannot be used, a predicted value is generated using an average value of the available reference pixels. If there is no usable pixel, a prediction value is generated with a value that is half the maximum luminance value of the encoding device (128 for 8 bits). When the other mode is selected, the
下記のモードは、参照画素AからDまでが利用できるときだけ、選択することが可能である。
a, e, i, m= A
b, f, j, n = B
c, g, k, o = C
d, h, l, p = D予測方法の詳細は図4(c)に示されており、参照画素A〜Dの輝度値がそのまま垂直方向にコピーされ、予測値として補填される。
The following modes can be selected only when reference pixels A to D are available.
a, e, i, m = A
b, f, j, n = B
c, g, k, o = C
The details of the d, h, l, p = D prediction method are shown in FIG. 4C, and the luminance values of the reference pixels A to D are copied as they are in the vertical direction and supplemented as prediction values.
一方、モード4(直交右下予測)が選択されたときの予測方法についても数式(2)で説明する。
d = ( B + ( C << 1 ) + D + 2 ) >> 2
c, h = ( A + ( B << 1 ) + C + 2 ) >> 2
b, g, l = ( M + ( A << 1 ) + B + 2 ) >> 2
a, f, k, p = (I + ( M << 1 ) + A + 2 ) >> 2
e, j, o = (J + ( I << 1 ) + M +2 ) >> 2
i, n = (K + ( J<< 1) + I + 2 ) >> 2
m = (L + (K << 1) + J + 2 ) >> 2
…(2)
この予測モードは、参照画素AからD、IからMまでが利用できるときにのみ選択することができる。本予測モードの詳細は図4(d)に示されており、この本予測モードによると、3タップのフィルタによって生成された値を右下45度方向へコピーし、予測値として補填する。
On the other hand, the prediction method when mode 4 (orthogonal lower right prediction) is selected will also be described using equation (2).
d = (B + (C << 1) + D + 2) >> 2
c, h = (A + (B << 1) + C + 2) >> 2
b, g, l = (M + (A << 1) + B + 2) >> 2
a, f, k, p = (I + (M << 1) + A + 2) >> 2
e, j, o = (J + (I << 1) + M +2) >> 2
i, n = (K + (J << 1) + I + 2) >> 2
m = (L + (K << 1) + J + 2) >> 2
... (2)
This prediction mode can be selected only when reference pixels A to D and I to M are available. The details of the main prediction mode are shown in FIG. 4D, and according to the main prediction mode, the value generated by the 3-tap filter is copied in the lower right 45 degrees direction and compensated as a predicted value.
予測モード0、2、4以外の予測方法に関してもほぼ同様の枠組みが用いられており、予測方向に対して利用できる参照画素から補間値を生成し、その値を予測方向に応じてコピーするという予測を行う。また、4x4画素ブロックについて予測方法を説明したが、8x8画素ブロックについても同様の方法で参照画素から補間値を生成し、その値を予測方向に応じてコピーすることで予測を行う。
An almost similar framework is used for prediction methods other than
以上のように、予測部114で生成された予測画像信号121と入力画像信号115との差分を取ることで、予測誤差信号116が生成される。このとき、予測部114で選択された予測モード情報120に応じて、符号化制御部107は変換情報118を生成する。変換情報118は、直交変換に関して水平垂直方向のDCTを行うのか、予測モード情報が示す予測方向に沿って1次元DCTを行うのかを判別するための情報であり、変換方法選択スイッチ101、逆変換方法選択スイッチ108を切り替えるために用いられる。実施形態では、符号化制御部107は予測モード情報が示す予測方向が水平又は垂直方向のとき水平垂直変換情報のみを出力し、斜め方向であると水平垂直変換情報と斜め変換情報とを出力する。
As described above, the
予測誤差信号116は、変換方法選択スイッチ101に入力され、変換情報118に従って、スイッチが切り替えられ、第1変換部102か第2変換部103のいずれかに入力される。第1変換部102では図5(a)に示すように予測誤差信号116は水平垂直DCT器200により水平垂直DCTされる。水平垂直DCT器200からの変換係数232はその後図5(b)に示すように第1量子化部104内で水平垂直DCT器200に対応した量子化器201で量子化される。
The
第2変換部103では、図6(a)に示すように、予測誤差信号116は、DCT器203〜208から選択された、予測モード情報120の予測方向に対応したDCT器によってDCT変換される。その後、第2量子化部105では、図6(b)に示すように、量子化器210〜215から、予測モード情報120に対応した量子化器が選択され、第2変換部103の変換係数233が量子化され、量子化変換係数117が生成される。
In the
ここで、符号化効率の観点から、最適なモードを判定するためのモード判定について詳細に説明を行う。サブブロックがとりうる全ての予測モードについて、変換情報118が示す直交変換以降の符号化処理を行い、その結果得られた符号化コストが最小となるモードが、サブブロックの最適モードと判定される。具体的に説明すると、予測モードに規定された予測方法で生成された予測信号と原画像信号との差分値の絶対値を計算した差分誤差SADとその予測モードを用いたときに必要となるサイド情報の値OHから数式(3)を用いてモードを判定する。
K=SAD+λ×OH (3)
λは定数で与えられ、量子化スケールの値に基づいて決められる。このようにして得られたコストKを基にモードが決定される。一般的にコストKがもっとも小さい値を与えるモードが最適モードとして選択される。
Here, from the viewpoint of encoding efficiency, mode determination for determining an optimal mode will be described in detail. For all the prediction modes that can be taken by the sub-block, the encoding process after the orthogonal transformation indicated by the transformation information 118 is performed, and the mode that results in the lowest coding cost is determined as the optimum mode of the sub-block. . More specifically, the difference error SAD obtained by calculating the absolute value of the difference value between the prediction signal generated by the prediction method defined in the prediction mode and the original image signal and the side required when using the prediction mode The mode is determined from the information value OH using Equation (3).
K = SAD + λ × OH (3)
λ is given as a constant and is determined based on the value of the quantization scale. The mode is determined based on the cost K thus obtained. Generally, the mode that gives the smallest value of cost K is selected as the optimum mode.
本実施の形態では、サイド情報と差分値の絶対値を用いたが、別の実施の形態として、モード情報のみ、予測誤差信号の絶対和のみを用いてモードを判定しても良いし、これらをアダマール変換したり、近似した値を利用したりしても良い。また、入力画像のアクティビティを用いてコストを作成しても良いし、量子化スケールを利用してコスト関数を作成しても良い。 In this embodiment, the side information and the absolute value of the difference value are used. However, as another embodiment, the mode may be determined using only the mode information or only the absolute sum of the prediction error signals. May be subjected to Hadamard transform or an approximate value may be used. Further, the cost may be created using the activity of the input image, or the cost function may be created using the quantization scale.
コストを算出するための別の実施の形態として、仮符号化を行い、仮符号化の予測モードで生成された予測信号と原画像との差分値を実際に符号化した場合の符号量と、変換係数を局部復号した局部復号画像と入力画像信号との二乗誤差を用いてモードを判定しても良い。この場合のモード判定式は数式(4)のようになる。
J=D+λ×R (4)
ここで、Dは、入力画像と局部復号画像の二乗誤差を表す符号化歪である。一方、Rは仮符号化によって見積もられた符号量を表している。本コストを用いた場合は、符号化モード毎にエントロピー符号化と局部復号(逆量子化や逆変換処理を含む)が必要となるため、回路規模は増大するが、正確な符号量と符号化歪を用いることが可能となり、符号化効率を高く維持することが可能である。本コストも、符号量のみ、符号化歪のみを用いてコストを算出しても良いし、これらを近似した値を用いてコスト関数を作成しても良い。
As another embodiment for calculating cost, provisional encoding is performed, and the amount of code when the difference value between the prediction signal generated in the prediction mode of provisional encoding and the original image is actually encoded, and The mode may be determined using a square error between the locally decoded image obtained by locally decoding the transform coefficient and the input image signal. The mode determination formula in this case is as shown in Formula (4).
J = D + λ × R (4)
Here, D is an encoding distortion representing a square error between the input image and the locally decoded image. On the other hand, R represents a code amount estimated by provisional encoding. When this cost is used, entropy coding and local decoding (including inverse quantization and inverse transform processing) are required for each coding mode, so the circuit scale increases, but the exact code amount and coding Distortion can be used, and encoding efficiency can be kept high. For this cost, the cost may be calculated using only the code amount or only the coding distortion, or a cost function may be created using a value approximating these.
次に、予測方向に沿った1次元DCTの方法について説明を行う。まず、H.264で行われているDCTについて説明する。4x4サブブロックに対して、入力信号をX、変換行列をT、変換係数をCとすると、変換係数Cは数式(5)に従って求められる。
すなわち、入力画像信号に対して、変換行列Tを用いて、水平方向に1次元DCTをかけた後、変換行列Tの転置行列Ttを用いて、垂直方向に1次元DCTをかけている。 That is, the input image signal is subjected to the one-dimensional DCT in the horizontal direction using the transformation matrix T, and then subjected to the one-dimensional DCT in the vertical direction using the transposed matrix T t of the transformation matrix T.
上記演算は、8x8サブブロックに対しても同様である。それに対し、本実施の形態では、4x4サブブロックと8x8サブブロックに対して、H.264で定められている9種類のイントラ予測の中から、垂直予測、水平予測、DC予測の3種類を除いた6方向について、予測方向に沿った、方向性をもったDCT変換を行う。 The above calculation is the same for the 8 × 8 sub-block. On the other hand, in the present embodiment, H.264 is applied to 4 × 4 subblocks and 8 × 8 subblocks. A DCT transform with directionality along the prediction direction is performed for six directions from among the nine types of intra prediction defined in H.264 except for three types of vertical prediction, horizontal prediction, and DC prediction.
まず、H.264のイントラ予測モード3〜8までの各モードに対応した変換方法について、図7に示す4x4サブブロックを使って説明する。予測モード3の場合、サブブロック内の画素を、予測方向に沿って、(a)、(b,e)、(c,f,i)、(d,g,j,m)、(h,k,n)、(l,o)、(p)の7組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図8(a)に示す。変換係数をF(u)とすると、4x4画素ブロックの対角線にあたる画素列(d,g,j,m)に関しては、数式(6)のように基底長4の1次元DCTが行われる。
(ただし、f(0)=d, f(1)=g, f(2)=j, f(3)=m)。 (However, f (0) = d, f (1) = g, f (2) = j, f (3) = m).
次に、画素列(c,f,i)に関しては、数式(7)のように基底長3の1次元DCTが行われる。
(ただし、f(0)=c, f(1)=f, f(2)=i)。 (However, f (0) = c, f (1) = f, f (2) = i).
さらに、画素列(a)、(b,e)については、画素を折り返し結合して数式(8)のように基底長3の1次元DCTが行われる。
(ただし、f(0)=b, f(1)=e, f(2)=a 又は、f(0)=e, f(1)=b, f(2)=a)。 (However, f (0) = b, f (1) = e, f (2) = a or f (0) = e, f (1) = b, f (2) = a).
また、4x4変換の別の例として、画素を折り返し合わせずに1次DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図8(b)に示す。画素列(d,g,j,m)、(e,f,i)に関しては前記1次元DCTと同様であるが、(b,e)、(a)に関して、画素を折り返し結合せずそれぞれに対して数式(9)、数式(10)のように1次元DCTを行う。
(ただし、f(0)=b, f(1)=e)
(ただし、f(0)= a)。 (However, f (0) = a).
また、別の例として、画素列(c,f,i)、(e,b)、(a)を全て折り返し結合して1次元DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図8(c)に示す。画素列(d,g,j,m)に関しては前記1次元DCTと同様であるが、画素列(c,f,i)、(e,b)、(a)に関しては、数式(11)のように1次元DCTを行う。
(ただし、f(0)=c, f(1)=f, f(2)=i, f(3)=e, f(4)=b, f(5)=a
もしくは、f(0)=i, f(1)=f, f(2)=c, f(3)=b, f(4)=e, f(5)=a)
残りの画素列(h,k,n)、(l,e)、(p)については、(e,f,i)、(b,e)、(a)と、4x4ブロックの対角線である画素列(d,g,j,m)に関して線対称であるので、(e,f,i)、(b,e)、(a)と同様の計算で1次元DCTを行う。
(However, f (0) = c, f (1) = f, f (2) = i, f (3) = e, f (4) = b, f (5) = a
Or f (0) = i, f (1) = f, f (2) = c, f (3) = b, f (4) = e, f (5) = a)
For the remaining pixel columns (h, k, n), (l, e), (p), pixels that are diagonal lines of (e, f, i), (b, e), (a) and 4x4 blocks Since the line (d, g, j, m) is line symmetric, one-dimensional DCT is performed by the same calculation as (e, f, i), (b, e), and (a).
予測モード4の場合は、予測モード3の予測方向を左右反転したものと考えられるので、予測モード3の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.
次に、予測モード5〜8に対応するDCT演算方法を説明する。
予測モード5の場合、サブブロック内の画素を、予測方向に沿って、(a,e,j,n)、(b,f,k,o)、(c,g,l,p)、(i,m)、(d,h)の5組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図9(a)に示す。変換係数をF(u)とすると、画素列(a,e,j,n)に関しては、数式(12)のように基底長4の1次元DCTが行われる。
In the case of the
(ただし、f(0)=a, f(1)=e, f(2)=j, f(3)=n)
画素列(b,f,k,o)、(c,g,l,p)に関しても同じ演算が行われる。
(However, f (0) = a, f (1) = e, f (2) = j, f (3) = n)
The same calculation is performed on the pixel columns (b, f, k, o) and (c, g, l, p).
次に、画素列(i,m)に関しては、数式(13)のように基底長3の1次元DCTが行われる。
(ただし、f(0)=i, f(1)=m)
画素列(d,h)に関しても数式(13)と同じ演算が行われる。
(However, f (0) = i, f (1) = m)
The same calculation as Expression (13) is performed on the pixel column (d, h).
また、予測モード5に対応したDCT演算の別の例として、画素を折り返し合わせて1次DCTを行う方法が考えられる。この時の1次元DCTをかける画素列の組み合わせを図9(b)に示す。画素列(b,f,k,o)に関しては前記1次元DCTと同様であるが、(a,e,j,n)、(m,i)と(p,l,g,c)、(d,h)に関しては、画素を折り返し結合して数式(14)のように1次元DCTを行う。
(ただし、f(0)=a, f(1)=e, f(2)=j, f(3)=n, f(4)=m, f(5)=i)
画素列(p,l,g,c)、(d,h)に関しても数式(14)と同じ演算が行われる。
(However, f (0) = a, f (1) = e, f (2) = j, f (3) = n, f (4) = m, f (5) = i)
The same calculation as Expression (14) is performed for the pixel columns (p, l, g, c) and (d, h).
予測モード6〜8の場合は、予測モード5の予測方向を回転又は反転したものと考えられるので、予測モード5の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.
次に、8x8サブブロックについて、H.264のイントラ予測モード3〜8までの各モードについて、図10に示す8x8ブロックを用いて説明する。
予測モード3の場合、サブブロック内の画素を、予測方向に沿って、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)、(a7,b6,c5,d4,e3,f2,g1,h0)、(b7,c6,d5,e4,f3,g2,h1)、(c7,d6,e5,f4,g3,h2)、(d7,e6,f5,g4,h3)、(e7,f6,g5,h4)、(f7,g6,h5)、(g7,h6)、(h7)の15組に画素をまとめる。1次元DCTをかける画素列の組み合わせを図11(a)に示す。変換係数をF(u)とすると、8x8画素ブロックの対角線にあたる画素列(a7,b6,c5,d4,e3,f2,g1,h0)に関しては、数式(15)のように基底長8の1次元DCTが行われる。
In the
(ただし、f(0)=a7, f(1)=b6, f(2)=c5, f(3)=d4, f(4)=e3, f(5)=f2, f(6)=g1, f(7)=h0)。 (However, f (0) = a7, f (1) = b6, f (2) = c5, f (3) = d4, f (4) = e3, f (5) = f2, f (6) = g1, f (7) = h0).
次に、画素列(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)に関しては、画素列を折り返し合わせて、数式(16)のように基底長13の1次元DCTが行われる。
(ただし、f(0)=a6, ,f(1)=b5, f(2)=c4, f(3)=d3, f(4)=e2, f(5)=f1, f(6)=g0, f(7)=f0,
f(8)=e1, ,f(9)=d2, f(10)=c3, f(11)=b4, f(12)=a5,
又は、f(0)=g0, ,f(1)=f1, f(2)=e2, f(3)=d3, f(4)=c4, f(5)=b5, f(6)=a6, f(7)=a5,
f(8)=b4, ,f(9)=c3, f(10)=d2, f(11)=e1, f(12)=f0)。
(However, f (0) = a6,, f (1) = b5, f (2) = c4, f (3) = d3, f (4) = e2, f (5) = f1, f (6) = g0, f (7) = f0,
f (8) = e1,, f (9) = d2, f (10) = c3, f (11) = b4, f (12) = a5,
Or f (0) = g0,, f (1) = f1, f (2) = e2, f (3) = d3, f (4) = c4, f (5) = b5, f (6) = a6, f (7) = a5,
f (8) = b4,, f (9) = c3, f (10) = d2, f (11) = e1, f (12) = f0).
さらに、画素列(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)については、画素列を折り返し合わせて数式(17)のように基底長9の1次元DCTが行われる。
(ただし、f(0)=a4, ,f(1)=b3, f(2)=c2, f(3)=d1, f(4)=e0, f(5)=d0, f(6)=c1, f(7)=b2,
f(8)=a3又は、f(0)=e0, ,f(1)=d1, f(2)=c2, f(3)=b3, f(4)=a4, f(5)=a3, f(6)=b2, f(11)=c1, f(12)=d0)。
(However, f (0) = a4,, f (1) = b3, f (2) = c2, f (3) = d1, f (4) = e0, f (5) = d0, f (6) = c1, f (7) = b2,
f (8) = a3 or f (0) = e0,, f (1) = d1, f (2) = c2, f (3) = b3, f (4) = a4, f (5) = a3 , f (6) = b2, f (11) = c1, f (12) = d0).
さらに、画素列(a0)、(a1,b0)、(a2,b1,c0)については、画素列を折り返し結合して数式(18)のように基底長6の1次元DCTが行われる。
(ただし、f(0)=a2, f(1)=b1, f(2)=c0, f(3)=b0,f(4)=a(1),f(5)=a(0)
もしくは、f(0)=c0,f(1)=b1,f(2)=a2,f(3)=a1,f(4)=b0,f(5)=a(0))。
(However, f (0) = a2, f (1) = b1, f (2) = c0, f (3) = b0, f (4) = a (1), f (5) = a (0)
Or, f (0) = c0, f (1) = b1, f (2) = a2, f (3) = a1, f (4) = b0, f (5) = a (0)).
また、上記では、画素列(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)に対して、隣り合う画素列を結合して1次元DCTを行ったが、 (a7,b6,c5,d4,e3,f2,g1,h0)に対して行った1次元DCT同様に、それぞれの画素列を結合せずに1次元DCTを行うことも可能である。この時の1次元DCTをかける画素列の組み合わせを図11(b)に示す。 In the above, the pixel columns (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1, d0), (a4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0) and (a6, b5, c4, d3, e2, f1, g0) were subjected to one-dimensional DCT by combining adjacent pixel columns. , c5, d4, e3, f2, g1, h0), it is also possible to perform a one-dimensional DCT without combining the respective pixel columns. FIG. 11B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time.
残りの画素列の(b7,c6,d5,e4,f3,g2,h1)、(c7,d6,e5,f4,g3,h2)、(d7,e6,f5,g4,h3)、(e7,f6,g5,h4)、(f7,g6,h5)、(g7,h6)については、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)と、8x8ブロックの対角線である画素列(a7,b6,c5,d4,e3,f2,g1,h0)に関して線対称であるので、(a0)、(a1,b0)、(a2,b1,c0)、(a3,b2,c1,d0)、(a4,b3,c2,d1,e0)、(a5,b4,c3,d2,e1,f0)、(a6,b5,c4,d3,e2,f1,g0)と同様の計算で1次元DCTを行う。 (B7, c6, d5, e4, f3, g2, h1), (c7, d6, e5, f4, g3, h2), (d7, e6, f5, g4, h3), (e7, For (f6, g5, h4), (f7, g6, h5), (g7, h6), (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1, d0) , (A4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0), (a6, b5, c4, d3, e2, f1, g0) and a diagonal line of 8 × 8 blocks Since it is axisymmetric with respect to the pixel column (a7, b6, c5, d4, e3, f2, g1, h0), (a0), (a1, b0), (a2, b1, c0), (a3, b2, c1 , d0), (a4, b3, c2, d1, e0), (a5, b4, c3, d2, e1, f0), (a6, b5, c4, d3, e2, f1, g0) Perform one-dimensional DCT.
予測モード4の場合は、予測モード3の予測方向を回転又は反転したものと考えられるので、予測モード3の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.
次に、予測モード5〜8に対応するDCT演算方法を説明する。
Next, DCT calculation methods corresponding to
予測モード5の場合、サブブロック内の画素を、予測方向に沿って、(a0,b0,c1,d1,e2,f2,g3,h3)、(a1,b1,c2,d2,e3,f3,g4,h4)、(a2,b2,c3,d3,e4,f4,g5,h5)、(a3,b3,c4,d4,e5,f5,g6,h6)、(a4,b4,c5,d5,e6,f6,g7,h7)、(c0,d0,e1,f1,g2,h2)、(a5,b5,c6,d6,e7,f7)、(e0,f0,g1,h1)、(h0,g0) 、(a6,b6,c7,d7)、(a7,b7)の11組に画素をまとめる。この時の1次元DCTをかける画素列の組み合わせを図12(a)に示す。変換係数をF(u)とすると、画素列(a0,b0,c1,d1,e2,f2,g3,h3)に関しては、数式(19)のように基底長8の1次元DCTが行われる。
(ただし、f(0)=a0, f(1)=b0, f(2)=c1, f(3)=d1, f(4)=e2, f(5)=f2, f(6)=g3, f(7)=h3)
画素列(a1,b1,c2,d2,e3,f3,g4,h4)、(a2,b2,c3,d3,e4,f4,g5,h5)、(a3,b3,c4,d4,e5,f5,g6,h6)、(a4,b4,c5,d5,e6,f6,g7,h7)に関しても同じ演算が行われる。
(However, f (0) = a0, f (1) = b0, f (2) = c1, f (3) = d1, f (4) = e2, f (5) = f2, f (6) = g3, f (7) = h3)
Pixel column (a1, b1, c2, d2, e3, f3, g4, h4), (a2, b2, c3, d3, e4, f4, g5, h5), (a3, b3, c4, d4, e5, f5 , g6, h6) and (a4, b4, c5, d5, e6, f6, g7, h7), the same calculation is performed.
次に、画素列(c0,d0,e1,f1,g2,h2)に関しては、数式(20)のように基底長6の1次元DCTが行われる。
(ただし、f(0)=c0, f(1)=d0,f(2)=e1,f(3)=f1,f(4)=g2,f(5)=h2)
画素列(a5,b5,c6,d6,e7,f7)に関しても同じ演算が行われる。
(However, f (0) = c0, f (1) = d0, f (2) = e1, f (3) = f1, f (4) = g2, f (5) = h2)
The same calculation is performed on the pixel columns (a5, b5, c6, d6, e7, f7).
次に、画素列(e0,f0,g1,h1)、(h0,g0) に関しては、画素列を折り返し結合して、数式(21)のように基底長6の1次元DCTが行われる。
(ただし、f(0)=e0, f(1)=f0,f(2)=g1,f(3)=h1,f(4)=h0,f(5)=g0)
画素(a6,b6,c7,d7)、(a7,b7)に関しても同じ演算が行われる。
(However, f (0) = e0, f (1) = f0, f (2) = g1, f (3) = h1, f (4) = h0, f (5) = g0)
The same calculation is performed on the pixels (a6, b6, c7, d7) and (a7, b7).
また、上記では、画素列(e0,f0,g1,h1)、(h0,g0)、(d7,c7,b6,a6)、(a7,b7)に対して、隣り合う画素列を結合して1次元DCTを行ったが、 (a0,b0,c1,d1,e2,f2,g3,h3)に対して行った1次元DCT同様に、それぞれの画素列を結合せずに1次元DCTを行うことも可能である。この時の1次元DCTをかける画素列の組み合わせを図12(b)に示す。 In the above, the pixel columns (e0, f0, g1, h1), (h0, g0), (d7, c7, b6, a6), (a7, b7) are combined with adjacent pixel columns. The one-dimensional DCT is performed, but the one-dimensional DCT is performed without combining the respective pixel columns, similarly to the one-dimensional DCT performed on (a0, b0, c1, d1, e2, f2, g3, h3). It is also possible. FIG. 12B shows a combination of pixel columns to which the one-dimensional DCT is applied at this time.
予測モード6〜8の場合は、予測モード5の予測方向を回転もしくは反転したものと考えられるので、予測モード5の時と同様にしてDCT演算を行うことが可能である。
また、上記説明では実数DCT演算を用いたが、H.264で規定されているように整数演算でDCTを行うことも可能である。
In the case of the
In the above description, real DCT calculation is used. It is also possible to perform DCT by integer arithmetic as defined in H.264.
本実施の形態では、符号化対象のサブブロックのブロックサイズとして、4x4サイズと8x8サイズを用いたが、別の実施の形態として、4x4サイズよりも小さいサイズのブロックや、8x8サイズよりも大きいサイズのブロックをサブブロックとして符号化処理を行うことも可能である。例えば、2x2サイズや16x16サイズのブロックで符号化処理を行っても構わない。 In this embodiment, the 4 × 4 size and the 8 × 8 size are used as the block size of the sub-block to be encoded. However, as another embodiment, a block having a size smaller than the 4 × 4 size or a size larger than the 8 × 8 size is used. It is also possible to perform the encoding process using these blocks as sub-blocks. For example, the encoding process may be performed with a block of 2 × 2 size or 16 × 16 size.
また、本実施の形態では、直交変換方法として、DCTを用いたが、別の実施の形態として、KLT、DST、離散ウェーブレット変換(Discrete Wavelet Transform、以下DWT)を用いることが可能である。 In this embodiment, DCT is used as the orthogonal transformation method. However, as another embodiment, KLT, DST, and discrete wavelet transform (hereinafter referred to as DWT) can be used.
エントロピー符号化部106には、第1変換部102及び第1量子化部104又は第2変換部103及び第2量子化部105で生成された量子化変換係数117、そして符号化制御部107で生成された変換情報118が入力され、エントロピー符号化が行われる。モード判定によって最適と判定されたモードの変換情報118、変換係数117がエントロピー符号化され、符号化データ124が生成される。
また、モード判定によって最適モードと判定された予測モードが平均予測、垂直方向又は水平方向の予測である場合、エントロピー符号化部106は変換情報118を符号化せず、量子化変換係数117のみをエントロピー符号化する。
The entropy encoding unit 106 includes a quantized
In addition, when the prediction mode determined as the optimum mode by the mode determination is average prediction, prediction in the vertical direction or horizontal direction, the entropy encoding unit 106 does not encode the conversion information 118, and only the quantized
量子化変換係数117は、逆変換方法選択スイッチ108に入力される。逆変換方法選択スイッチ108は、変換情報118の値に従ってスイッチが切り替えられ、量子化変換係数117は、第2逆量子化部109又は第1逆量子化部110に入力される。
The quantized
第1逆量子化部110では図13(a)のように、量子化変換係数117に対して水平垂直方向の逆DCTに対応した逆量子化が逆量子化器216によって行われ、変換係数はその後図13(b)のように、第1逆変換部112で水平垂直方向の逆DCTが逆DCT器217によって行われ、復号予測誤差信号119が生成される。また、第2逆量子化部109では図14(a)のように、量子化変換係数117は予測モード情報120の予測方向の逆DCTに対応した逆量子化が逆量子化器(219〜224)によって行われる。さらに変換係数は、図14(b)のように、第2逆変換部111で、逆DCT器226〜231から選択された、予測モード情報120の予測方向に対応した逆DCT器によって逆DCTが行われ、復号予測誤差信号119が生成される。
復号予測誤差信号119は、予測部114で生成された予測画像信号121と加算され、参照メモリ113に蓄えられた後、参照画像信号122として予測部114に入力される。
In the first
The decoded
以上が本実施の形態にかかる動画像符号化装置100の構成である。以下、本実施の形態の動画像符号化方法について、動画像符号化装置100が実施する場合を例にあげ、図15のフローチャートを参照しながら説明する。 The above is the configuration of the video encoding apparatus 100 according to the present embodiment. Hereinafter, the moving picture coding method according to the present embodiment will be described with reference to the flowchart of FIG.
動画像符号化装置100に、1フレーム毎に動画像信号が入力されると、入力された画像はマクロブロック毎又はマクロブロックペア毎に符号化が開始される(ステップS301)。マクロブロックを符号化するに当たって、サブブロックのインデックスをsub_blk=0に初期化し、同時にサブブロックの個数MAX_SUB_BLKをセットする(ステップS302)。 When a moving image signal is input to the moving image encoding device 100 for each frame, encoding of the input image is started for each macroblock or macroblock pair (step S301). In encoding the macroblock, the subblock index is initialized to sub_blk = 0, and the number of subblocks MAX_SUB_BLK is set at the same time (step S302).
サブブロックのインデックスsub_blkがMAX_SUB_BLKより小さいかどうかを判別し、マクロブロック内のサブブロックにまだ符号化していないサブブロックが存在することを確認する(ステップS303)。ステップS303の判定が「Yes」の場合は、予測モードのインデックスをmode_idx=0に初期化し、選択されうるモード数MAX_MODEをセットする(ステップS304)。 It is determined whether or not the sub-block index sub_blk is smaller than MAX_SUB_BLK, and it is confirmed that there is an uncoded sub-block in the sub-block in the macro block (step S303). If the determination in step S303 is “Yes”, the prediction mode index is initialized to mode_idx = 0, and the number of modes MAX_MODE that can be selected is set (step S304).
次に、mode_idxがMAX_MODEよりも小さいか否かを判定し(ステップS305)、ステップS305の判定が「Yes」の場合は、mode_idxの値に応じてtrans_idxをセットする。すなわち、mode_idxが斜め方向の予測モードを示すモード番号である場合は、trans_idx=0に設定し、mode_idxが斜め方向ではない予測モードを示すモード番号である場合は、trans_idxは生成されない(ステップS306)。さらに、予測部114にて、予測モードmode_idxにおける予測画像信号121が生成される(ステップS307)。予測部114で生成された予測画像信号121と入力画像信号115との差分をとることで、予測モードmode_idxにおける予測誤差信号116が求められる(ステップS308)。
Next, it is determined whether or not mode_idx is smaller than MAX_MODE (step S305). If the determination in step S305 is “Yes”, trans_idx is set according to the value of mode_idx. That is, when mode_idx is a mode number indicating a prediction mode in an oblique direction, trans_idx = 0 is set, and when mode_idx is a mode number indicating a prediction mode not in an oblique direction, trans_idx is not generated (step S306). . Further, the
次に、符号化制御部107は、予測部114で選択された予測モードmode_idxが、斜め方向の予測モードを示すモード番号のうち最小の値であるmode_directionよりも小さいか、又はtrans_idx==1かどうかを判別する(ステップS309)。ステップS309の判定における2つの条件のうちいずれかを満たす場合は変換方法選択スイッチ101を第1変換部102に切り替え、予測誤差信号116に対して水平垂直DCTが行われ(ステップS310)、その後変換係数は水平垂直DCTに対応した量子化が行われ、量子化変換係数117が生成される(ステップS312)。
Next, the
ステップS309の判定における2つの条件をいずれも満たさない場合、選択スイッチ101を第2変換部103に切り替え、さらに予測モードmode_idxに従って、第2変換部103のスイッチ202は変換器203〜208を切り替える。スイッチ202により選択された変換器により予測誤差信号116に対して予測方向に応じたDCTが行われる(ステップ311)。その後変換係数は、第2量子化部105において各DCTに対応した量子化が第2量子化部105の量子化器210〜215の対応する各量子化器によって行われ、量子化変換係数117が生成される(ステップS313)。
When neither of the two conditions in the determination in step S309 is satisfied, the
即ち、予測方向が垂直方向及び水平方向ではない場合のみ、垂直水平方向の変換方法と予測モードに従った予測方向の変換方法とを切替え、予測方向が垂直方向及び水平方向の場合、常に垂直水平方向の変換方法を選択する。要するに、予測方向が斜め方向の場合には、垂直水平方向の変換と斜め方向の変換とを行い、予測方向が垂直方向及び水平方向の場合には、垂直水平方向の変換のみを行う。 That is, only when the prediction direction is not the vertical direction or the horizontal direction, the conversion method between the vertical horizontal direction and the prediction direction conversion method according to the prediction mode is switched. When the prediction direction is the vertical direction and the horizontal direction, the horizontal direction is always vertical. Select the direction conversion method. In short, when the prediction direction is an oblique direction, conversion in the vertical and horizontal directions and conversion in the oblique direction are performed, and when the prediction directions are the vertical direction and the horizontal direction, only conversion in the vertical and horizontal directions is performed.
次に、量子化変換係数117と変換情報118は、エントロピー符号化部106で符号化される(ステップS314)。この際、mode_idx < mode_directionの場合は、変換情報trans_idxが生成されないので、変換情報118は符号化されず、変換係数117のみが符号化される。即ち、前記エントロピー符号化部106は、変換情報と変換係数を符号化する際に、予測モード情報が示す予測方向が垂直方向及び水平方向ではない場合のみ、変換係数に加えて変換情報を符号化し、予測モードが示す予測方向が垂直方向及び水平方向である場合は、変換情報は符号化せず、変換係数のみを符号化する。
Next, the quantized
ステップS314のエントロピー符号化の後、予測モードのRDコストを保存し(ステップS315)、その後、trans_idxが1かどうかを判定する(ステップS316)。ステップS316において、trans_idx==0だった場合は、trans_idxに1を足して(ステップS317)、ステップS309に戻り、予測モードmode_idxと変換情報trans_idxに基づいて再度分岐判定を行う。 After entropy coding in step S314, the prediction mode RD cost is stored (step S315), and then it is determined whether or not trans_idx is 1 (step S316). In step S316, if trans_idx == 0, 1 is added to trans_idx (step S317), the process returns to step S309, and branch determination is performed again based on the prediction mode mode_idx and the conversion information trans_idx.
ステップS309〜S315を経て、再度ステップS316においてtrans_idxが1かどうかの判定を行う。ステップS316の判定において、trans_idx==1だった場合はmode_idxに1を加算して、次の予測モードをセットする(ステップS318)。その後、セットした予測モードmode_idxがMAX_MODEより小さいか否かを確認し(ステップS305)、小さい場合ステップS306〜ステップS318の処理を行う。可能な全てのモードについて、ステップS306〜ステップS318までの処理を行った後、ステップS305でmode_idx<MAX_MODEの判定が「NO」と判定されると、サブブロックのインデックスsub_blkに1を加算して、次のサブブロックの符号化処理に移る(ステップS319)。次のサブブロックがMAX_SUB_BLKより小さいか否かを判定し(ステップS303)、ステップS303の判定が「Yes」の場合はステップS304〜ステップS319の処理を行う。全サブブロックについてステップS304〜ステップS319が終了した後、sub_blk<MAX_SUB_BLKの判定が「NO」と判定されると、各サブブロックについて求められた各モードのコスト関数を比較し、各ブロックの最適モードをロードし(ステップS320)、最適モードで符号化を行った際の符号化データをマクロブロックで多重化し、送出される(ステップS321)。 After steps S309 to S315, it is determined again whether or not trans_idx is 1 in step S316. If it is determined in step S316 that trans_idx == 1, 1 is added to mode_idx, and the next prediction mode is set (step S318). Thereafter, it is confirmed whether or not the set prediction mode mode_idx is smaller than MAX_MODE (step S305). If it is smaller, the processes of steps S306 to S318 are performed. After performing the processing from step S306 to step S318 for all possible modes, if the determination of mode_idx <MAX_MODE is “NO” in step S305, 1 is added to the subblock index sub_blk, The process proceeds to the encoding process for the next sub-block (step S319). It is determined whether or not the next sub-block is smaller than MAX_SUB_BLK (step S303). If the determination in step S303 is “Yes”, the processing from step S304 to step S319 is performed. If the determination of sub_blk <MAX_SUB_BLK is “NO” after steps S304 to S319 have been completed for all the subblocks, the cost functions of the respective modes obtained for the respective subblocks are compared, and the optimum mode of each block is compared. Is loaded (step S320), and the encoded data when encoding is performed in the optimum mode is multiplexed with a macroblock and transmitted (step S321).
次に、本実施の形態で用いられるシンタクスの説明を行う。シンタクスの全体的な構造を図18に示す。本実施の形態で用いられるシンタクスは、主に3つのパートからなり、High Level Syntaxはスライス以上の上位レイヤのシンタクス情報が詰め込まれている。Slice Level Syntaxはスライス毎に必要な情報が明記されており、Macroblock Level Syntaxはマクロブロック毎に必要とされる可変長符号化された誤差信号やモード情報が明記されている。
シンタクスのそれぞれは、さらに詳細なシンタクスで構成されており、High Level Syntaxでは、Sequence parameter set syntaxとPicture parameter set syntaxなどのシーケンス、ピクチャレベルのシンタクスから構成されている。Slice Level Syntaxでは、Slice header syntax、Slice data syntaxなどから成る。さらに、Macroblock Level Syntaxは、Macroblock layer syntax、Macroblock prediction syntaxなどから構成されている。
Next, the syntax used in this embodiment will be described. The overall structure of the syntax is shown in FIG. The syntax used in the present embodiment is mainly composed of three parts, and High Level Syntax is packed with syntax information of an upper layer higher than a slice. Slice Level Syntax specifies information required for each slice, and Macroblock Level Syntax specifies error signal and mode information encoded in variable length required for each macroblock.
Each syntax is composed of more detailed syntax, and in High Level Syntax, it is composed of sequences such as Sequence parameter set syntax and Picture parameter set syntax, and syntax of picture level. Slice Level Syntax consists of Slice header syntax, Slice data syntax, etc. Furthermore, Macroblock Level Syntax is composed of Macroblock layer syntax, Macroblock prediction syntax, and the like.
本実施の形態で、必要となるシンタクス情報はシーケンスヘッダ、スライスヘッダ、マクロブロックヘッダであり、それぞれのシンタクスを以下で説明する。 In the present embodiment, required syntax information is a sequence header, a slice header, and a macroblock header, and each syntax will be described below.
図19のシーケンスヘッダ内に示されるdirectional_dct_seq_flagは、符号化対象シーケンスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、符号化対象シーケンスで本実施の形態の直交変換方式を使用することが可能である。次に、図20のピクチャヘッダ内に示されるdirectional_dct_pic_flagは、ピクチャで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、ピクチャで本実施の形態の直交変換方式を用いることが可能となる。次に、図21のスライスヘッダ内に示されるdirectional_dct_slice_flagは、スライスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、スライスで本実施の形態の直交変換方式を用いることが可能となる。 The directional_dct_seq_flag shown in the sequence header of FIG. 19 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the encoding target sequence. When this flag is 1, the directional_dct_seq_flag is set in the encoding target sequence. It is possible to use a form of orthogonal transform scheme. Next, directional_dct_pic_flag shown in the picture header of FIG. 20 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used for a picture. When this flag is 1, the orthogonal of the present embodiment is used for a picture. A conversion method can be used. Next, directional_dct_slice_flag shown in the slice header of FIG. 21 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the slice. When this flag is 1, the orthogonal of the present embodiment is used in the slice. A conversion method can be used.
図22に示すようにマクロブロックヘッダ内には、マクロブロックレイヤ内のシンタクスとして、directional_dct4x4_mode_flag、directional_dct8x8_mode_flagの二つのフラグを持つ。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをマクロブロックにつき1ビット生成する。これら二つのフラグは、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報であり、それぞれのフラグが1を示す場合は、水平垂直DCTが行われていることを示し、0を示す場合は予測方向に依存したDCTが行われていることを示す。 As shown in FIG. 22, the macroblock header has two flags of directional_dct4x4_mode_flag and directional_dct8x8_mode_flag as syntax in the macroblock layer. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each macroblock. These two flags are transformation information indicating whether the orthogonal transformation is horizontal / vertical DCT or DCT depending on the prediction direction. When each flag indicates 1, horizontal / vertical DCT is used. Indicates that DCT is being performed, and a value of 0 indicates that DCT depending on the prediction direction is being performed.
本実施の形態では、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、別の実施の形態として、サブブロックごとに変換情報を決定したり、さらにはサブブロック単位で補助情報に従って変換情報を決定したりする方法が考えられる。 In this embodiment, for each macroblock, transform information indicating whether orthogonal transform is performing horizontal / vertical DCT or DCT depending on the prediction direction is determined. However, as another embodiment, A method of determining conversion information for each sub-block, or determining conversion information according to auxiliary information for each sub-block can be considered.
上述のように第1の実施の形態によると、各ブロックに対して、従来のH.264の変換方式に加えて、変換方向をイントラ予測が行われる方向に限定して1次元DCTをかける。また、斜め方向に1次元DCTをかける際には、イントラ予測の方向を考慮して画素を折り返すことで、基底長の長い1次元DCTをかける。また、予測方向に1次元DCTをかける際は、予測方向に1回だけ1次元DCTをかける。即ち、予測方向が斜め方向の場合、垂直水平変換と予測方向の斜め変換との2つを行い、斜め方向の変換を予測方向に対応する一種類に絞り、垂直水平変換結果と予測方向に合わせた斜め方向の変換結果とを比較して最適な変換方法を採用する。 As described above, according to the first embodiment, in addition to the conventional H.264 conversion method, one-dimensional DCT is applied to each block while limiting the conversion direction to the direction in which intra prediction is performed. In addition, when the one-dimensional DCT is applied in an oblique direction, the one-dimensional DCT having a long base length is applied by folding back pixels in consideration of the direction of intra prediction. In addition, when the one-dimensional DCT is applied in the prediction direction, the one-dimensional DCT is applied only once in the prediction direction. In other words, when the prediction direction is diagonal, the vertical horizontal conversion and the diagonal conversion of the prediction direction are performed, and the diagonal conversion is narrowed down to one type corresponding to the prediction direction, and the vertical horizontal conversion result and the prediction direction are matched. The optimum conversion method is adopted by comparing the result of conversion in the diagonal direction.
[第2の実施の形態]
次に、第2の実施の形態について説明する。本実施の形態における動画像符号化装置の全体的な構成は、第1の実施形態とほぼ同様であるため、第1の実施の形態との相違点のみを説明する。第1の実施の形態では、本実施の形態の直交変換方式を用いるかどうかを、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、本実施の形態では、変換情報を、サブマクロブロック単位で切り替える。本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図23に示す。
[Second Embodiment]
Next, a second embodiment will be described. Since the overall configuration of the moving picture coding apparatus according to the present embodiment is substantially the same as that of the first embodiment, only differences from the first embodiment will be described. In the first embodiment, whether or not the orthogonal transform method of the present embodiment is used is determined for each macroblock whether the orthogonal transform performs horizontal / vertical DCT or performs DCT depending on the prediction direction. In this embodiment, the conversion information is switched in units of sub-macroblocks. FIG. 23 shows the syntax structure in the macroblock header in the present embodiment.
本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブマクロブロックにつき1ビット生成する。すなわち、マクロブロックが4x4変換を行う場合は、1マクロブロック中に16個のdirectional_dct4x4_mode_flagが存在し、8x8変換を行う場合は1マクロブロック中に4個のdirectional_dct8x8_mode_flagが存在する。 In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each sub macroblock. That is, 16 directional_dct4x4_mode_flag exists in one macroblock when the macroblock performs 4x4 conversion, and 4 directional_dct8x8_mode_flag exists in one macroblock when the 8x8 conversion is performed.
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。本実施の形態における動画像符号化装置の全体的な構成は、第2の実施形態とほぼ同様であるため、第2の実施の形態との相違点のみを説明する。本実施の形態では、第2の実施の形態と同様にして、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブブロックにつき1ビットを生成する。この際に、第2の実施の形態とは異なり、全てのサブブロックにフラグを作成するのではなく、予測モード情報やサブブロックに非ゼロ係数が含まれるかを表すcoded_block_patternの補助情報を用いて、サブブロックにフラグを生成するかどうかを決定する。本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図24に示す。intra8x8_pred_mode、intra4x4_pred_modeはそれぞれ、8x8ブロックと4x4ブロックの予測モードを表す値で、予測方向と予測モードの値の関係は図3の値と同様である。符号化の際に、予測モードが示す予測の方向が垂直方向、水平方向、DC方向である場合、さらにサブブロックが含まれる8x8画素ブロックにおいて、Coded_Block_Patternから非ゼロ係数を持たないと判定される場合は、予測方向に依存した変換を行う必要がないので、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagは生成されない。
[Third embodiment]
Next, a third embodiment of the present invention will be described. Since the overall configuration of the moving picture encoding apparatus in the present embodiment is substantially the same as that of the second embodiment, only differences from the second embodiment will be described. In this embodiment, as in the second embodiment, when the macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, the subblock in the macroblock is a 4 × 4 block. If there is, directional_dct_4x4_mode_flag is generated, and if the subblock is an 8x8 block, directional_dct8x8_mode_flag is generated for one bit per subblock. At this time, unlike the second embodiment, instead of creating a flag for all sub-blocks, using prediction mode information and auxiliary information of coded_block_pattern indicating whether the non-zero coefficient is included in the sub-block Determine whether to generate a flag in the sub-block. FIG. 24 shows the syntax structure in the macroblock header in the present embodiment. intra8x8_pred_mode and intra4x4_pred_mode are values representing prediction modes of the 8x8 block and the 4x4 block, respectively, and the relationship between the prediction direction and the value of the prediction mode is the same as the value of FIG. When encoding, when the prediction direction indicated by the prediction mode is the vertical direction, the horizontal direction, or the DC direction, and when it is determined that the 8 × 8 pixel block including the sub-block does not have a non-zero coefficient from Coded_Block_Pattern Since there is no need to perform conversion depending on the prediction direction, directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is not generated.
[第4の実施の形態]
図16は、第4の実施形態に係わる動画像復号化装置400の構成を示すブロック図である。本実施形態に係る動画像復号化装置400は、符号化データから変換係数、予測モード情報、変換情報を解析するエントロピー復号部401と、解析された変換情報から逆量子化及び逆変換方法を選択する逆変換方法選択スイッチ402と、予測モード情報から得られる予測の方向に対応した逆量子化及び逆変換を行う逆量子化変換部403〜406とを備えている。
[Fourth embodiment]
FIG. 16 is a block diagram illustrating a configuration of a video decoding device 400 according to the fourth embodiment. The video decoding apparatus 400 according to the present embodiment selects an entropy decoding unit 401 that analyzes transform coefficients, prediction mode information, and transform information from encoded data, and an inverse quantization and inverse transform method from the analyzed transform information. Inverse transform method selection switch 402, and inverse quantization transform units 403 to 406 that perform inverse quantization and inverse transform corresponding to the direction of prediction obtained from the prediction mode information.
図16において、動画像符号化装置100から送出され、伝送系又は蓄積系を経て送られてきた符号化データ409は、多重化分離器(図示せず)により1フレーム毎にシンタクスに基づいて分離された後、エントロピー復号部401に入力される。エントロピー復号部401では、符号化データの各シンタクスの可変長符号が復号され、変換情報410、予測モード情報411、量子化変換係数412などが再生される。 In FIG. 16, encoded data 409 sent from the moving image encoding apparatus 100 and sent via the transmission system or the storage system is separated on the basis of the syntax for each frame by a demultiplexer (not shown). Is then input to the entropy decoding unit 401. In the entropy decoding unit 401, the variable length code of each syntax of the encoded data is decoded, and the transform information 410, the prediction mode information 411, the quantized transform coefficient 412 and the like are reproduced.
量子化変換係数は、逆変換方法選択スイッチ402に入力され、エントロピー復号部401で復号された変換情報410に基づいて、第1逆量子化部403、第2逆量子化部404のいずれかに接続される。第1逆量子化部403に接続された場合、水平垂直DCTに対応した逆量子化方法で、量子化変換係数は逆量子化される。一方、第2逆量子化部404に接続された場合、エントロピー復号部401で再生された予測モード情報411によって、逆量子化方法が逆量子化器219〜224から選択され、予測モード情報が示す予測方向のDCTに対応した逆量子化が行われる。第1逆量子化部403又は第2逆量子化部404で逆量子化された変換係数は、対応する第1逆変換部405又は第2逆変換部406に入力される。第1逆変換部405では、水平垂直逆DCTが行われ、第2逆変換部406では、予測モード情報411によって、逆DCTの方法が逆DCT器226〜231から選択され、予測モードが示す予測方向に依存した逆DCTが行われ、復号予測誤差信号413が出力される。
The quantized transform coefficient is input to the inverse transform method selection switch 402, and based on the transform information 410 decoded by the entropy decoding unit 401, either the first inverse quantizer 403 or the second inverse quantizer 404. Connected. When connected to the first inverse quantization unit 403, the quantized transform coefficients are inversely quantized by an inverse quantization method corresponding to horizontal and vertical DCT. On the other hand, when connected to the second inverse quantization unit 404, the inverse quantization method is selected from the
参照メモリ407に蓄積されていた参照画像414と予測モード情報411を用いて、予測部408で予測画像415が生成される。復号予測誤差信号413と予測画像415を足し合わせることで復号画像信号が生成され、参照メモリ407に蓄積された後、再生画像として出力される。 A prediction image 415 is generated by the prediction unit 408 using the reference image 414 and the prediction mode information 411 stored in the reference memory 407. A decoded image signal is generated by adding the decoded prediction error signal 413 and the predicted image 415, accumulated in the reference memory 407, and then output as a reproduced image.
また、本実施の形態では、直交逆変換方法として、IDCTを用いたが、別の実施の形態として、KLT、DST、DWTの逆変換を用いることが可能である。 In this embodiment, IDCT is used as the orthogonal inverse transform method. However, as another embodiment, inverse transform of KLT, DST, and DWT can be used.
以上が本実施の形態にかかる動画像復号化装置400の構成である。以下、本発明にかかる本実施の形態の動画像復号化方法について、動画像復号化装置400が実施する場合を例にあげ、図17のフローチャートを参照しながら説明する。 The above is the configuration of the moving picture decoding apparatus 400 according to the present embodiment. Hereinafter, the moving picture decoding method according to the present embodiment of the present invention will be described with reference to the flowchart of FIG. 17 by taking the moving picture decoding apparatus 400 as an example.
動画像復号化装置400が、1フレーム毎に動画像符号化データを取得する(ステップS501)と、入力された動画像符号化データはマクロブロック毎、或いはマクロブロックペア毎に復号化が開始される。符号化データはまず、エントロピー復号部401に入力され、符号化データの各シンタクスの可変長符号が復号され、変換情報410、予測モード情報411、量子化変換係数412などが再生される(ステップS502)。さらに、ステップS502で復号されたデータから、シンタックスの解析を行う(ステップS503)。 When the moving image decoding apparatus 400 obtains moving image encoded data for each frame (step S501), decoding of the input moving image encoded data is started for each macroblock or each macroblock pair. The First, the encoded data is input to the entropy decoding unit 401, the variable length code of each syntax of the encoded data is decoded, and the transform information 410, the prediction mode information 411, the quantized transform coefficient 412 and the like are reproduced (step S502). ). Further, syntax analysis is performed from the data decoded in step S502 (step S503).
次に、サブブロックのインデックスをsub_blk=0に初期化する(ステップS504)。sub_blkがマクロブロックのサブブロック数MAX_SUB_BLKよりも小さいかどうかを判定し(ステップS505)、小さい場合はステップS503で解析したシンタックスから、予測モード情報mode_idx、変換情報trans_idxをロードする(ステップS506)。その後予測部408は、ステップS506でロードした予測モードmode_idxの予測画像を生成する(S507)。 Next, the sub-block index is initialized to sub_blk = 0 (step S504). It is determined whether or not sub_blk is smaller than the number of sub-blocks MAX_SUB_BLK of the macroblock (step S505). If smaller, prediction mode information mode_idx and conversion information trans_idx are loaded from the syntax analyzed in step S503 (step S506). Thereafter, the prediction unit 408 generates a prediction image of the prediction mode mode_idx loaded in step S506 (S507).
次に、予測モードmode_idxが斜め方向の予測を示す最も小さい予測モード番号mode_directionよりも小さいか、又はtrans_idx==1であるかどうかを判定する(ステップS508)。ステップS508の判定が「Yes」であれば、水平垂直DCTに対応した逆量子化が行われ(ステップS509)、その後水平垂直逆DCTが行われる(ステップS511)。ステップS508の判定が「NO」であれば、イントラ予測方向のDCTに対応した逆量子化が行われ(ステップS510)、その後イントラ予測方向に依存した逆DCTが行われる(ステップS512)。その後、復号された誤差信号と予測画像が合成され(ステップS513)、参照メモリ407に蓄積される(ステップS514)。その後、サブブロックのインデックスsub_blkに1を加算して、ステップS505に戻る。ステップS505の判定が、「NO」である場合、マクロブロックの全サブブロックの復号化が終了し、復号画像を出力する(ステップS516)。 Next, it is determined whether or not the prediction mode mode_idx is smaller than the smallest prediction mode number mode_direction indicating prediction in the oblique direction, or trans_idx == 1 (step S508). If the determination in step S508 is “Yes”, inverse quantization corresponding to horizontal and vertical DCT is performed (step S509), and then horizontal and vertical inverse DCT is performed (step S511). If the determination in step S508 is “NO”, inverse quantization corresponding to DCT in the intra prediction direction is performed (step S510), and then inverse DCT depending on the intra prediction direction is performed (step S512). Thereafter, the decoded error signal and the predicted image are combined (step S513) and stored in the reference memory 407 (step S514). Thereafter, 1 is added to the sub-block index sub_blk, and the process returns to step S505. If the determination in step S505 is “NO”, decoding of all the sub-blocks of the macroblock is completed and a decoded image is output (step S516).
即ち、予測方向が斜め方向の場合、復号された変換情報から垂直水平逆変換又は予測方向の斜め逆変換のいずれか1つの逆変換を行い、予測方向が斜めでは無い場合、常に垂直水平逆変換を行う。 That is, when the prediction direction is diagonal, the inverse one of vertical and horizontal reverse conversion or diagonal prediction conversion is performed from the decoded conversion information. When the prediction direction is not diagonal, the vertical horizontal reverse conversion is always performed. I do.
次に本実施の形態で用いられるシンタクスの説明を行う。シンタクスの全体的な構造を図18に示す。本実施の形態で用いられるシンタクスは、主に3つのパートからなり、High Level Syntaxはスライス以上の上位レイヤのシンタクス情報が詰め込まれている。Slice Level Syntaxはスライス毎に必要な情報が明記されており、Macroblock Level Syntaxはマクロブロック毎に必要とされる可変長符号化された誤差信号やモード情報が明記されている。
これらシンタックスのそれぞれは、さらに詳細なシンタクスで構成されており、High Level Syntaxでは、Sequence parameter set syntaxとPicture parameter set syntaxなどのシーケンス、ピクチャレベルのシンタクスから構成されている。Slice Level Syntaxでは、Slice header syntax、Slice data syntaxなどから成る。さらに、Macroblock Level Syntaxは、Macroblock layer syntax、Macroblock prediction syntaxなどから構成されている。
Next, the syntax used in this embodiment will be described. The overall structure of the syntax is shown in FIG. The syntax used in the present embodiment is mainly composed of three parts, and High Level Syntax is packed with syntax information of an upper layer higher than a slice. Slice Level Syntax specifies information required for each slice, and Macroblock Level Syntax specifies error signal and mode information encoded in variable length required for each macroblock.
Each of these syntaxes is composed of more detailed syntax, and in High Level Syntax, it is composed of sequences such as Sequence parameter set syntax and Picture parameter set syntax, and picture level syntax. Slice Level Syntax consists of Slice header syntax, Slice data syntax, etc. Furthermore, Macroblock Level Syntax is composed of Macroblock layer syntax, Macroblock prediction syntax, and the like.
本実施の形態で、必要となるシンタクス情報はシーケンスヘッダ、スライスヘッダ、マクロブロックヘッダであり、それぞれのシンタクスを以下で説明する。
図19のシーケンスヘッダ内に示されるdirectional_dct_seq_flagは、符号化対象シーケンスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、符号化対象シーケンスで本実施の形態の直交変換方式を使用することが可能である。次に、図20のピクチャヘッダ内に示されるdirectional_dct_pic_flagは、ピクチャで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、ピクチャで本実施の形態の直交変換方式を用いることが可能となる。次に、図21のスライスヘッダ内に示されるdirectional_dct_slice_flagは、スライスで本実施の形態の直交変換方式を用いるかどうかを示すフラグであり、このフラグが1の場合、スライスで本実施の形態の直交変換方式を用いることが可能となる。
In the present embodiment, required syntax information is a sequence header, a slice header, and a macroblock header, and each syntax will be described below.
The directional_dct_seq_flag shown in the sequence header of FIG. 19 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the encoding target sequence. When this flag is 1, the directional_dct_seq_flag is set in the encoding target sequence. It is possible to use a form of orthogonal transform scheme. Next, directional_dct_pic_flag shown in the picture header of FIG. 20 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used for a picture. When this flag is 1, the orthogonal of the present embodiment is used for a picture. A conversion method can be used. Next, directional_dct_slice_flag shown in the slice header of FIG. 21 is a flag indicating whether or not the orthogonal transform method of the present embodiment is used in the slice. When this flag is 1, the orthogonal of the present embodiment is used in the slice. A conversion method can be used.
図22に示すようにマクロブロックヘッダ内には、マクロブロックレイヤ内のシンタクスとして、directional_dct4x4_mode_flag、directional_dct8x8_mode_flagの二つのフラグを持つ。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをマクロブロックにつき1ビット生成する。この二つのフラグは、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報であり、それぞれのフラグが1を示す場合は、水平垂直DCTが行われていることを示し、0を示す場合は予測方向に依存したDCTが行われていることを示す。 As shown in FIG. 22, the macroblock header has two flags of directional_dct4x4_mode_flag and directional_dct8x8_mode_flag as syntax in the macroblock layer. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, one bit of directional_dct8x8_mode_flag is generated for each macroblock. These two flags are transformation information indicating whether the orthogonal transformation is horizontal / vertical DCT or DCT depending on the prediction direction. When each flag indicates 1, the horizontal / vertical DCT is used. Indicates that DCT is being performed, and a value of 0 indicates that DCT depending on the prediction direction is being performed.
本実施の形態では、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、別の実施の形態として、サブブロックごとに変換情報を決定したり、サブブロック単位で補助情報に従って変換情報を決定したりする方法が考えられる。 In this embodiment, for each macroblock, transform information indicating whether orthogonal transform is performing horizontal / vertical DCT or DCT depending on the prediction direction is determined. However, as another embodiment, A method of determining conversion information for each sub-block or determining conversion information according to auxiliary information in units of sub-blocks can be considered.
[第5の実施の形態]
次に本発明の第5の実施の形態について説明する。本実施の形態における動画像復号化装置の全体的な構成は、第4の実施形態とほぼ同様であるため、第4の実施の形態との相違点のみを説明する。
[Fifth embodiment]
Next, a fifth embodiment of the present invention will be described. Since the overall configuration of the moving picture decoding apparatus in the present embodiment is substantially the same as that of the fourth embodiment, only differences from the fourth embodiment will be described.
第4の実施の形態では、本実施の形態の直交変換方式を用いるかどうかを、マクロブロックごとに、直交変換が水平垂直DCTを行っているのか、又は予測方向に依存したDCTを行っているのかを示す変換情報を決定するが、本実施の形態では、変換情報を、サブマクロブロック単位で切り替える。 In the fourth embodiment, whether or not the orthogonal transform method of the present embodiment is used is determined for each macroblock whether the orthogonal transform performs horizontal / vertical DCT or performs DCT depending on the prediction direction. In this embodiment, the conversion information is switched in units of sub-macroblocks.
本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図23に示す。本実施の形態では、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブマクロブロックにつき1ビットを生成する。すなわち、マクロブロックが4x4変換を行う場合は、1マクロブロック中に16個のdirectional_dct4x4_mode_flagが存在し、8x8変換を行う場合は1マクロブロック中に4個のdirectional_dct8x8_mode_flagが存在する。 FIG. 23 shows the syntax structure in the macroblock header in the present embodiment. In this embodiment, when a macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, if the subblock in the macroblock is 4x4 block, directional_dct_4x4_mode_flag is set and subblock is 8x8 block If there is, directional_dct8x8_mode_flag is generated by 1 bit per sub macroblock. That is, 16 directional_dct4x4_mode_flag exists in one macroblock when the macroblock performs 4x4 conversion, and 4 directional_dct8x8_mode_flag exists in one macroblock when the 8x8 conversion is performed.
[第6の実施の形態]
次に、本発明の第6の実施の形態について説明する。本実施の形態における動画像復号化装置の全体的な構成は、第5の実施の形態とほぼ同様であるため、第5の実施の形態との相違点のみを説明する。
[Sixth embodiment]
Next, a sixth embodiment of the present invention will be described. Since the overall configuration of the moving picture decoding apparatus in the present embodiment is almost the same as that of the fifth embodiment, only differences from the fifth embodiment will be described.
本実施の形態では、第5の実施の形態と同様にして、マクロブロックがイントラマクロブロックであり、directional_dct_seq_flag、directional_dct_pic_flag、directional_dct_slice_flagのいずれかが1である場合、マクロブロック中のサブブロックが4x4ブロックであればdirectional_dct_4x4_mode_flagを、サブブロックが8x8ブロックであればdirectional_dct8x8_mode_flagをサブブロックにつき1ビットを生成する。この際に、第5の実施の形態とは異なり、全てのサブブロックにフラグを作成するのではなく、予測モード情報やサブブロックに非ゼロ係数が含まれるかを表すcoded_block_patternの補助情報を用いて、サブブロックにフラグを生成するかどうかを決定する。 In the present embodiment, as in the fifth embodiment, when the macroblock is an intra macroblock and any of directional_dct_seq_flag, directional_dct_pic_flag, and directional_dct_slice_flag is 1, the subblock in the macroblock is a 4 × 4 block. If there is, directional_dct_4x4_mode_flag is generated, and if the subblock is an 8x8 block, directional_dct8x8_mode_flag is generated for one bit per subblock. At this time, unlike the fifth embodiment, instead of creating a flag for all sub-blocks, using prediction mode information and auxiliary information of coded_block_pattern indicating whether the non-zero coefficient is included in the sub-block Determine whether to generate a flag in the sub-block.
本実施の形態におけるマクロブロックヘッダ内のシンタックスの構造を図24に示す。intra8x8_pred_mode、intra4x4_pred_modeはそれぞれ、8x8ブロックと4x4ブロックの予測モードを表す値で、予測方向と予測モードの値の関係は図3の値と同様である。符号化の際に、予測モードが示す予測の方向が垂直方向、水平方向、DC方向である場合、さらにサブブロックが含まれる8x8画素ブロックにおいて、Coded_Block_Patternから非ゼロ係数を持たないと判定される場合は、予測方向に依存した変換を行う必要がないので、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagは生成されない。復号化器は、復号化したデータの中に、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagが存在しない場合、directional_dct4x4_mode_flag、又はdirectional_dct8x8_mode_flagの値が1であるとして、その後の復号化処理を行う。 FIG. 24 shows the syntax structure in the macroblock header in the present embodiment. intra8x8_pred_mode and intra4x4_pred_mode are values representing prediction modes of the 8x8 block and the 4x4 block, respectively, and the relationship between the prediction direction and the value of the prediction mode is the same as the value of FIG. When encoding, when the prediction direction indicated by the prediction mode is the vertical direction, the horizontal direction, or the DC direction, and when it is determined that the 8 × 8 pixel block including the sub-block does not have a non-zero coefficient from Coded_Block_Pattern Since there is no need to perform conversion depending on the prediction direction, directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is not generated. When there is no directional_dct4x4_mode_flag or directional_dct8x8_mode_flag in the decoded data, the decoder assumes that the value of directional_dct4x4_mode_flag or directional_dct8x8_mode_flag is 1, and performs subsequent decoding processing.
100…動画像符号化装置、101…変換方法選択スイッチ、102…第1変換部、103…第2変換部、104…第1量子化部、105…第2量子化部、106…エントロピー符号化部、107…符号化制御部、108…逆変換方法選択スイッチ、109…第2逆量子化部、110…第1逆量子化部、111…第2逆変換部、112…第1逆変換部、113…参照メモリ、114…予測部、115…入力画像信号、116…予測誤差信号、117…量子化変換係数、118…変換情報、119…復号予測誤差信号、120…予測モード情報、121…予測画像信号、122…参照画像信号、124…符号化データ、200…水平垂直DCT器、201…水平垂直DCT用量子化器、202…スイッチ、203〜208…DCT器、210〜215…量子化器、216…水平垂直DCT用逆量子化器、217…水平垂直逆DCT器、218…スイッチ、219〜224…逆量子化器、225…スイッチ、226〜231…逆DCT器、401…エントロピー復号部、402…逆変換方法選択スイッチ、403…第1逆量子化部、404…第2逆量子化部、405…第1逆変換部、406…第2逆変換部、407…参照メモリ、408…予測部、409…符号化データ、410…変換情報、411…予測モード情報、412…量子化変換係数、413…復号予測誤差信号、414…参照画像、415…予測画像、416…復号画像信号、417…復号化制御部 DESCRIPTION OF SYMBOLS 100 ... Moving image encoding apparatus, 101 ... Conversion method selection switch, 102 ... 1st conversion part, 103 ... 2nd conversion part, 104 ... 1st quantization part, 105 ... 2nd quantization part, 106 ... Entropy encoding 107: Encoding control unit, 108: Inverse transform method selection switch, 109 ... Second inverse quantization unit, 110 ... First inverse quantization unit, 111 ... Second inverse transform unit, 112 ... First inverse transform unit , 113 ... Reference memory, 114 ... Prediction unit, 115 ... Input image signal, 116 ... Prediction error signal, 117 ... Quantization transform coefficient, 118 ... Conversion information, 119 ... Decoded prediction error signal, 120 ... Prediction mode information, 121 ... Predicted image signal, 122 ... reference image signal, 124 ... encoded data, 200 ... horizontal / vertical DCT, 201 ... quantizer for horizontal / vertical DCT, 202 ... switch, 203-208 ... DCT, 210-2 DESCRIPTION OF SYMBOLS 15 ... Quantizer, 216 ... Inverse quantizer for horizontal / vertical DCT, 217 ... Horizontal / vertical inverse DCT, 218 ... Switch, 219-224 ... Inverse quantizer, 225 ... Switch, 226-231 ... Inverse DCT, 401 ... entropy decoding unit, 402 ... inverse transformation method selection switch, 403 ... first inverse quantization unit, 404 ... second inverse quantization unit, 405 ... first inverse transformation unit, 406 ... second inverse transformation unit, 407 ... Reference memory, 408 ... prediction unit, 409 ... encoded data, 410 ... transform information, 411 ... prediction mode information, 412 ... quantized transform coefficient, 413 ... decoded prediction error signal, 414 ... reference image, 415 ... predicted image, 416 ... Decoded image signal, 417 ... Decoding control unit
Claims (16)
予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成ステップと、
前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換ステップと、
前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化ステップと、
前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報とに対してエントロピー符号化処理を行い、符号化データを生成する符号化処理ステップと、
を含む動画像符号化方法。 A moving image encoding method for encoding an input image signal,
A prediction error signal generation step for generating a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and an input image signal;
An orthogonal transform step of orthogonally transforming the prediction error signal to generate transform coefficients by a first transform method that depends on a prediction direction of the prediction mode or a second transform method that does not depend on the prediction direction;
A quantization step of performing a quantization process on the transform coefficient to generate a quantized transform coefficient;
An encoding process step of performing entropy encoding processing on the quantized transform coefficient and transform information indicating the first transform method or the second transform method to generate encoded data;
A moving picture encoding method including:
前記直交変換ステップは選択された変換方法に従って直交変換すること、を特徴とする請求項1記載の動画像符号化方法。 When the prediction direction is not the vertical direction or the horizontal direction, the first conversion method or the second conversion method is selected. When the prediction direction is the vertical direction or the horizontal direction, the first conversion method is selected. A conversion method selection step to select;
The moving image encoding method according to claim 1, wherein the orthogonal transformation step performs orthogonal transformation according to a selected transformation method.
予め定められた予測モードに従って生成された予測信号と入力画像信号との差分値を示す予測誤差信号を生成する予測誤差信号生成部と、
前記予測モードの予測方向に依存する第1の変換方法又は前記予測方向に依存しない第2の変換方法によって、前記予測誤差信号を直交変換し、変換係数を生成する直交変換部と、
前記変換係数に対して量子化処理を施し、量子化変換係数を生成する量子化部と、
前記量子化変換係数と、前記第1の変換方法か前記第2の変換方法かを示す変換情報とに対してエントロピー符号化処理を行い、符号化データを生成する符号化部と、
を含む動画像符号化装置。 A moving image encoding device for encoding an input image signal,
A prediction error signal generation unit that generates a prediction error signal indicating a difference value between a prediction signal generated according to a predetermined prediction mode and an input image signal;
An orthogonal transform unit that orthogonally transforms the prediction error signal and generates transform coefficients by a first transform method that depends on a prediction direction of the prediction mode or a second transform method that does not depend on the prediction direction;
A quantization unit that performs a quantization process on the transform coefficient and generates a quantized transform coefficient;
An encoding unit that performs entropy encoding processing on the quantized conversion coefficient and conversion information indicating the first conversion method or the second conversion method, and generates encoded data;
A video encoding apparatus including:
前記変換情報に従って、前記符号化データの復号化対象ブロックの逆変換方法として、予測方向に依存した第1の逆変換方法又は予測方向に依存しない第2の逆変換方法を選択する逆変換方法選択ステップと、
前記復号ステップで得られた直交変換係数に対して、逆量子化処理を施し、直交変換係数を生成する逆量子化ステップと、
前記逆変換方法選択ステップで選択された逆変換方法に従って、前記直交変換係数を逆直交変換し、復号予測誤差信号を生成する逆直交変換ステップと、
復号された復号画像信号から前記符号化モード情報をもとに予測信号を生成し、前記復号予測誤差信号に前記予測信号を加えて復号画像を生成するステップと、
を有する動画像復号化方法。 A decoding step of decoding the input encoded data according to a predetermined method and deriving orthogonal transform coefficients necessary for the decoding process, prediction mode information, and transform information;
Inverse transform method selection for selecting a first inverse transform method that depends on the prediction direction or a second inverse transform method that does not depend on the prediction direction as an inverse transform method of the decoding target block of the encoded data according to the transform information Steps,
An inverse quantization step of performing an inverse quantization process on the orthogonal transform coefficient obtained in the decoding step to generate an orthogonal transform coefficient;
According to the inverse transformation method selected in the inverse transformation method selection step, the orthogonal transformation coefficient is inversely orthogonal transformed to generate a decoded prediction error signal; and
Generating a prediction signal from the decoded decoded image signal based on the encoding mode information, and adding the prediction signal to the decoded prediction error signal to generate a decoded image;
A video decoding method comprising:
前記変換情報に従って、前記符号化データの復号化対象ブロックの逆変換方法として、予測方向に依存した第1の逆変換方法又は予測方向に依存しない第2の逆変換方法を選択する逆変換方法選択部と、
前記復号ステップで得られた直交変換係数に対して、逆量子化処理を施し、直交変換係数を生成する逆量子化部と、
前記逆変換方法選択ステップで選択された逆変換方法に従って、前記直交変換係数を逆直交変換し、復号予測誤差信号を生成する逆直交変換部と、
復号された復号画像信号から前記符号化モード情報をもとに予測信号を生成し、前記復号予測誤差信号に前記予測信号を加えて復号画像を生成する画像復元部と、
を有する動画像復号化装置。 A decoding unit that decodes input encoded data according to a predetermined method and derives orthogonal transform coefficients necessary for decoding processing, prediction mode information, and transform information;
Inverse transform method selection for selecting a first inverse transform method that depends on the prediction direction or a second inverse transform method that does not depend on the prediction direction as an inverse transform method of the decoding target block of the encoded data according to the transform information And
An inverse quantization unit that performs an inverse quantization process on the orthogonal transform coefficient obtained in the decoding step and generates an orthogonal transform coefficient;
According to the inverse transform method selected in the inverse transform method selection step, an inverse orthogonal transform unit that performs inverse orthogonal transform on the orthogonal transform coefficient and generates a decoded prediction error signal;
An image restoration unit that generates a prediction signal from the decoded decoded image signal based on the coding mode information, and adds the prediction signal to the decoded prediction error signal to generate a decoded image;
A moving picture decoding apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008119298A JP2009272727A (en) | 2008-04-30 | 2008-04-30 | Transformation method based on directivity of prediction error, image-encoding method and image-decoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008119298A JP2009272727A (en) | 2008-04-30 | 2008-04-30 | Transformation method based on directivity of prediction error, image-encoding method and image-decoding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009272727A true JP2009272727A (en) | 2009-11-19 |
Family
ID=41438925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008119298A Withdrawn JP2009272727A (en) | 2008-04-30 | 2008-04-30 | Transformation method based on directivity of prediction error, image-encoding method and image-decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009272727A (en) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010146772A1 (en) * | 2009-06-19 | 2010-12-23 | 三菱電機株式会社 | Image encoding device, image decoding device, image encoding method, and image decoding method |
WO2011083599A1 (en) * | 2010-01-07 | 2011-07-14 | 株式会社 東芝 | Video encoding device, and video decoding device |
WO2011108240A1 (en) * | 2010-03-01 | 2011-09-09 | パナソニック株式会社 | Image coding method and image decoding method |
JP2011188130A (en) * | 2010-03-05 | 2011-09-22 | Nippon Hoso Kyokai <Nhk> | Intra prediction device, encoder, decoder and program |
WO2011155332A1 (en) * | 2010-06-09 | 2011-12-15 | ソニー株式会社 | Image decoder apparatus, image encoder apparatus and methods and programs thereof |
WO2012008039A1 (en) * | 2010-07-15 | 2012-01-19 | 株式会社 東芝 | Image encoding method and image decoding method |
WO2012090501A1 (en) * | 2010-12-28 | 2012-07-05 | パナソニック株式会社 | Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus |
JP2013017167A (en) * | 2011-07-01 | 2013-01-24 | Mitsubishi Electric Corp | Method for coding pictures |
JP2013507794A (en) * | 2009-10-21 | 2013-03-04 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | How to decode a bitstream |
JP2013070419A (en) * | 2010-01-07 | 2013-04-18 | Toshiba Corp | Video encoding device and video decoding device |
WO2013058473A1 (en) * | 2011-10-17 | 2013-04-25 | 주식회사 케이티 | Adaptive transform method based on in-screen prediction and apparatus using the method |
JPWO2011083599A1 (en) * | 2010-01-07 | 2013-05-13 | 株式会社東芝 | Moving picture coding apparatus and moving picture decoding apparatus |
JP2013522957A (en) * | 2010-03-10 | 2013-06-13 | トムソン ライセンシング | Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection |
JP2013176111A (en) * | 2013-04-10 | 2013-09-05 | Toshiba Corp | Image decoder |
JP2013176110A (en) * | 2013-04-10 | 2013-09-05 | Toshiba Corp | Image encoder |
JP2013183207A (en) * | 2012-02-29 | 2013-09-12 | Kddi Corp | Coding device, decoding device, coding method and decoding method of moving image, and program |
US8538179B2 (en) | 2011-02-10 | 2013-09-17 | Sony Corporation | Image coding device, image decoding device, methods thereof, and programs |
JP2014042332A (en) * | 2010-01-07 | 2014-03-06 | Toshiba Corp | Moving image encoding device and moving image decoding device |
JP2014078976A (en) * | 2010-01-07 | 2014-05-01 | Toshiba Corp | Moving image decoder, moving image decoding method and program |
JP2014078977A (en) * | 2010-01-07 | 2014-05-01 | Toshiba Corp | Moving image decoder, moving image decoding method and program |
JP2014143737A (en) * | 2010-01-07 | 2014-08-07 | Toshiba Corp | Moving image encoder and moving image decoder |
WO2014137159A1 (en) * | 2013-03-08 | 2014-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for applying secondary transforms on enhancement-layer residuals |
JP2014171229A (en) * | 2014-04-17 | 2014-09-18 | Toshiba Corp | Image decoding device, method and program |
JP2014197890A (en) * | 2010-01-07 | 2014-10-16 | 株式会社東芝 | Moving image encoder and moving image decoder |
JP2015029318A (en) * | 2014-09-17 | 2015-02-12 | 株式会社東芝 | Image decoding device, method, and program, first program and second program, server system, and download control method |
WO2015053115A1 (en) * | 2013-10-11 | 2015-04-16 | ソニー株式会社 | Decoding device, decoding method, encoding device, and encoding method |
JP2015109695A (en) * | 2010-01-07 | 2015-06-11 | 株式会社東芝 | Moving image encoder and moving image decoder |
JP2015146624A (en) * | 2015-04-01 | 2015-08-13 | 株式会社東芝 | Image decoding device |
JP2016526854A (en) * | 2013-07-12 | 2016-09-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Parallel processing of horizontal and vertical conversion |
JP2017076977A (en) * | 2016-10-20 | 2017-04-20 | 株式会社東芝 | Decoding device, decoding method, and decoding program |
US9832464B2 (en) | 2011-10-19 | 2017-11-28 | Kt Corporation | Method and apparatus for encoding/decoding image using transform skip flag |
WO2019191888A1 (en) * | 2018-04-02 | 2019-10-10 | 北京大学 | Loop filtering method and apparatus, and computer system |
US10587882B2 (en) | 2011-03-09 | 2020-03-10 | Panasonic Intellectual Property Corporation Of America | Device and method of video decoding with first and second decoding code |
US10757422B2 (en) | 2011-03-09 | 2020-08-25 | Panasonic Intellectual Property Corporation Of America | Device and method of video encoding with first and second encoding code |
-
2008
- 2008-04-30 JP JP2008119298A patent/JP2009272727A/en not_active Withdrawn
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2010146772A1 (en) * | 2009-06-19 | 2012-11-29 | 三菱電機株式会社 | Image encoding device, image decoding device, image encoding method, and image decoding method |
WO2010146772A1 (en) * | 2009-06-19 | 2010-12-23 | 三菱電機株式会社 | Image encoding device, image decoding device, image encoding method, and image decoding method |
JP2013507794A (en) * | 2009-10-21 | 2013-03-04 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | How to decode a bitstream |
CN105451018A (en) * | 2010-01-07 | 2016-03-30 | 株式会社东芝 | Moving image decoding device and moving image decoding method |
US9294768B2 (en) | 2010-01-07 | 2016-03-22 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
US9113139B2 (en) | 2010-01-07 | 2015-08-18 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
US9392282B2 (en) | 2010-01-07 | 2016-07-12 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
CN102763416A (en) * | 2010-01-07 | 2012-10-31 | 株式会社东芝 | Video encoding device, and video decoding device |
JP2015109695A (en) * | 2010-01-07 | 2015-06-11 | 株式会社東芝 | Moving image encoder and moving image decoder |
CN105681794B (en) * | 2010-01-07 | 2018-09-04 | 株式会社东芝 | Moving image decoding apparatus and dynamic image decoding method |
US9143777B2 (en) | 2010-01-07 | 2015-09-22 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
CN103024391A (en) * | 2010-01-07 | 2013-04-03 | 株式会社东芝 | Video encoding device, and video decoding device |
JP2013070419A (en) * | 2010-01-07 | 2013-04-18 | Toshiba Corp | Video encoding device and video decoding device |
US9148659B2 (en) | 2010-01-07 | 2015-09-29 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
JPWO2011083599A1 (en) * | 2010-01-07 | 2013-05-13 | 株式会社東芝 | Moving picture coding apparatus and moving picture decoding apparatus |
JP2014197890A (en) * | 2010-01-07 | 2014-10-16 | 株式会社東芝 | Moving image encoder and moving image decoder |
US9154779B2 (en) | 2010-01-07 | 2015-10-06 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
WO2011083599A1 (en) * | 2010-01-07 | 2011-07-14 | 株式会社 東芝 | Video encoding device, and video decoding device |
JP2014143737A (en) * | 2010-01-07 | 2014-08-07 | Toshiba Corp | Moving image encoder and moving image decoder |
CN103024391B (en) * | 2010-01-07 | 2016-06-29 | 株式会社东芝 | Moving image decoding apparatus and dynamic image decoding method |
US9113138B2 (en) | 2010-01-07 | 2015-08-18 | Kabushiki Kaisha Toshiba | Moving-picture encoding apparatus and moving-picture decoding apparatus |
CN105681794A (en) * | 2010-01-07 | 2016-06-15 | 株式会社东芝 | Moving image encoding device and moving image decoding method |
JP5323209B2 (en) * | 2010-01-07 | 2013-10-23 | 株式会社東芝 | Moving picture coding apparatus and moving picture decoding apparatus |
JP2014042332A (en) * | 2010-01-07 | 2014-03-06 | Toshiba Corp | Moving image encoding device and moving image decoding device |
JP2014078976A (en) * | 2010-01-07 | 2014-05-01 | Toshiba Corp | Moving image decoder, moving image decoding method and program |
JP2014078977A (en) * | 2010-01-07 | 2014-05-01 | Toshiba Corp | Moving image decoder, moving image decoding method and program |
WO2011108240A1 (en) * | 2010-03-01 | 2011-09-09 | パナソニック株式会社 | Image coding method and image decoding method |
JP2011188130A (en) * | 2010-03-05 | 2011-09-22 | Nippon Hoso Kyokai <Nhk> | Intra prediction device, encoder, decoder and program |
JP2013522957A (en) * | 2010-03-10 | 2013-06-13 | トムソン ライセンシング | Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection |
US9277245B2 (en) | 2010-03-10 | 2016-03-01 | Thomson Licensing | Methods and apparatus for constrained transforms for video coding and decoding having transform selection |
US9596476B2 (en) | 2010-06-09 | 2017-03-14 | Sony Corporation | Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding |
WO2011155332A1 (en) * | 2010-06-09 | 2011-12-15 | ソニー株式会社 | Image decoder apparatus, image encoder apparatus and methods and programs thereof |
US9979982B2 (en) | 2010-06-09 | 2018-05-22 | Sony Corporation | Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding |
US9053549B2 (en) | 2010-06-09 | 2015-06-09 | Sony Corporation | Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding |
US10499083B2 (en) | 2010-06-09 | 2019-12-03 | Sony Corporation | Image decoding apparatus, image encoding apparatus, and method and program for image decoding and encoding |
US9706226B2 (en) | 2010-07-15 | 2017-07-11 | Kabushiki Kaisha Toshiba | Image encoding apparatus and image decoding apparatus employing intra preciction and direction transform matrix |
WO2012008039A1 (en) * | 2010-07-15 | 2012-01-19 | 株式会社 東芝 | Image encoding method and image decoding method |
JP5259879B2 (en) * | 2010-07-15 | 2013-08-07 | 株式会社東芝 | Image encoding method and image decoding method |
US9426467B2 (en) | 2010-07-15 | 2016-08-23 | Kabushiki Kaisha Toshiba | Image decoding method using a vertical inverse transform matrix and a horizontal inverse transform matrix |
JP2015233325A (en) * | 2010-12-28 | 2015-12-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Reproducing method and device |
JP2014132793A (en) * | 2010-12-28 | 2014-07-17 | Panasonic Corp | Image coding method and image encoder |
CN103238332A (en) * | 2010-12-28 | 2013-08-07 | 松下电器产业株式会社 | Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus |
JPWO2012090501A1 (en) * | 2010-12-28 | 2014-06-05 | パナソニック株式会社 | Image decoding method |
JP5530533B2 (en) * | 2010-12-28 | 2014-06-25 | パナソニック株式会社 | Image decoding method |
WO2012090501A1 (en) * | 2010-12-28 | 2012-07-05 | パナソニック株式会社 | Motion-video decoding method, motion-video encoding method, motion-video decoding apparatus, motion-video encoding apparatus, and motion-video encoding/decoding apparatus |
US9852521B2 (en) | 2011-02-10 | 2017-12-26 | Sony Corporation | Image coding device, image decoding device, methods thereof, and programs |
US8538179B2 (en) | 2011-02-10 | 2013-09-17 | Sony Corporation | Image coding device, image decoding device, methods thereof, and programs |
US9153041B2 (en) | 2011-02-10 | 2015-10-06 | Sony Corporation | Image coding device, image decoding device, methods thereof, and programs |
US11303910B2 (en) | 2011-03-09 | 2022-04-12 | Panasonic Intellectual Property Corporation Of America | Device and method of video encoding with first and second encoding code |
US10587882B2 (en) | 2011-03-09 | 2020-03-10 | Panasonic Intellectual Property Corporation Of America | Device and method of video decoding with first and second decoding code |
US10757422B2 (en) | 2011-03-09 | 2020-08-25 | Panasonic Intellectual Property Corporation Of America | Device and method of video encoding with first and second encoding code |
US11234005B2 (en) | 2011-03-09 | 2022-01-25 | Panasonic Intellectual Property Corporation Of America | Device and method of video decoding with first and second decoding code |
US11706424B2 (en) | 2011-03-09 | 2023-07-18 | Panasonic Intellectual Property Corporation Of America | Device and method of video decoding with first and second decoding code |
US11849124B2 (en) | 2011-03-09 | 2023-12-19 | Panasonic Intellectual Property Corporation Of America | Device and method of video encoding with first and second encoding code |
JP2013017167A (en) * | 2011-07-01 | 2013-01-24 | Mitsubishi Electric Corp | Method for coding pictures |
GB2559063B (en) * | 2011-10-17 | 2018-11-14 | Kt Corp | Video decoding method using transform method selected from a transform method set |
US9979967B2 (en) | 2011-10-17 | 2018-05-22 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
GB2510289A (en) * | 2011-10-17 | 2014-07-30 | Kt Corp | Adaptive transform method on in-screen prediction and apparatus using the method |
US9294775B2 (en) | 2011-10-17 | 2016-03-22 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
US9294774B2 (en) | 2011-10-17 | 2016-03-22 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
US10419759B2 (en) | 2011-10-17 | 2019-09-17 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
US9736480B2 (en) | 2011-10-17 | 2017-08-15 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
GB2555287B (en) * | 2011-10-17 | 2018-11-07 | Kt Corp | Video decoding method using transform method selected from a transform method set |
GB2510289B (en) * | 2011-10-17 | 2018-11-07 | Kt Corp | Video decoding method using transform method selected from a transform method set |
US10057575B2 (en) | 2011-10-17 | 2018-08-21 | Kt Corporation | Adaptive transform method based on in-screen prediction and apparatus using the method |
GB2559063A (en) * | 2011-10-17 | 2018-07-25 | Kt Corp | Adaptive transform method based on in-screen prediction and apparatus using the method |
GB2555287A (en) * | 2011-10-17 | 2018-04-25 | Kt Corp | Adaptive transform method based on in-screen prediction and apparatus using the method |
WO2013058473A1 (en) * | 2011-10-17 | 2013-04-25 | 주식회사 케이티 | Adaptive transform method based on in-screen prediction and apparatus using the method |
US9866832B2 (en) | 2011-10-19 | 2018-01-09 | Kt Corporation | Method and apparatus for encoding/decoding image using transform skip flag |
US9832464B2 (en) | 2011-10-19 | 2017-11-28 | Kt Corporation | Method and apparatus for encoding/decoding image using transform skip flag |
US9930333B2 (en) | 2011-10-19 | 2018-03-27 | Kt Corporation | Method and apparatus for encoding/decoding image using transform skip flag |
US10313667B2 (en) | 2011-10-19 | 2019-06-04 | Kt Corporation | Method and apparatus for encoding/decoding image using transform skip flag |
GB2562173B (en) * | 2011-10-19 | 2019-02-06 | Kt Corp | Video decoding comprising selecting transfrom method from set |
GB2562173A (en) * | 2011-10-19 | 2018-11-07 | Kt Corp | Method and apparatus for encoding/decoding image |
GB2509671B (en) * | 2011-10-19 | 2019-01-02 | Kt Corp | Encoding and decoding video using skip transform mode |
JP2013183207A (en) * | 2012-02-29 | 2013-09-12 | Kddi Corp | Coding device, decoding device, coding method and decoding method of moving image, and program |
WO2014137159A1 (en) * | 2013-03-08 | 2014-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for applying secondary transforms on enhancement-layer residuals |
JP2013176110A (en) * | 2013-04-10 | 2013-09-05 | Toshiba Corp | Image encoder |
JP2013176111A (en) * | 2013-04-10 | 2013-09-05 | Toshiba Corp | Image decoder |
JP2016526854A (en) * | 2013-07-12 | 2016-09-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Parallel processing of horizontal and vertical conversion |
JP2018078572A (en) * | 2013-07-12 | 2018-05-17 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Concurrent processing of horizontal and vertical transforms |
CN105594208A (en) * | 2013-10-11 | 2016-05-18 | 索尼公司 | Decoding device, decoding method, encoding device, and encoding method |
JPWO2015053115A1 (en) * | 2013-10-11 | 2017-03-09 | ソニー株式会社 | Decoding device, decoding method, and encoding device and encoding method |
WO2015053115A1 (en) * | 2013-10-11 | 2015-04-16 | ソニー株式会社 | Decoding device, decoding method, encoding device, and encoding method |
JP2014171229A (en) * | 2014-04-17 | 2014-09-18 | Toshiba Corp | Image decoding device, method and program |
JP2015029318A (en) * | 2014-09-17 | 2015-02-12 | 株式会社東芝 | Image decoding device, method, and program, first program and second program, server system, and download control method |
JP2015146624A (en) * | 2015-04-01 | 2015-08-13 | 株式会社東芝 | Image decoding device |
JP2017076977A (en) * | 2016-10-20 | 2017-04-20 | 株式会社東芝 | Decoding device, decoding method, and decoding program |
WO2019191888A1 (en) * | 2018-04-02 | 2019-10-10 | 北京大学 | Loop filtering method and apparatus, and computer system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009272727A (en) | Transformation method based on directivity of prediction error, image-encoding method and image-decoding method | |
KR101479141B1 (en) | Coding Method and Apparatus by Using Tree Structure | |
KR101608426B1 (en) | Method for predictive intra coding/decoding for video and apparatus for same | |
KR101292091B1 (en) | Method for encoding/decoding with adaptive intra prediction | |
KR100362863B1 (en) | Image encoder and image decoder | |
CN101467461B (en) | Multilayer-based video encoding method and apparatus thereof | |
US20090310677A1 (en) | Image encoding and decoding method and apparatus | |
WO2011083573A1 (en) | Video encoder and video decoder | |
WO2012161444A2 (en) | Method and apparatus for intra prediction within display screen | |
JP6789256B2 (en) | Image coding device, moving image coding method, moving image decoding device and moving image decoding method | |
KR20110135787A (en) | Image/video coding and decoding system and method using edge-adaptive transform | |
CN107810635A (en) | Method and apparatus based on illuminance compensation prediction block in image compiling system | |
JP2010135864A (en) | Image encoding method, device, image decoding method, and device | |
KR20110081304A (en) | Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program | |
JP6300884B2 (en) | Image decoding apparatus, image decoding method, image encoding apparatus, image encoding method, and recording medium | |
WO2011013253A1 (en) | Prediction-signal producing device using geometric transformation motion-compensation prediction, time-varying image encoding device, and time-varying image decoding device | |
JP2011035902A (en) | Method for decoding stream of coded data representative of sequence of images, and method for coding sequence of images | |
KR20110114524A (en) | Device, method and program for image prediction encoding, device, method and program for image prediction decoding, and encoding/decoding system and method | |
CN104718758A (en) | Transform-domain intra prediction | |
KR20120009693A (en) | Competition-Based Intra Prediction Coding/Decoding Apparatus and Method Using Multiple Prediction Filters | |
WO2011080807A1 (en) | Moving picture coding device and moving picture decoding device | |
RU2427976C2 (en) | Method and device for coding and decoding of image | |
JP2008166916A (en) | Intra prediction encoder and intra prediction coding method | |
JP4523522B2 (en) | Hierarchical image encoding apparatus, transcoder, hierarchical image encoding method, and transcoding method | |
JP5455229B2 (en) | Image encoding apparatus and image decoding apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110705 |