JP2009284275A - Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer - Google Patents

Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer Download PDF

Info

Publication number
JP2009284275A
JP2009284275A JP2008134889A JP2008134889A JP2009284275A JP 2009284275 A JP2009284275 A JP 2009284275A JP 2008134889 A JP2008134889 A JP 2008134889A JP 2008134889 A JP2008134889 A JP 2008134889A JP 2009284275 A JP2009284275 A JP 2009284275A
Authority
JP
Japan
Prior art keywords
prediction
image
pixel
angle
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008134889A
Other languages
Japanese (ja)
Inventor
Masaaki Matsumura
誠明 松村
Masayuki Takamura
誠之 高村
Kazuto Kamikura
一人 上倉
Yoshiyuki Yajima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008134889A priority Critical patent/JP2009284275A/en
Publication of JP2009284275A publication Critical patent/JP2009284275A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new technology for achieving in-screen prediction encoding with higher compression efficiency when an image is encoded by using in-screen prediction. <P>SOLUTION: A prediction straight line used for generating a prediction signal of a prediction pixel is generated based on coordinates of the prediction pixel and a prediction angle set at any angle. Intersection coordinates between the generated prediction straight line and a line segment generated by a reference pixel are calculated. A distance between the calculated intersection coordinate and a center coordinate of the reference pixel positioned at the intersection coordinate is calculated. A ratio value of the calculated distance and a distance between the reference pixels is calculated. The prediction signal of the prediction pixel is generated based on the calculated ratio value and values of the plurality of reference pixels including the reference pixel positioned at the intersection coordinate. In this configuration, the prediction angle can be set at any angle, and thus, the number of prediction modes can be increased. Accordingly, the in-screen prediction encoding with higher compression efficiency can be achieved. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画面内予測を用いて画像を符号化する画像符号化方法およびその装置と、その画像符号化技術により符号化された符号化データを復号する画像復号方法およびその装置と、その画像符号化方法の実現に用いられる画像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体と、その画像復号方法の実現に用いられる画像復号プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。   The present invention relates to an image encoding method and apparatus for encoding an image using intra prediction, an image decoding method and apparatus for decoding encoded data encoded by the image encoding technique, and the image Image encoding program used for realizing encoding method, computer-readable recording medium recording the program, image decoding program used for realizing image decoding method, and computer-readable recording medium recording the program And about.

同一の画面内で画像信号の予測を実行する画面内予測符号化は、異なる画面間で画像信号の予測を実行する画面間予測符号化と比較して大きな圧縮効率を達成できない。そのため、より圧縮効率の高い画面内予測符号化方式が望まれている。   Intra-screen predictive coding that performs image signal prediction within the same screen cannot achieve greater compression efficiency than inter-screen predictive coding that performs image signal prediction between different screens. Therefore, an intra prediction encoding method with higher compression efficiency is desired.

画面内予測は映像符号化国際標準H.264/MPEG−4 AVC(例えば、非特許文献1参照)から取り入れられている手法であり、隣接画素間の相関を利用してエッジ部分に発生しやすい高周波成分を除去することが出来る。   In-screen prediction is based on the video coding international standard H.264. H.264 / MPEG-4 AVC (see, for example, Non-Patent Document 1), which can remove high-frequency components that are likely to occur at the edge using the correlation between adjacent pixels.

画面内予測はいくつかの画素をまとめたブロック単位で行われ、H.264/MPEG−4 AVC FRExt(例えば、非特許文献2参照)では、輝度信号に対して、16×16のマクロブロック内を4×4、8×8、16×16の3種類のブロックサイズに分割して予測を行う。   In-screen prediction is performed in units of blocks in which several pixels are combined. In H.264 / MPEG-4 AVC FRExt (see, for example, Non-Patent Document 2), 16 × 16 macroblocks are divided into three types of block sizes of 4 × 4, 8 × 8, and 16 × 16 for luminance signals. Divide and make predictions.

これら輝度信号に対して、4×4、8×8のブロックに対しては9種類の予測モードが適用可能で、16×16のブロックに対しては4種類の予測モードが適用可能であり、ラグランジュコストの計算により最も符号化効率の高い予測モードとブロックサイズとが決定される。   For these luminance signals, 9 types of prediction modes can be applied to 4 × 4 and 8 × 8 blocks, and 4 types of prediction modes can be applied to 16 × 16 blocks. The prediction mode and block size with the highest coding efficiency are determined by calculating the Lagrangian cost.

4×4、8×8のブロックでは、1種類のDC成分を参照することで予測信号を生成することに加えて、45°〜206.57°の予測角度範囲を8種類に不等角度で分割したときに生じる直線と交叉する復号済みの各画素値・画素間中心値を参照することで予測信号の生成を実現している。   In the 4 × 4 and 8 × 8 blocks, in addition to generating a prediction signal by referring to one type of DC component, the prediction angle range of 45 ° to 206.57 ° is divided into eight types at unequal angles. Generation of a prediction signal is realized by referring to each decoded pixel value / inter-pixel center value that intersects with a straight line generated when dividing.

図15に、輝度信号の符号化に使用される4×4ブロックに適用可能な9種類の予測モード0〜8とその予測角度を示す。   FIG. 15 shows nine types of prediction modes 0 to 8 applicable to a 4 × 4 block used for encoding a luminance signal and their prediction angles.

ここで、予測モード0〜2では、図16(a)に定義する符号化対象ブロックの上に位置するブロックの持つ画素A,B,C,Dの値と、図16(a)に定義する符号化対象ブロックの左に位置するブロックの持つ画素I,J,K,Lの値を使って、符号化対象ブロックの持つ画素a〜pの値を予測する。   Here, in the prediction modes 0 to 2, the values of the pixels A, B, C, and D of the block located on the encoding target block defined in FIG. 16A and the definition in FIG. Using the values of the pixels I, J, K, and L of the block located to the left of the encoding target block, the values of the pixels a to p of the encoding target block are predicted.

また、予測モード3〜8では、これらの画素A,B,C,D,I,J,K,Lの値と、図16(a)に定義する符号化対象ブロックの左上に位置するブロックの持つ画素Xの値と、図16(a)に定義する符号化対象ブロックの右上に位置するブロックの持つ画素E,F,G,Hの値とに基づいて、図16(b)に示すように、それらの画素X,A〜Lの値に対応付けられる値X’,A’〜L’を算出するとともに、図16(a)に定義する符号化対象ブロックの左下に位置するブロックの持つ画素Mの値に対応付けられる値M’を算出し、さらに、画素間中心に対応付けられる値A''〜F'',I''〜L''を算出して、それらの値X’,A’〜M’,A''〜F'',I''〜L''を使って符号化対象ブロックの持つ画素a〜pの値を予測する。   In the prediction modes 3 to 8, the values of these pixels A, B, C, D, I, J, K, and L and the block located at the upper left of the encoding target block defined in FIG. As shown in FIG. 16 (b), based on the value of the pixel X possessed and the values of the pixels E, F, G, and H of the block located at the upper right of the encoding target block defined in FIG. 16 (a). In addition, values X ′ and A ′ to L ′ associated with the values of the pixels X and A to L are calculated, and the block located at the lower left of the encoding target block defined in FIG. A value M ′ associated with the value of the pixel M is calculated, and further, values A ″ to F ″ and I ″ to L ″ associated with the center between the pixels are calculated, and those values X ′ are calculated. , A ′ to M ′, A ″ to F ″, and I ″ to L ″ are used to predict the values of the pixels a to p included in the encoding target block.

すなわち、図15に示すように、予測モード0では、画素A,B,C,Dの値を予測角度90°の方向(垂直方向)にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード1では、画素I,J,K,Lの値を予測角度180°の方向(水平方向)にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード2では、(A+B+C+D+I+J+K+L+4)/8の値に従って符号化対象ブロックの持つ画素a〜pの値を予測する。   That is, as shown in FIG. 15, in the prediction mode 0, the pixels a to p of the encoding target block are copied by copying the values of the pixels A, B, C, and D in the direction (vertical direction) of the prediction angle 90 °. In the prediction mode 1, the values of the pixels a to p of the block to be encoded are copied by copying the values of the pixels I, J, K, and L in the direction of the prediction angle 180 ° (horizontal direction). In prediction mode 2, the values of pixels a to p of the encoding target block are predicted according to the value of (A + B + C + D + I + J + K + L + 4) / 8.

そして、予測モード3では、画素値に対応付ける形で算出した該当の値を予測角度45°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード4では、画素値に対応付ける形で算出した該当の値を予測角度135°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測する。   In prediction mode 3, the values of the pixels a to p of the block to be encoded are predicted by copying the corresponding values calculated in association with the pixel values in the direction of the prediction angle 45 °. The values of the pixels a to p of the encoding target block are predicted by copying the corresponding values calculated in association with the pixel values in the direction of the prediction angle 135 °.

そして、予測モード5では、画素値に対応付ける形で算出した該当の値と画素間中心に対応付ける形で算出した該当の値とを予測角度116.57°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード6では、画素値に対応付ける形で算出した該当の値と画素間中心に対応付ける形で算出した該当の値とを予測角度153.43°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード7では、画素値に対応付ける形で算出した該当の値と画素間中心に対応付ける形で算出した該当の値とを予測角度63.43°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測し、予測モード8では、画素値に対応付ける形で算出した該当の値と画素間中心に対応付ける形で算出した該当の値とを予測角度206.57°の方向にコピーすることで符号化対象ブロックの持つ画素a〜pの値を予測する。   In prediction mode 5, the corresponding value calculated in the form of being associated with the pixel value and the corresponding value calculated in the form of being associated with the center between the pixels are copied in the direction of the prediction angle 116.57 ° to thereby encode the block to be encoded. In the prediction mode 6, the corresponding value calculated in association with the pixel value and the corresponding value calculated in association with the center between the pixels are predicted at a prediction angle of 153.43 °. The values of the pixels a to p of the encoding target block are predicted by copying in the direction. In the prediction mode 7, the corresponding value calculated in the form corresponding to the pixel value and the corresponding value calculated in the form corresponding to the center between the pixels. Values are copied in the direction of the prediction angle 63.43 ° to predict the values of the pixels a to p of the encoding target block. In the prediction mode 8, the corresponding values and pixels calculated in association with the pixel values Center The value of the pixel a~p with the encoding target block by copying the corresponding value calculated by the form to be associated with the direction of the prediction angle 206.57 ° predicting.

このようにして、従来技術では、画面内予測符号化を実行する場合に、4×4、8×8のブロックでは、1種類のDC成分を参照することで予測信号を生成することに加えて、45°〜206.57°の予測角度範囲を8種類に不等角度で分割したときに生じる直線と交叉する復号済みの各画素値・画素間中心値を参照することで予測信号の生成を実現している。
ITU-T Rec. H.264|ISO/IEC 14496-10 version1 (2003) ITU-T Rec. H.264|ISO/IEC 14496-10 version4 (2005)
In this way, in the prior art, when intra prediction encoding is performed, in addition to generating a prediction signal by referring to one type of DC component in 4 × 4 and 8 × 8 blocks, , A prediction signal is generated by referring to each decoded pixel value / inter-pixel center value that intersects with a straight line generated when the prediction angle range of 45 ° to 206.57 ° is divided into eight types at unequal angles. Realized.
ITU-T Rec. H.264 | ISO / IEC 14496-10 version 1 (2003) ITU-T Rec. H.264 | ISO / IEC 14496-10 version 4 (2005)

このように、従来の画面内予測手法では、4×4、8×8ブロックにおいて、予測方向が8種類しか存在しない。すなわち、従来の画面内予測手法では、画素値および画素間中心値をコピーすることに合わせて、予測角度=90°,180°,45°,135°,116.57°,153.43°,63.43°,206.57°という8種類の予測方向しか存在しない。   Thus, in the conventional intra prediction method, there are only 8 types of prediction directions in 4 × 4 and 8 × 8 blocks. In other words, in the conventional intra-screen prediction method, the prediction angle = 90 °, 180 °, 45 °, 135 °, 116.57 °, 153.43 °, in accordance with copying of the pixel value and the inter-pixel center value. There are only 8 types of prediction directions of 63.43 ° and 206.57 °.

これから、例えば、図17に示すように、符号化対象ブロックが予測モード4(予測角度=135°)と予測モード5(予測角度=116.57°)との中間の角度125.78°に強い相関があるような場合には、従来手法の画面内予測手法に従っていると予測残差信号は大きくなってしまうという問題がある。   From this, for example, as shown in FIG. 17, the encoding target block is strong at an angle of 125.78 ° between the prediction mode 4 (prediction angle = 135 °) and the prediction mode 5 (prediction angle = 116.57 °). When there is a correlation, there is a problem that the prediction residual signal becomes large if the intra-screen prediction method of the conventional method is followed.

すなわち、符号化対象ブロックが図17に示すような画素値を持つ場合に、予測モード4を用いる場合には、図18(a)に示すような予測残差信号となり、予測モード5を用いる場合には、図18(b)に示すような予測残差信号となって、予測残差信号が大きくなってしまうのである。   That is, when the encoding target block has a pixel value as shown in FIG. 17 and prediction mode 4 is used, a prediction residual signal as shown in FIG. In this case, the prediction residual signal as shown in FIG. 18B is obtained, and the prediction residual signal becomes large.

このように、従来の画面内予測手法に従っていると、予測残差信号が大きくなってしまうことがあり、そのため予測残差信号表現のためにDCT係数が増加し、符号量が増加することがあるという問題がある。   As described above, if the conventional intra-screen prediction method is followed, the prediction residual signal may become large, and therefore, the DCT coefficient may increase for expressing the prediction residual signal, and the code amount may increase. There is a problem.

本発明はかかる事情に鑑みてなされたものであって、画面内予測を用いて画像を符号化するときに、より圧縮効率の高い画面内予測符号化を実現する新たな画像符号化技術の提供を目的とする。   The present invention has been made in view of such circumstances, and provides a new image encoding technique that realizes intra-screen predictive encoding with higher compression efficiency when an image is encoded using intra-screen prediction. With the goal.

〔1〕本発明の画像符号化装置の構成
前記の目的を達成するために、本発明の画像符号化装置は、画面内予測を用いて画像を符号化するという構成を採るときにあって、(イ)予測画素の座標と任意の角度に設定される予測角度とに基づいて、予測画素の予測信号の生成に用いる予測直線を生成する予測直線生成手段と、(ロ)予測直線生成手段の生成した予測直線と参照画素により生成される線分との交点座標を算出する交点座標算出手段と、(ハ)交点座標算出手段の算出した交点座標とその交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する比率値算出手段と、(ニ)比率値算出手段の算出した比率値と交点座標算出手段の算出した交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、予測画素の予測信号を生成する予測信号生成手段と、(ホ)予測信号生成手段の生成した予測画素の予測信号に基づいて符号化コストを算出して、その符号化コストが最小となる予測角度を特定することで、任意の角度に設定される複数の予測角度の中から画面内予測に用いる予測角度を選択する予測角度選択手段とを備える。
[1] Configuration of the Image Encoding Device of the Present Invention To achieve the above object, the image encoding device of the present invention employs a configuration in which an image is encoded using intra prediction. (B) a prediction line generation unit that generates a prediction line used for generating a prediction signal of a prediction pixel based on the coordinates of the prediction pixel and a prediction angle set to an arbitrary angle; and (b) a prediction line generation unit Intersection coordinate calculation means for calculating the intersection coordinates between the generated predicted straight line and the line segment generated by the reference pixel; (c) the intersection coordinates calculated by the intersection coordinate calculation means and the center coordinates of the reference pixel located at the intersection coordinates; A ratio value calculating unit that calculates a ratio value between the calculated distance and the reference pixel distance; and (d) a ratio value calculated by the ratio value calculating unit and an intersection coordinate calculating unit Reference pixel located at the calculated intersection coordinates Prediction signal generation means for generating a prediction signal of a prediction pixel based on the values of some or all of the reference pixels including: (e) encoding based on the prediction signal of the prediction pixel generated by the prediction signal generation means A prediction angle selection unit that calculates a cost and specifies a prediction angle that minimizes the encoding cost, thereby selecting a prediction angle used for in-screen prediction from a plurality of prediction angles set to an arbitrary angle. With.

この構成を採るときに、予測角度の符号量を削減するために、予測角度に対応付けて予測モード番号を定義して、予測角度選択手段の選択した予測角度に対応付けられる予測モード番号を符号化する予測モード番号符号化手段を備えることがある。   When adopting this configuration, in order to reduce the code amount of the prediction angle, the prediction mode number is defined in association with the prediction angle, and the prediction mode number associated with the prediction angle selected by the prediction angle selection unit is encoded. Prediction mode number encoding means may be provided.

以上の各処理手段が動作することで実現される本発明の画像符号化方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The image encoding method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, and this computer program is provided by being recorded on an appropriate computer-readable recording medium. The present invention is realized by being provided via a network, installed when the present invention is implemented, and operating on a control means such as a CPU.

〔2〕本発明の画像復号装置の構成
本発明の画像符号化装置を受けて、本発明の画像復号装置は、画面内予測を用いて符号化された画像の符号化データを復号するという構成を採るときにあって、(イ)任意の角度に設定される複数の予測角度の中から選択された画像符号化側が画面内予測に用いた予測角度についての符号化データを復号する予測角度復号手段と、(ロ)予測画素の座標と予測角度復号手段の復号した予測角度とに基づいて、画像符号化側が予測画素の予測信号の生成に用いた予測直線を生成する予測直線生成手段と、(ハ)予測直線生成手段の生成した予測直線と参照画素により生成される線分との交点座標を算出する交点座標算出手段と、(ニ)交点座標算出手段の算出した交点座標とその交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する比率値算出手段と、(ホ)比率値算出手段の算出した比率値と交点座標算出手段の算出した交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、画像符号化側が生成した予測画素の予測信号を復元する予測信号復元手段と、(ヘ)画像符号化側が符号化した予測残差信号の符号化データを復号して、その復号した予測残差信号と予測信号復元手段の復元した予測信号とに基づいて復号画像信号を生成する復号画像信号生成手段とを備える。
[2] Configuration of Image Decoding Device of Present Invention Upon receiving the image encoding device of the present invention, the image decoding device of the present invention decodes encoded data of an image encoded using intra prediction. (A) Predictive angle decoding in which the image encoding side selected from a plurality of prediction angles set to an arbitrary angle decodes the encoded data for the prediction angle used for the intra-screen prediction. (B) a prediction line generation unit that generates a prediction line used by the image encoding side to generate a prediction signal of the prediction pixel based on the coordinates of the prediction pixel and the prediction angle decoded by the prediction angle decoding unit; (C) intersection coordinate calculation means for calculating the intersection coordinates between the prediction line generated by the prediction line generation means and the line segment generated by the reference pixel; (d) the intersection coordinates calculated by the intersection coordinate calculation means and the intersection coordinates. Reference pixel located at A ratio value calculating means for calculating a distance between the center coordinates of the two and calculating a ratio value between the calculated distance and a reference inter-pixel distance; and (e) the ratio value calculated by the ratio value calculating means and the intersection coordinates. Prediction signal restoration means for restoring the prediction signal of the prediction pixel generated by the image encoding side based on the values of some or all reference pixels including the reference pixel located at the intersection coordinates calculated by the calculation means; ) Decoded image that decodes the encoded data of the prediction residual signal encoded by the image encoding side and generates a decoded image signal based on the decoded prediction residual signal and the prediction signal restored by the prediction signal restoration means Signal generating means.

以上の各処理手段が動作することで実現される本発明の画像復号方法はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。   The image decoding method of the present invention realized by the operation of each of the above processing means can also be realized by a computer program, which is provided by being recorded on a suitable computer-readable recording medium, The present invention is realized by being provided via a network, installed when executing the present invention, and operating on a control means such as a CPU.

〔3〕本発明の処理
このように構成される本発明では、画像符号化装置は、画面内予測を用いて画像を符号化する場合、まず最初に、予測画素の座標と任意の角度に設定される予測角度とに基づいて、予測画素の予測信号の生成に用いる予測直線を生成する。
[3] Processing of the Present Invention In the present invention configured as described above, when encoding an image using intra prediction, the image encoding device first sets the coordinates of the predicted pixel and an arbitrary angle. Based on the predicted angle, a prediction straight line used to generate a prediction signal of the prediction pixel is generated.

例えば、図1に示すように、4×4ブロックを符号化対象として画面内予測を用いて符号化する場合にあって、図中に示す任意の角度に設定される予測角度θに基づいて、図中に示すPredPixel で示される予測画素の予測信号を生成する場合には、この予測画素PredPixel の中心座標と予測角度θとに基づいて、図中に示す予測直線PredLineを生成するのである。   For example, as shown in FIG. 1, when encoding using 4 × 4 blocks as an encoding target using intra prediction, based on a prediction angle θ set to an arbitrary angle shown in the figure, When the prediction signal of the prediction pixel indicated by PredPixel shown in the figure is generated, the prediction straight line PredLine shown in the figure is generated based on the center coordinates of the prediction pixel PredPixel and the prediction angle θ.

続いて、その生成した予測直線と参照画素により生成される線分との交点座標を算出する。   Subsequently, intersection coordinates between the generated predicted straight line and a line segment generated by the reference pixel are calculated.

例えば、図1に示すように、参照画素X,A〜Hにより生成される水平方向の参照直線RefLine と、参照画素X,I〜Pにより生成される垂直方向の参照直線RefLine の内、予測直線PredLineが垂直方向の参照直線RefLine と参照画素J上で交叉する場合には、その交点座標を算出するのである。   For example, as shown in FIG. 1, a predicted straight line out of a horizontal reference line RefLine generated by reference pixels X and A to H and a vertical reference line RefLine generated by reference pixels X and I to P is predicted. When PredLine crosses the vertical reference line RefLine on the reference pixel J, the intersection coordinates are calculated.

続いて、その算出した交点座標とその交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する。   Subsequently, a distance between the calculated intersection coordinates and the center coordinates of the reference pixels located at the intersection coordinates is calculated, and a ratio value between the calculated distance and the reference pixel distance is calculated.

例えば、図1に示すように、交点座標と交点座標に位置する参照画素Jの中心座標との間の距離と参照画素間距離との比率値である“ 1.0−h”を算出するのである。ここで、図1では、参照画素間距離が1であることを想定するとともに、交点座標と参照画素Xに近い方で隣接する参照画素Iの中心座標との間の距離と参照画素間距離との比率値が“h”であることを想定している。   For example, as shown in FIG. 1, “1.0−h”, which is a ratio value between the distance between the intersection coordinates and the center coordinates of the reference pixel J located at the intersection coordinates and the distance between the reference pixels, is calculated. Here, in FIG. 1, it is assumed that the distance between the reference pixels is 1, and the distance between the intersection coordinates and the center coordinates of the reference pixel I adjacent to the reference pixel X and the reference pixel distance are It is assumed that the ratio value of “h” is “h”.

続いて、その算出した比率値と交点座標に位置する参照画素を含む一部又は全ての複数の参照画素の値とに基づいて、予測画素の予測信号となる交点座標に対応付けられる参照画素間値(これをコピーすることで予測信号を生成する)を算出することで、予測画素の予測信号を生成する。   Subsequently, based on the calculated ratio value and the values of some or all of the plurality of reference pixels including the reference pixel located at the intersection coordinates, between reference pixels associated with the intersection coordinates serving as the prediction signal of the prediction pixel A prediction signal of a prediction pixel is generated by calculating a value (a prediction signal is generated by copying this value).

例えば、図1に示すように、交点座標に位置する参照画素Jの値γと、交点座標と参照画素Xに近い方で隣接する参照画素Iの値βとを使い、
V=(1−h)β+hγ ・・・・ (1)式
というリニア補間式に従って、予測画素PredPixel の予測信号Vを生成するのである。
For example, as shown in FIG. 1, using the value γ of the reference pixel J located at the intersection coordinates and the value β of the reference pixel I adjacent to the intersection coordinates and the one closer to the reference pixel X,
V = (1−h) β + hγ... The prediction signal V of the prediction pixel PredPixel is generated according to the linear interpolation equation (1).

ここで、このようなリニア補間式を用いるのではなくて、交点座標に位置する参照画素Jを含む一部又は全ての複数の参照画素(X,A〜H,I〜P)の値を使い、キュービック補間式に従って、予測画素PredPixel の予測信号Vを生成するようにしてもよい。   Here, instead of using such a linear interpolation formula, values of some or all of the plurality of reference pixels (X, A to H, I to P) including the reference pixel J located at the intersection coordinates are used. The prediction signal V of the prediction pixel PredPixel may be generated according to the cubic interpolation formula.

このとき、従来技術では使用されていなかった参照画素L以下の画素M〜Pについても参照可能としてもよく、この場合に、これらの画素M〜Pが復号済みブロックに該当する場合にはその値を参照画素値とし、復号されていなかった場合には復号済みの参照画素Lの値を外挿して参照画素値とする。   At this time, it may be possible to refer to pixels M to P below the reference pixel L that have not been used in the prior art. In this case, if these pixels M to P correspond to decoded blocks, the value thereof is used. Is a reference pixel value, and if it has not been decoded, the value of the decoded reference pixel L is extrapolated to obtain a reference pixel value.

このようにして、本発明では、DCT係数の増加する原因の一つである予測残差信号を抑える目的を達成するために、任意の角度に設定される予測角度を用いて予測画素の予測信号を生成するように処理する。   In this way, in the present invention, in order to achieve the object of suppressing the prediction residual signal, which is one of the causes for increasing the DCT coefficient, the prediction signal of the prediction pixel using the prediction angle set to an arbitrary angle. To generate.

そして、本発明では、このようにして生成した予測画素の予測信号に基づいて符号化コストを算出して、その符号化コストが最小となる予測角度を特定することで、任意の角度に設定可能となることで従来技術よりも多く設定される複数の予測角度の中から画面内予測に用いる予測角度を選択し、これにより、予測残差信号・符号量がより小さい画面内予測符号化を実現する。   In the present invention, the encoding cost is calculated based on the prediction signal of the prediction pixel generated in this way, and the prediction angle that minimizes the encoding cost can be specified, and can be set to an arbitrary angle. As a result, the prediction angle used for intra prediction is selected from the multiple prediction angles that are set more than in the prior art, thereby realizing intra prediction encoding with a smaller prediction residual signal and code amount. To do.

この画像符号化装置の生成する符号化データを受けて、画像復号装置は、任意の角度に設定される複数の予測角度の中から選択された画像符号化側が画面内予測に用いた予測角度についての符号化データを復号して、予測画素の座標とその復号した予測角度とに基づいて、画像符号化側が予測画素の予測信号の生成に用いた予測直線を生成する。続いて、その生成した予測直線と参照画素により生成される線分との交点座標を算出して、その算出した交点座標とその交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する。続いて、その算出した比率値と交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、画像符号化側が生成した予測画素の予測信号を復元する。そして、画像符号化側が符号化した予測残差信号の符号化データを復号して、その復号した予測残差信号とその復元した予測信号とに基づいて復号画像信号を生成する。   Upon receiving the encoded data generated by the image encoding device, the image decoding device uses the prediction angle used for intra prediction by the image encoding side selected from a plurality of prediction angles set to an arbitrary angle. The encoded data is decoded, and based on the coordinates of the prediction pixel and the decoded prediction angle, the image encoding side generates a prediction line used for generating the prediction signal of the prediction pixel. Subsequently, the intersection coordinates between the generated predicted straight line and the line segment generated by the reference pixel are calculated, and the distance between the calculated intersection coordinates and the center coordinate of the reference pixel located at the intersection coordinates is calculated. Then, a ratio value between the calculated distance and the reference inter-pixel distance is calculated. Subsequently, the prediction signal of the prediction pixel generated by the image encoding side is restored based on the calculated ratio value and the values of some or all of the reference pixels including the reference pixel located at the intersection coordinates. Then, the encoded data of the prediction residual signal encoded by the image encoding side is decoded, and a decoded image signal is generated based on the decoded prediction residual signal and the restored prediction signal.

以上説明したように、本発明によれば、従来の画面内予測では対応できなかった画素間値への参照を可能とすることで、微小な角度を持つ画像に対して効率的な画面内予測を実現することが可能となる。その結果、本発明によれば、画面内予測符号化効率を大きく改善することができるようになる。   As described above, according to the present invention, it is possible to refer to an inter-pixel value that cannot be dealt with by the conventional intra-screen prediction, thereby enabling efficient intra-screen prediction for an image having a minute angle. Can be realized. As a result, according to the present invention, the intra prediction encoding efficiency can be greatly improved.

以下、実施の形態に従って本発明を詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments.

図2に、本発明を具備する画面内予測符号化装置10の一実施形態例を図示する。   FIG. 2 shows an example of an embodiment of the intra prediction encoding apparatus 10 having the present invention.

本発明の画面内予測符号化装置10は、静止画像を処理対象としたり、映像に含まれるイントラ符号化対象の画像を処理対象として、処理対象の画像を画面内予測を用いて符号化するものであり、図2に示すように、予測モード選択部101と、予測残差信号生成部102と、符号化部103と、コスト算出部104と、コスト最小値記憶部105と、コスト最小値初期化部106と、コスト判定部107と、最適予測モード番号記憶部108と、モード選択終了判定部109と、最適予測モード番号符号化部110と、画面内予測符号化部111とを備える。   The intra prediction encoding apparatus 10 according to the present invention encodes a processing target image using intra prediction using a still image as a processing target or an intra encoding target image included in a video as a processing target. As shown in FIG. 2, the prediction mode selection unit 101, the prediction residual signal generation unit 102, the encoding unit 103, the cost calculation unit 104, the cost minimum value storage unit 105, and the cost minimum value initial stage Comprises a conversion unit 106, a cost determination unit 107, an optimal prediction mode number storage unit 108, a mode selection end determination unit 109, an optimal prediction mode number encoding unit 110, and an in-screen prediction encoding unit 111.

ここで、本発明の画面内予測符号化装置10は、例えば、4×4ブロックを符号化対象として、予測モード番号をn(0≦n<MaxPred )で表すならば、例えば、画面内予測による予測角度の範囲45°〜225°を任意の分割数に等角度分割したときの予測角度θを、
θ=45+180n/MaxPred [°] ・・・・ (2)式
によって設定する。例えば、予測角度の範囲45°〜225°を16分割するときには、予測角度は図3のように設定されることになる。
Here, if the prediction mode number is represented by n (0 ≦ n <MaxPred) with the 4 × 4 block as an encoding target, the intra prediction encoding apparatus 10 of the present invention, for example, by intra prediction. The predicted angle θ when the predicted angle range of 45 ° to 225 ° is divided into an equal number of divisions at an equal angle,
θ = 45 + 180 n / MaxPred [°]... For example, when the predicted angle range of 45 ° to 225 ° is divided into 16, the predicted angle is set as shown in FIG.

この予測モード選択部101は、符号化対象ブロックについての画面内予測符号化の予測モード(DC成分を使う予測モードを含み、それ以外の予測モードについては予測角度と対応付けられている)を選択する。予測残差信号生成部102は、予測モード選択部101の選択した予測モードに基づいて、符号化対象ブロックの画像信号の予測信号を生成して、その画像信号とその生成した予測信号との差分を算出することで予測残差信号を生成する。   The prediction mode selection unit 101 selects a prediction mode for intra prediction encoding (including a prediction mode using a DC component, and is associated with a prediction angle for other prediction modes) for the current block. To do. The prediction residual signal generation unit 102 generates a prediction signal of the image signal of the encoding target block based on the prediction mode selected by the prediction mode selection unit 101, and the difference between the image signal and the generated prediction signal To generate a prediction residual signal.

符号化部103は、予測残差信号生成部102の生成した予測残差信号を符号化(画面内予測符号化となる)するとともに、予測モード選択部101の選択した予測モードの番号を符号化する。コスト算出部104は、符号化部103の符号化結果に基づいてラグランジュコストを算出する。コスト最小値記憶部105は、コスト算出部104の算出したラグランジュコストの最小値を記憶する。コスト最小値初期化部106は、符号化対象ブロックの画面内予測符号化に入る時点に、コスト最小値記憶部105に対して、大きな値を示すラグランジュコストの初期値を書き込む。   The encoding unit 103 encodes the prediction residual signal generated by the prediction residual signal generation unit 102 (becomes intra-screen prediction encoding) and encodes the number of the prediction mode selected by the prediction mode selection unit 101. To do. The cost calculation unit 104 calculates a Lagrangian cost based on the encoding result of the encoding unit 103. The cost minimum value storage unit 105 stores the minimum value of the Lagrangian cost calculated by the cost calculation unit 104. The cost minimum value initialization unit 106 writes an initial value of a Lagrangian cost indicating a large value in the cost minimum value storage unit 105 at the time when the intra-frame prediction encoding of the current block is started.

コスト判定部107は、コスト算出部104の算出したラグランジュコストと、コスト最小値記憶部105の記憶するラグランジュコストとを比較して、コスト算出部104の算出した方のが小さい場合には、コスト算出部104の算出したラグランジュコストに従って、コスト最小値記憶部105の記憶するラグランジュコストを更新し、さらに、予測モード選択部101の選択した予測モードに従って、最適予測モード番号記憶部108の記憶する予測モード番号を更新する。最適予測モード番号記憶部108は、コスト判定部107により更新されることになる最適な予測モードの番号を記憶する。   The cost determining unit 107 compares the Lagrangian cost calculated by the cost calculating unit 104 with the Lagrangian cost stored in the minimum cost storage unit 105, and if the cost calculated by the cost calculating unit 104 is smaller, the cost determining unit 107 The Lagrangian cost stored in the minimum cost storage unit 105 is updated according to the Lagrangian cost calculated by the calculation unit 104, and the prediction stored in the optimum prediction mode number storage unit 108 according to the prediction mode selected by the prediction mode selection unit 101. Update the mode number. The optimum prediction mode number storage unit 108 stores the number of the optimum prediction mode that is updated by the cost determination unit 107.

モード選択終了判定部109は、コスト判定部107の処理が終了する時点に、予測モード選択部101に対して次の予測モードの選択を指示することで、全ての予測モードが選択されるように制御するとともに、全ての予測モードの選択を終了するときには、最適予測モード番号符号化部110および画面内予測符号化部111に対して符号化を指示する。   The mode selection end determination unit 109 instructs the prediction mode selection unit 101 to select the next prediction mode when the process of the cost determination unit 107 ends, so that all prediction modes are selected. In addition to controlling, when selection of all prediction modes is completed, the optimal prediction mode number encoding unit 110 and the intra prediction encoding unit 111 are instructed to perform encoding.

最適予測モード番号符号化部110は、モード選択終了判定部109から符号化指示があると、最適予測モード番号記憶部108から最適な予測モードの番号を読み出し、それを符号化する。画面内予測符号化部111は、モード選択終了判定部109から符号化指示があると、最適予測モード番号記憶部108から最適な予測モードの番号を読み出し、その読み出した予測モード番号の指す最適な予測モードに基づいて、符号化対象ブロックの画像信号の予測信号を算出して、その画像信号とその算出した予測信号との差分を算出することで予測残差信号を生成して、それを符号化する。   When there is an encoding instruction from the mode selection end determination unit 109, the optimal prediction mode number encoding unit 110 reads the optimal prediction mode number from the optimal prediction mode number storage unit 108 and encodes it. When there is an encoding instruction from the mode selection end determination unit 109, the intra-screen prediction encoding unit 111 reads the optimal prediction mode number from the optimal prediction mode number storage unit 108, and the optimal prediction mode number indicated by the read prediction mode number is read out. Based on the prediction mode, a prediction signal of the image signal of the encoding target block is calculated, and a prediction residual signal is generated by calculating a difference between the image signal and the calculated prediction signal. Turn into.

図4〜図6に、本発明の画面内予測符号化装置10の実行するフローチャートを図示する。次に、このフローチャートに従って、図2のように構成される本発明の画面内予測符号化装置10の実行する処理について説明する。   4 to 6 show flowcharts executed by the intra prediction encoding apparatus 10 of the present invention. Next, processing executed by the intra prediction encoding apparatus 10 of the present invention configured as shown in FIG. 2 will be described according to this flowchart.

本発明の画面内予測符号化装置10は、画面内予測符号化の処理対象となる符号化対象ブロックが与えられると、図4のフローチャートに示すように、まず最初に、ステップS101で、後述するステップS107で用いるラグランジュコストLcostの最小値Lmin を十分大きな値(+∞)で初期化する。 The intra prediction encoding apparatus 10 of the present invention, when an encoding target block to be processed for intra prediction encoding is given, is first described in step S101, as will be described later, as shown in the flowchart of FIG. The minimum value L min of the Lagrangian cost L cost used in step S107 is initialized with a sufficiently large value (+ ∞).

続いて、以下に説明するステップS102〜ステップS109で、ラグランジュコストLcostを最小化する予測モードの番号nを検出するためのループ処理を実行する。ここで、このフローチャートでは、予測モードの総数がMaxPred であることを想定している。 Subsequently, in steps S102 to S109 described below, a loop process for detecting a prediction mode number n that minimizes the Lagrangian cost L cost is executed. Here, in this flowchart, it is assumed that the total number of prediction modes is MaxPred.

すなわち、ステップS102で、未選択の予測モードの番号nを1つ選択すると、続いて、ステップS103で、後述する図5で説明するフローチャートの処理に従って予測残差信号を生成する。   That is, when one unselected prediction mode number n is selected in step S102, a prediction residual signal is subsequently generated in step S103 according to the process of the flowchart described later with reference to FIG.

続いて、ステップS104で、ステップS102で選択した予測モード番号nを符号化し、続くステップS105で、ステップS103で生成した予測残差信号をDCTし量子化して符号化する。   Subsequently, in step S104, the prediction mode number n selected in step S102 is encoded. In subsequent step S105, the prediction residual signal generated in step S103 is DCT-quantized and encoded.

ここで、ステップS104では、例えば、隣接ブロックからの予測信号から決定される1ビットのフラグを使用し、予測が外れた場合は固定長や可変長符号化を行うことで予測モード番号nの符号化を行う。また、ステップS105では、従来の手法を用いて予測残差信号の符号化を行う。   Here, in step S104, for example, a 1-bit flag determined from a prediction signal from an adjacent block is used, and when prediction fails, the code of the prediction mode number n is performed by performing fixed length or variable length encoding. To do. In step S105, the prediction residual signal is encoded using a conventional method.

続いて、ステップS106で、ステップS104,ステップS105の符号化により生成されたビット数と原画像との誤差から従来の手法(例えば、H.264 Reference Software JM ver. 13.2 Encoder, http://iphome.hhi.de/suehring/tml/, 2008)を用いてラグランジュコストLcostを算出する。 Subsequently, in step S106, a conventional method (for example, H.264 Reference Software JM ver. 13.2 Encoder , http: // iphome) is calculated from the error between the number of bits generated by the encoding in steps S104 and S105 and the original image. Lagrange cost L cost is calculated using .hhi.de / suehring / tml / , 2008).

続いて、ステップS107で、
cost<Lmin
が成立するのか否かを判断することで、ステップS106で算出したラグランジュコストLcostが最小かどうかの判定を行う。
Subsequently, in step S107,
L cost <L min
By determining whether or not is established, it is determined whether or not the Lagrange cost L cost calculated in step S106 is minimum.

このステップS107の判断処理に従って、ステップS106で算出したラグランジュコストLcostが最小ラグランジュコストLmin を下回ることを判断するときには、ステップS108に進んで、ステップS106で算出したラグランジュコストLcostに従って最小ラグランジュコストLmin を更新する。 When it is determined that the Lagrangian cost L cost calculated in step S106 is less than the minimum Lagrangian cost L min according to the determination process in step S107, the process proceeds to step S108, and the minimum Lagrangian cost is calculated according to the Lagrangian cost L cost calculated in step S106. Update L min .

一方、ステップS107の判断処理に従って、ステップS106で算出したラグランジュコストLcostが最小ラグランジュコストLmin を下回らないことを判断するときには、ステップS108の処理を行わず、最小ラグランジュコストLmin の更新処理は行わない。 On the other hand, according to the judgment processing in step S107, when the Lagrangian cost L cost calculated in step S106, it is determined that no less than the minimum Lagrangian cost L min does not perform processing in step S108, updating processing of the minimum Lagrangian cost L min is Not performed.

以上の処理(ステップS102〜ステップS109)を0≦n<MaxPred −1の範囲内で繰り返し、これにより、最小ラグランジュコストLmin を実現する最適な予測モードの番号nを特定する。 The above processing (steps S102 to S109) is repeated within the range of 0 ≦ n <MaxPred−1, thereby identifying the optimal prediction mode number n that realizes the minimum Lagrangian cost L min .

これから、続いて、ステップS110で、この特定した最適な予測モード番号を符号化する。   Subsequently, in step S110, the identified optimum prediction mode number is encoded.

続いて、ステップS111で、後述する図6で説明するフローチャートの処理に従って最適予測モードにおける予測残差信号を生成する。   Subsequently, in step S111, a prediction residual signal in the optimal prediction mode is generated according to the processing of the flowchart described with reference to FIG.

そして、最後に、ステップS112で、ステップS111で生成した予測残差信号をDCTし量子化して符号化することで、符号化対象ブロックの画面内予測符号化を実行する。   Finally, in step S112, the prediction residual signal generated in step S111 is DCTed, quantized, and encoded to execute intra-frame predictive encoding of the current block.

次に、図5のフローチャートに従って、図4のフローチャートのステップS103で実行する処理について詳細に説明する。   Next, the process executed in step S103 of the flowchart of FIG. 4 will be described in detail according to the flowchart of FIG.

ステップS103の処理に入ると、図5のフローチャートに示すように、まず最初に、ステップS201で、ステップS102で選択した予測モード番号nに従って、その予測モード番号nの指す予測モードがDC成分を使う予測モードであるのか、予測角度を持つ予測モードであるのかを判断する。   In step S103, as shown in the flowchart of FIG. 5, first, in step S201, according to the prediction mode number n selected in step S102, the prediction mode indicated by the prediction mode number n uses a DC component. It is determined whether the prediction mode or the prediction mode having the prediction angle.

このステップS201の判断処理に従って、ステップS102で選択した予測モード番号nの指す予測モードが予測角度を持つ予測モードであることを判断するときには、ステップS202に進んで、ステップS102で選択した予測モード番号nから予測角度θを生成する。予測モード番号nと予測角度θとは、例えば、前述した(2)式に従って、
θ=45+180n/MaxPred [°]
というように1対1に対応付けられているので、この式に従って、ステップS102で選択した予測モード番号nに対応付けられる予測角度θを生成するのである。
When it is determined that the prediction mode indicated by the prediction mode number n selected in step S102 is a prediction mode having a prediction angle according to the determination process in step S201, the process proceeds to step S202, and the prediction mode number selected in step S102. A predicted angle θ is generated from n. The prediction mode number n and the prediction angle θ are, for example, according to the equation (2) described above.
θ = 45 + 180n / MaxPred [°]
Thus, the prediction angle θ associated with the prediction mode number n selected in step S102 is generated according to this equation.

続いて、以下に説明するステップS203〜ステップS210で、符号化対象ブロックの持つ予測画素PredPixel (図15に示す画素a〜p)毎に予測信号を算出するためのループ処理を実行する。   Subsequently, in steps S203 to S210 described below, a loop process for calculating a prediction signal is executed for each prediction pixel PredPixel (pixels a to p shown in FIG. 15) of the encoding target block.

すなわち、ステップS203で、符号化対象ブロックの持つ予測画素PredPixel の中かから未選択の予測画素PredPixel を1つ選択する。   That is, in step S203, one unselected prediction pixel PredPixel is selected from the prediction pixels PredPixel of the encoding target block.

続いて、ステップS204で、ステップS202で選択した予測画素PredPixel の座標(i,j)と、ステップS202で生成した予測角度θとから、図1に示すような予測直線PredLineを生成する。   Subsequently, in step S204, a prediction straight line PredLine as shown in FIG. 1 is generated from the coordinates (i, j) of the prediction pixel PredPixel selected in step S202 and the prediction angle θ generated in step S202.

すなわち、
y=(x−i)tanθ+j ・・・・ (3)式
という予測直線PredLineを生成するのである。ここで、符号化対象ブロックにおける左上端の予測画素PredPixel の中心座標を原点とし、y軸下方向にラスタスキャンするごとにjの値は小さくなるものとする。
That is,
y = (xi) tan [theta] + j (3) A predicted straight line PredLine expressed by equation (3) is generated. Here, it is assumed that the center coordinate of the prediction pixel PredPixel at the upper left end in the encoding target block is set as the origin, and the value of j becomes smaller every time raster scanning is performed in the y-axis downward direction.

続いて、ステップS205で、図1で説明したように、ステップS204で生成した予測直線PredLineと参照画素により生成される参照直線RefLine との交点座標を算出して、図1で説明した比率値h(交点座標と参照画素Xに近い方の隣接参照画素の中心座標との間の距離を参照画素間距離で割り算した値)を算出する。   Subsequently, in step S205, as described with reference to FIG. 1, the intersection coordinates of the prediction line PredLine generated in step S204 and the reference line RefLine generated by the reference pixel are calculated, and the ratio value h described in FIG. (A value obtained by dividing the distance between the intersection coordinates and the center coordinates of the adjacent reference pixels closer to the reference pixel X by the distance between the reference pixels).

続いて、ステップS206で、交点座標の周辺に位置する参照画素の値を取得する。例えば、図7に示すような形で、交点座標の周辺に位置する参照画素α,β,γ,δを定義する場合にあって、キュービック補間に従って予測画素PredPixel の予測信号Vを算出する場合には、交点座標の周辺に位置する参照画素α,β,γ,δの値を取得し、リニア補間に従って予測画素PredPixel の予測信号Vを算出する場合には、交点座標の周辺に位置する参照画素β,γの値を取得するのである。   Subsequently, in step S206, values of reference pixels located around the intersection coordinates are acquired. For example, when the reference pixels α, β, γ, and δ located around the intersection coordinates are defined in the form shown in FIG. 7 and the prediction signal V of the prediction pixel PredPixel is calculated according to cubic interpolation. Obtains the values of the reference pixels α, β, γ, δ located around the intersection coordinates, and calculates the prediction signal V of the prediction pixel PredPixel according to linear interpolation, the reference pixels located around the intersection coordinates The values of β and γ are acquired.

続いて、ステップS207で、リニア補間やキュービック補間の補間手法(その他の補間手法を用いることも可能である)を用いて、予測画素PredPixel の予測信号となる交点座標に対応付けられる参照画素間値(これをコピーすることで予測信号を生成する)を算出することで、ステップS202で選択した予測画素PredPixel の予測信号の実数値Vを算出する。   Subsequently, in step S207, the inter-reference pixel values associated with the intersection coordinates serving as the prediction signal of the prediction pixel PredPixel using an interpolation method of linear interpolation or cubic interpolation (other interpolation methods can also be used). By calculating (a prediction signal is generated by copying this), the real value V of the prediction signal of the prediction pixel PredPixel selected in step S202 is calculated.

例えば、リニア補間の補間手法を用いる場合には、前述した(1)式のリニア補間式
V=(1−h)β+hγ ・・・・ (1)式
に従って、予測画素PredPixel の予測信号の実数値Vを算出する。また、例えば参照画素α,β,γ,δの値を用いるキュービック補間の補間手法を用いる場合には、下記のキュービック補間式
V=αW(h−1)+βW(h)+γW(1−h)+δW(2−h)
W(l)=(w+2)|l|3 −(w+3)|l|2 +1 |l|<1
=w|l|3 −5w|l|2 +8w|l|−4w 1≦|l|<2
=0 2≦|l|
ただし、w:重み係数
l:参照画素間距離
・・・・ (4)式
に従って、予測画素PredPixel の予測信号の実数値Vを算出する。
For example, when the linear interpolation method is used, the linear interpolation formula (1) described above is used.
V = (1-h) β + hγ (...) The real value V of the prediction signal of the prediction pixel PredPixel is calculated according to the equation (1). For example, when the cubic interpolation method using the values of the reference pixels α, β, γ, and δ is used, the following cubic interpolation equation V = αW (h−1) + βW (h) + γW (1-h) + ΔW (2-h)
W (l) = (w + 2) | l | 3 − (w + 3) | l | 2 +1 | l | <1
= W | l | 3 -5w | l | 2 + 8w | l | -4w 1 ≦ | l | <2
= 0 2 ≦ | l |
Where w: weighting factor
l: Distance between reference pixels
In accordance with the equation (4), the real value V of the prediction signal of the prediction pixel PredPixel is calculated.

続いて、ステップS208で、算出した実数値Vを四捨五入により整数に変換した後、画素深度にクリッピング(整数値が符号化前の画像のビット深度Dの表現域以下である場合にはV=0とし、表現域以上である場合にはV=Dmax とするクリッピング)し、続くステップS209で、そのクリッピンクした値をステップS202で選択した予測画素PredPixel の予測信号とする。 Subsequently, in step S208, the calculated real value V is converted to an integer by rounding off, and then clipped to the pixel depth (if the integer value is less than or equal to the representation range of the bit depth D of the image before encoding, V = 0) If it is equal to or greater than the expression range, V = D max is clipped), and in step S209, the clipped value is used as the prediction signal of the prediction pixel PredPixel selected in step S202.

以上の処理(ステップS202〜ステップS210)を符号化対象ブロックの持つ予測画素PredPixel について繰り返し、これにより、ステップS102で選択した予測モード番号nの指す予測モードが予測角度を持つ予測モードである場合において、符号化対象ブロックの持つ全ての予測画素PredPixel (図15に示す画素a〜p)の予測信号を生成する。   The above processing (steps S202 to S210) is repeated for the prediction pixel PredPixel included in the encoding target block, whereby the prediction mode indicated by the prediction mode number n selected in step S102 is a prediction mode having a prediction angle. The prediction signals of all the prediction pixels PredPixel (pixels a to p shown in FIG. 15) of the encoding target block are generated.

一方、ステップS201の判断処理に従って、ステップS102で選択した予測モード番号nの指す予測モードがDC成分を使う予測モードであることを判断するときには、ステップS211に進んで、参照画素A〜D,I〜L(図1に示すもの)の値の平均値としてDC成分を算出する。   On the other hand, when it is determined that the prediction mode indicated by the prediction mode number n selected in step S102 is a prediction mode using a DC component according to the determination process in step S201, the process proceeds to step S211 and the reference pixels A to D, I The DC component is calculated as the average of the values of ~ L (shown in FIG. 1).

続いて、ステップS212で、算出したDC成分を符号化対象ブロックの持つ全ての予測画素PredPixel (図15に示す画素a〜p)の予測信号とすることで、ステップS102で選択した予測モード番号nの指す予測モードがDC成分を使う予測モードである場合において、符号化対象ブロックの持つ全ての予測画素PredPixel (図15に示す画素a〜p)の予測信号を生成する。   Subsequently, in step S212, the calculated DC component is used as a prediction signal for all prediction pixels PredPixel (pixels a to p shown in FIG. 15) of the encoding target block, so that the prediction mode number n selected in step S102 is obtained. When the prediction mode pointed to by is a prediction mode using a DC component, prediction signals of all prediction pixels PredPixel (pixels a to p shown in FIG. 15) of the encoding target block are generated.

このようにして、ステップS201〜ステップS212の処理に従って、符号化対象ブロックの持つ画像信号についての予測信号を生成すると、ステップS213に進んで、その画像信号とその予測信号との差分値を算出することで予測残差信号を生成し、これにより、図4のフローチャートのステップS103の処理を終了する。   In this manner, when the prediction signal for the image signal of the encoding target block is generated according to the processing of step S201 to step S212, the process proceeds to step S213, and a difference value between the image signal and the prediction signal is calculated. Thus, a prediction residual signal is generated, and thereby the process of step S103 in the flowchart of FIG. 4 is terminated.

次に、図6のフローチャートに従って、図4のフローチャートのステップS111で実行する処理について詳細に説明する。   Next, the process executed in step S111 of the flowchart of FIG. 4 will be described in detail according to the flowchart of FIG.

ステップS111の処理に入ると、図6のフローチャートに示すように、まず最初に、ステップS301で、ループ1の処理により特定された最適予測モード番号nに従って、最適予測モードがDC成分を使う予測モードであるのか、予測角度を持つ予測モードであるのかを判断する。   In step S111, as shown in the flowchart of FIG. 6, first, in step S301, the prediction mode in which the optimum prediction mode uses a DC component according to the optimum prediction mode number n specified by the loop 1 process. Or a prediction mode having a prediction angle.

このステップS301の判断処理に従って、最適予測モードが予測角度を持つ予測モードであることを判断するときには、ステップS302に進んで、図5のフローチャートのステップS202と同様の処理を実行することで、最適予測モードの番号nから予測角度θを生成する。   When it is determined that the optimal prediction mode is a prediction mode having a prediction angle according to the determination process of step S301, the process proceeds to step S302, and the same process as step S202 of the flowchart of FIG. A prediction angle θ is generated from the prediction mode number n.

続いて、以下のステップS303〜ステップS310で、図5のフローチャートのステップS203〜ステップS210と同様の処理を実行することで、最適予測モード番号nの指す予測モードが予測角度を持つ予測モードである場合において、符号化対象ブロックの持つ全ての予測画素PredPixel (図15に示す画素a〜p)の予測信号を生成する。   Subsequently, in steps S303 to S310 below, the same processing as in steps S203 to S210 in the flowchart of FIG. 5 is executed, so that the prediction mode indicated by the optimal prediction mode number n is a prediction mode having a prediction angle. In this case, prediction signals for all prediction pixels PredPixel (pixels a to p shown in FIG. 15) of the encoding target block are generated.

一方、ステップS301の判断処理に従って、最適予測モードがDC成分を使う予測モードであることを判断するときには、ステップS311,ステップS312で、図5のフローチャートのステップS211,ステップS212と同様の処理を実行することで、最適予測モード番号nの指す予測モードがDC成分を使う予測モードである場合において、符号化対象ブロックの持つ全ての予測画素PredPixel (図15に示す画素a〜p)の予測信号を生成する。   On the other hand, when it is determined that the optimal prediction mode is a prediction mode using a DC component according to the determination process in step S301, the same processes as in steps S211 and S212 in the flowchart of FIG. 5 are executed in steps S311 and S312. Thus, when the prediction mode indicated by the optimal prediction mode number n is a prediction mode using a DC component, the prediction signals of all the prediction pixels PredPixel (pixels a to p shown in FIG. 15) of the encoding target block are obtained. Generate.

このようにして、ステップS301〜ステップS312の処理に従って、符号化対象ブロックの持つ画像信号についての予測信号を生成すると、ステップS313に進んで、図5のフローチャートのステップS213と同様の処理を実行することで、最適予測モードにおける予測残差信号を生成し、これにより、図4のフローチャートのステップS111の処理を終了する。   In this way, when the prediction signal for the image signal of the encoding target block is generated according to the processing in steps S301 to S312, the process proceeds to step S313, and the same processing as step S213 in the flowchart of FIG. 5 is executed. Thus, a prediction residual signal in the optimal prediction mode is generated, and thereby the processing of step S111 in the flowchart of FIG. 4 is finished.

このようにして、本発明の画面内予測符号化装置10は、符号化対象ブロックを画面内予測を用いて符号化する場合に、任意の角度に設定される予測角度を用いて予測信号を生成することを可能として、そのようにして生成した予測信号に基づいて画面内予測符号化を実現するという構成を採るものであり、これにより、図15に示す8種類の予測方向しか存在しない従来技術に比べて予測方向の数を大幅に増加させることができるようになることで予測精度を高めることができるようになって、予測残差信号を大きく低減できるようになるのである。   In this way, the intra prediction encoding apparatus 10 of the present invention generates a prediction signal using a prediction angle set to an arbitrary angle when encoding an encoding target block using intra prediction. In the conventional technique, only eight types of prediction directions as shown in FIG. 15 exist, and the intra-screen predictive coding is realized based on the prediction signal generated as described above. Compared to the above, since the number of prediction directions can be greatly increased, the prediction accuracy can be improved, and the prediction residual signal can be greatly reduced.

例えば、図8(a)(図17に示すものと同じもの)に示すように、符号化対象ブロックが従来の予測モード4(予測角度=135°)と従来の予測モード5(予測角度=116.57°)との中間の角度125.78°に強い相関があるような場合には、従来手法の画面内予測手法に従っていると、図8(b)(図18に示すものと同じもの)に示すように、予測残差信号は大きくなってしまうという問題があるが、本発明の画面内予測符号化装置10では、予測角度125.78°という予測モードを実現することも可能であることから、図8(c)に示すように、予測残差信号を大きく低減できるようになる。   For example, as shown in FIG. 8A (the same as that shown in FIG. 17), the current block is encoded in the conventional prediction mode 4 (prediction angle = 135 °) and the conventional prediction mode 5 (prediction angle = 116). In the case where there is a strong correlation at an intermediate angle of 125.78 ° with respect to .57 °), if the intra-screen prediction method of the conventional method is followed, FIG. 8B (the same as that shown in FIG. 18) As shown in FIG. 4, the prediction residual signal becomes large, but the intra prediction encoding apparatus 10 of the present invention can also realize a prediction mode with a prediction angle of 125.78 °. Therefore, as shown in FIG. 8C, the prediction residual signal can be greatly reduced.

すなわち、図8(b)の左側に示す従来の予測モード4による予測残差の絶対値の総和は“502”となり、図8(b)の右側に示す従来の予測モード5による予測残差の絶対値の総和は“595”となるのに対して、図8(c)に示す予測角度125.78°という予測モードによる予測残差の絶対値の総和は“201”となり、予測残差信号を大きく低減できるようになるのである。なお、図8(b)(c)では、前述した(1)式に示すリニア補間式に従って予測信号を生成するようにしている。   That is, the sum of the absolute values of the prediction residuals in the conventional prediction mode 4 shown on the left side of FIG. 8B is “502”, and the prediction residuals in the conventional prediction mode 5 shown on the right side of FIG. While the sum of absolute values is “595”, the sum of absolute values of prediction residuals in the prediction mode with a prediction angle of 125.78 ° shown in FIG. Can be greatly reduced. In FIGS. 8B and 8C, the prediction signal is generated according to the linear interpolation equation shown in the above equation (1).

図9に、図2のように構成される本発明の画面内予測符号化装置10の生成した符号化データを復号する本発明の画面内予測復号装置20の一実施形態例を図示する。   FIG. 9 illustrates an embodiment of the intra-screen predictive decoding device 20 of the present invention that decodes the encoded data generated by the intra-screen predictive encoding device 10 of the present invention configured as shown in FIG.

この図に示すように、本発明の画面内予測復号装置20は、図2のように構成される本発明の画面内予測符号化装置10の生成した符号化データを復号するために、予測モード番号復号部201と、予測信号復元部202と、予測残差信号復号部203と、復号画像信号生成部204とを備える。   As shown in this figure, the intra prediction decoding apparatus 20 according to the present invention is provided with a prediction mode for decoding the encoded data generated by the intra prediction encoding apparatus 10 according to the present invention configured as shown in FIG. A number decoding unit 201, a prediction signal restoration unit 202, a prediction residual signal decoding unit 203, and a decoded image signal generation unit 204 are provided.

この予測モード番号復号部201は、本発明の画面内予測符号化装置10が生成した予測モード番号の符号化データを復号することで予測モード番号を復号する。予測信号復元部202は、予測モード番号復号部201の復号した予測モード番号の指す予測モードに基づいて、本発明の画面内予測符号化装置10が生成した予測信号を復元する。予測残差信号復号部203は、本発明の画面内予測符号化装置10が生成した予測残差信号の符号化データを復号して、それを逆量子化、逆DCTすることで予測残差信号を復号する。復号画像信号生成部204は、予測信号復元部202の復元した予測信号と予測残差信号復号部203の復号した予測残差信号とを加算することで、復号画像信号を生成する。   This prediction mode number decoding part 201 decodes prediction mode number by decoding the encoding data of the prediction mode number which the intra prediction encoding apparatus 10 of this invention produced | generated. The prediction signal restoration unit 202 restores the prediction signal generated by the intra prediction encoding apparatus 10 of the present invention based on the prediction mode indicated by the prediction mode number decoded by the prediction mode number decoding unit 201. The prediction residual signal decoding unit 203 decodes the encoded data of the prediction residual signal generated by the intraframe prediction encoding apparatus 10 of the present invention, and performs inverse quantization and inverse DCT on the prediction residual signal. Is decrypted. The decoded image signal generation unit 204 generates a decoded image signal by adding the prediction signal restored by the prediction signal restoration unit 202 and the prediction residual signal decoded by the prediction residual signal decoding unit 203.

図10および図11に、本発明の画面内予測復号装置20の実行するフローチャートを図示する。次に、このフローチャートに従って、図9のように構成される本発明の画面内予測復号装置20の実行する処理について説明する。   10 and 11 show flowcharts executed by the intra prediction decoding apparatus 20 of the present invention. Next, processing executed by the intra prediction decoding apparatus 20 of the present invention configured as shown in FIG. 9 will be described according to this flowchart.

本発明の画面内予測復号装置20は、本発明の画面内予測符号化装置10の生成した符号化データを受け取ると、図10のフローチャートに示すように、まず最初に、ステップS401で、予測モード番号の符号化データを復号することで予測モード番号を復号する。   When the intraframe prediction decoding apparatus 20 of the present invention receives the encoded data generated by the intraframe prediction encoding apparatus 10 of the present invention, as shown in the flowchart of FIG. The prediction mode number is decoded by decoding the encoded data of the number.

続いて、ステップS402で、後述する図11で説明するフローチャートの処理に従って、本発明の画面内予測符号化装置10が生成した予測信号を復元する。   Subsequently, in step S402, the prediction signal generated by the intra prediction encoding apparatus 10 of the present invention is restored according to the processing of the flowchart described in FIG.

続いて、ステップS403で、予測残差信号の符号化データを復号して、それを逆量子化、逆DCTすることで予測残差信号を復号する。   Subsequently, in step S403, the encoded data of the prediction residual signal is decoded, and the prediction residual signal is decoded by inverse quantization and inverse DCT.

そして、最後に、ステップS404で、ステップS402で復元した予測信号とステップS403で復号した予測残差信号とを加算することで復号画像信号を生成して、処理を終了する。   Finally, in step S404, a decoded image signal is generated by adding the prediction signal restored in step S402 and the prediction residual signal decoded in step S403, and the process ends.

次に、図11のフローチャートに従って、図10のフローチャートのステップS402で実行する処理について詳細に説明する。   Next, the process executed in step S402 of the flowchart of FIG. 10 will be described in detail according to the flowchart of FIG.

ステップS402の処理に入ると、図11のフローチャートに示すように、まず最初に、ステップS501で、ステップS401で復号した予測モード番号nに従って、その予測モード番号nの指す予測モードがDC成分を使う予測モードであるのか、予測角度を持つ予測モードであるのかを判断する。   In the process of step S402, as shown in the flowchart of FIG. 11, first, in step S501, according to the prediction mode number n decoded in step S401, the prediction mode indicated by the prediction mode number n uses a DC component. It is determined whether the prediction mode or the prediction mode having the prediction angle.

このステップS501の判断処理に従って、ステップS401で復号した予測モード番号nの指す予測モードが予測角度を持つ予測モードであることを判断するときには、ステップS502に進んで、図5のフローチャートのステップS202と同様の処理を実行することで、ステップS401で復号した予測モード番号nから予測角度θを生成する。   When it is determined that the prediction mode indicated by the prediction mode number n decoded in step S401 is a prediction mode having a prediction angle according to the determination process in step S501, the process proceeds to step S502, and step S202 in the flowchart of FIG. By executing the same process, the prediction angle θ is generated from the prediction mode number n decoded in step S401.

続いて、以下のステップS503〜ステップS510で、図5のフローチャートのステップS203〜ステップS210と同様の処理を実行することで、ステップS401で復号した予測モード番号nの指す予測モードが予測角度を持つ予測モードである場合において、本発明の画面内予測符号化装置10が生成した復号対象ブロックの持つ全ての予測画素PredPixel の予測信号を復元する。   Subsequently, in steps S503 to S510 below, the same processing as in steps S203 to S210 in the flowchart of FIG. 5 is executed, so that the prediction mode indicated by the prediction mode number n decoded in step S401 has a prediction angle. In the prediction mode, the prediction signals of all the prediction pixels PredPixel included in the decoding target block generated by the intra prediction encoding apparatus 10 of the present invention are restored.

一方、ステップS501の判断処理に従って、ステップS401で復号した予測モード番号nの指す予測モードがDC成分を使う予測モードであることを判断するときには、ステップS511,ステップS512で、図5のフローチャートのステップS211,ステップS212と同様の処理を実行することで、ステップS401で復号した予測モード番号nの指す予測モードがDC成分を使う予測モードである場合において、本発明の画面内予測符号化装置10が生成した復号対象ブロックの持つ全ての予測画素PredPixel の予測信号を復元する。   On the other hand, when it is determined that the prediction mode indicated by the prediction mode number n decoded in step S401 is a prediction mode using a DC component in accordance with the determination process in step S501, in steps S511 and S512, the steps of the flowchart of FIG. When the prediction mode indicated by the prediction mode number n decoded in step S401 is a prediction mode using a DC component, the intra-frame prediction encoding apparatus 10 of the present invention performs the same processes as in S211 and S212. The prediction signals of all the prediction pixels PredPixel of the generated decoding target block are restored.

このようにして、ステップS501〜ステップS512の処理に従って、復号対象ブロックの持つ画像信号についての予測信号を生成して、これにより、図10のフローチャートのステップS402の処理を終了する。   In this way, a prediction signal for the image signal of the decoding target block is generated in accordance with the processing of step S501 to step S512, thereby ending the processing of step S402 in the flowchart of FIG.

このようにして、本発明の画面内予測復号装置20は、任意の角度に設定される予測角度を用いて予測信号を生成するという構成を採る本発明の画面内予測符号化装置10の生成した符号化データを復号するのである。   In this way, the intra prediction decoding apparatus 20 according to the present invention is generated by the intra prediction encoding apparatus 10 according to the present invention having a configuration in which a prediction signal is generated using a prediction angle set to an arbitrary angle. The encoded data is decoded.

次に、本発明の有効性を検証するために行った実験の結果について説明する。本実験は、符号化対象画像を16×16マクロブロックに分割し、さらに、16×16マクロブロックを4×4ブロックに分割して、4×4ブロックに対して画面内予測値を生成することで行った。また、予測角度は45°〜225°の角度範囲を等角度に分割して設定し、画面内予測値はリニア補間で算出することで行った。   Next, the results of experiments conducted to verify the effectiveness of the present invention will be described. In this experiment, the image to be encoded is divided into 16 × 16 macroblocks, and further, the 16 × 16 macroblock is divided into 4 × 4 blocks to generate intra prediction values for the 4 × 4 blocks. I went there. The predicted angle was set by dividing an angle range of 45 ° to 225 ° into equal angles, and the in-screen predicted value was calculated by linear interpolation.

本発明では、画面内予測符号化において、予測モード数を増加させることを実現することで予測精度を高めることを実現し、これによりDCT係数が減少し、その結果としてDCT係数の符号化に必要なビット量を削減できるようになって符号化効率を向上させることができるようになる。一方、予測モード数を増加させることから、予測モード番号の符号化に必要なビット量が増加する。本実験では、この点を考慮して実験を行った。   In the present invention, in the intra prediction encoding, the prediction accuracy is improved by increasing the number of prediction modes, thereby reducing the DCT coefficient, and as a result necessary for encoding the DCT coefficient. As a result, the amount of bits can be reduced and the encoding efficiency can be improved. On the other hand, since the number of prediction modes is increased, the bit amount necessary for encoding the prediction mode number increases. In this experiment, the experiment was conducted in consideration of this point.

本実験の内容について説明するならば、本発明もまた、H.264と同様に、符号化対象画像から各予測値を減算した予測残差に対してDCTおよび量子化マトリックスを用いて量子化を行い、整数値化したDCT係数群をCAVLCの形式(改訂版H.264/AVC教科書(ISBN4-8443-2204-4).p.147 表6-7 参照)で格納する。   If the contents of this experiment are described, the present invention is also described in H.264. Similarly to H.264, the prediction residual obtained by subtracting each prediction value from the encoding target image is quantized using DCT and a quantization matrix, and the converted DCT coefficient group is converted into a CAVLC format (revised version H .264 / AVC textbook (ISBN4-8443-2204-4) .p.147 See Table 6-7).

H.264では、ここで格納した数値群に対して、隣接ブロックの情報を用いて適応的に可変長符号化を行う。この点について、本実験では簡略化のために、これらの数値群に対して、以下の手法によって可変長符号化を行うようにする。そのため、客観的なデータ比較を可能とするために、本実験で用いるH.264方式(本来のH.264とはアルゴリズムを一部変えているのでH.264方式と称する)においても、以下の手法によって可変長符号化を行うようにしている。   H. In H.264, variable length coding is adaptively performed on the numerical value group stored here using information on adjacent blocks. In this experiment, for the sake of simplicity, variable length coding is performed on these numerical groups by the following method. Therefore, in order to enable objective data comparison, the H.C. Even in the H.264 system (the H.264 system is called because the algorithm is partially changed from the original H.264), variable length coding is performed by the following method.

・TotalCoeff 0始まりの絶対値 (0=1bit,1=2bits,2=3bits,...)
・TrailingOnes 0始まりの絶対値 (0=1bit,1=2bits,2=3bits,...)
・trailing-ones-sigh-flag 正負符号
・level 正負符号+1始まりの絶対値 (1=2bits,-1=2bits,2=
3bits,-2=3bits,...)
・total-zeros 改訂版H.264/AVC教科書. p.302,303 表13-17,13-18 参照
・run-before 改訂版H.264/AVC教科書. p.303,304 表13-20 参照
また、H.264方式では、本来のH.264と同様に、9パターンの予測値を生成する。また、H.264方式では、本来のH.264と同様に、隣接する上・左の4×4ブロックにおける予測方向を用いて予測方向の予測を行って、予測方向の予測値と一致している場合には1ビットのフラグで表記し、異なる場合には1ビットのフラグに加えて、3ビットの補正値によって予測方向の補正を行う。一方、本発明における方式では、分割数に応じた数だけ予測値を生成する。また、固定長にて予測方向を符号化するため、全ての4×4ブロックに対して、16分割時には4ビット、32分割時には5ビットを必要とする。
・ TotalCoeff Absolute value starting from 0 (0 = 1bit, 1 = 2bits, 2 = 3bits, ...)
・ TrailingOnes Absolute value starting from 0 (0 = 1bit, 1 = 2bits, 2 = 3bits, ...)
・ Trailing-ones-sigh-flag plus / minus sign ・ level plus / minus sign + 1 absolute value (1 = 2bits, -1 = 2bits, 2 =
(3bits, -2 = 3bits, ...)
・ Total-zeros revised H.264 / AVC textbook. P.302,303 Refer to Table 13-17, 13-18 ・ run-before revised H.264 / AVC textbook. P.303,304 Refer to Table 13-20. In the H.264 system, the original H.264 standard is used. Similarly to H.264, nine patterns of predicted values are generated. H. In the H.264 system, the original H.264 standard is used. As in H.264, the prediction direction is predicted using the prediction direction in the adjacent upper and left 4 × 4 blocks, and when the prediction value matches the prediction value, it is represented by a 1-bit flag. If they are different, the prediction direction is corrected by a 3-bit correction value in addition to the 1-bit flag. On the other hand, in the method according to the present invention, the prediction value is generated by the number corresponding to the division number. In addition, since the prediction direction is encoded with a fixed length, all 4 × 4 blocks require 4 bits for 16 divisions and 5 bits for 32 divisions.

本実験では、H.264方式では9パターン、本発明における方式では分割数に応じたパターン数だけ符号化に必要なビット数と符号化対象画像との二乗誤差をそれぞれ算出し、ラグランジュコストの最も小さい値を用いて符号化を行うことで実験を行った。   In this experiment, H.C. In the method of H.264, 9 patterns are calculated, and in the method of the present invention, the square error between the number of bits required for encoding and the encoding target image is calculated by the number of patterns corresponding to the number of divisions. The experiment was conducted by performing the conversion.

図12に、「HARBOUR CIF(352×288)」を符号化対象画像として、H.264方式、16分割の本発明方式、32分割の本発明方式、64分割の本発明方式で符号化を行った場合の実験結果のRD(Rate-Distortion)曲線を図示し、図13に、「FOREMAN CIF(352×288)」を符号化対象画像として、H.264方式、16分割の本発明方式、32分割の本発明方式、64分割の本発明方式で符号化を行った場合の実験結果のRD曲線を図示する。   In FIG. 12, “HARBOUR CIF (352 × 288)” is assumed to be an encoding target image. FIG. 13 shows RD (Rate-Distortion) curves of experimental results when encoding is performed using the H.264 system, the present invention system of 16 divisions, the present invention system of 32 divisions, and the present invention system of 64 divisions. FOREMAN CIF (352 × 288) ”as an encoding target image. The RD curve of the experimental result at the time of encoding by the H.264 system, the present invention system of 16 divisions, the present invention system of 32 divisions, and the present invention system of 64 divisions is illustrated.

RD曲線の縦軸はPSNRを示す。PSNRは符号化前の画像と符号化後の画像との誤差を対数で表したものであり、この指標はその数値が高いほど符号化前の画像との差が小さく、より忠実に画像が再現できていることを表す。一般に、輝度信号に対してはPSNR=35〜38程度の数値がよく利用されている。   The vertical axis of the RD curve indicates PSNR. PSNR is a logarithm of the error between the image before encoding and the image after encoding. The higher this value, the smaller the difference from the image before encoding, and the more faithfully the image is reproduced. Indicates that it is done. In general, a numerical value of about PSNR = 35 to 38 is often used for a luminance signal.

また、RD曲線の横軸は任意の符号化手法を用いて画像を符号化した際に生ずるビット数を示す。つまり、異なる符号化手法の性能を比較するとき、同等のPSNR(画像の綺麗さ)において符号化を行った場合、ビット数が少ない手法の方が優れているとみなすことができる。   The horizontal axis of the RD curve indicates the number of bits generated when an image is encoded using an arbitrary encoding method. That is, when comparing the performance of different encoding methods, when encoding is performed with the same PSNR (image clarity), it can be considered that the method with a smaller number of bits is superior.

図12および図13では、H.264準拠の符号化方式を用い、画面内予測における予測手法についてのみH.264準拠の9パターンの予測手法を本発明における分割数を増やす手法に変更した手法(16分割、32分割、64分割)と、H.264準拠の9パターンの予測手法(H.264方式)との比較を行ったものである。なお、本発明における手法では、全ての分割数においてθ=45°方向は例外として周辺参照画素の平均値(DC成分)を予測値として用いている。   12 and FIG. H.264 compliant encoding method is used only for the prediction method in the intra prediction. H.264-compliant 9-pattern prediction method is changed to a method for increasing the number of divisions in the present invention (16 divisions, 32 divisions, 64 divisions); This is a comparison with the prediction method (H.264 method) of 9 patterns based on H.264. In the method according to the present invention, the average value (DC component) of the peripheral reference pixels is used as the predicted value with the exception of the θ = 45 ° direction in all the division numbers.

図12に示すRD曲線において、PSNR=36に注目したときに、最も符号化効率のよい64分割を用いて符号化を行うと、H.264方式と比較して符号量を約7.9%削減可能なことが確認でき、本発明の有効性を検証できた。   In the RD curve shown in FIG. 12, when PSNR = 36 is focused on, encoding is performed using 64 divisions with the highest encoding efficiency. Compared with the H.264 system, it was confirmed that the code amount could be reduced by about 7.9%, and the effectiveness of the present invention could be verified.

図14に、予測残差を最小とする予測を行った場合に生ずる予測残差を比較した実験結果を図示する。   FIG. 14 shows the experimental results comparing the prediction residuals that occur when the prediction with the smallest prediction residual is performed.

ここで、図14におけるSum of absolute differenceは、以下の手順で算出した予測残差絶対値総和における60フレームの平均値を表す。   Here, Sum of absolute difference in FIG. 14 represents an average value of 60 frames in the total sum of predicted residual absolute values calculated by the following procedure.

(1)符号化前の画像を全て16×16マクロブロックに分割し、さらに、16×16マクロブロックを4×4ブロックに分割して、規定のアクセス順序に従って4×4ブロックを順次選択する。   (1) All images before encoding are divided into 16 × 16 macroblocks, and further, 16 × 16 macroblocks are divided into 4 × 4 blocks, and 4 × 4 blocks are sequentially selected according to a prescribed access order.

(2)各4×4ブロックに対して、RefPixelを用いて下記の全手法・全予測方向をそれぞれ計算し、各手法ごとに予測残差が最小となる方向で予測した際に生ずる予測残差絶対値を算出する(RefPixelには全ての符号化対象画像の画素値を用いている)。   (2) For each 4 × 4 block, the following all methods and all prediction directions are calculated using RefPixel, and the prediction residual generated when the prediction residual is predicted in the direction that minimizes the prediction residual for each method. Absolute values are calculated (pixel values of all the encoding target images are used for RefPixel).

・H.264準拠の画面内予測手法
・45°〜225°を16等角度分割し、予測角度θ=45°を隣接画素の平均値と して計算する手法(Div16)
・45°〜225°を32等角度分割し、予測角度θ=45°を隣接画素の平均値と して計算する手法(Div32)
・45°〜225°を64等角度分割し、予測角度θ=45°を隣接画素の平均値と して計算する手法(Div64)
・45°〜225°を128等角度分割し、予測角度θ=45°を隣接画素の平均値 として計算する手法(Div128)
・45°〜225°を256等角度分割し、予測角度θ=45°を隣接画素の平均値 として計算する手法(Div256)
・45°〜225°を512等角度分割し、予測角度θ=45°を隣接画素の平均値 として計算する手法(Div512)
(3)手順2で算出した予測残差絶対値の総和(Sum of absolute difference)を画像当たり、手法ごとに算出する。
・ H. In-screen prediction method based on H.264 • Method of dividing 45 ° to 225 ° into 16 equal angles and calculating the predicted angle θ = 45 ° as the average value of adjacent pixels (Div16)
・ A method of dividing 45 ° to 225 ° into 32 equiangular angles and calculating the predicted angle θ = 45 ° as the average value of adjacent pixels (Div32)
・ A method of dividing 45 ° to 225 ° into 64 equiangular angles and calculating the predicted angle θ = 45 ° as the average value of adjacent pixels (Div64)
A method of dividing 45 ° to 225 ° into 128 equiangular angles and calculating the predicted angle θ = 45 ° as an average value of adjacent pixels (Div128)
A method of dividing 45 ° to 225 ° into 256 equiangular angles and calculating the predicted angle θ = 45 ° as an average value of adjacent pixels (Div256)
A method of dividing 45 ° to 225 ° into 512 equiangular angles and calculating the predicted angle θ = 45 ° as an average value of adjacent pixels (Div512)
(3) The sum of predicted residual absolute values (Sum of absolute difference) calculated in step 2 is calculated for each method per image.

H.264.では、符号化を行う際、予測残差に対してDCTを行うため、予測残差と符号量とが必ずしも比例する訳ではないが、予測残差が小さい方が符号量を削減できる可能性は高い。H.264準拠の画面内予測を用いたときに算出される予測残差として、本発明における各分割数ごとの予測残差の減少率を図14におけるGainに示す。この図14の実験データからも、本発明の有効性を検証できた。   H. H.264. Then, since DCT is performed on the prediction residual when encoding, the prediction residual and the code amount are not necessarily proportional, but the possibility that the code amount can be reduced when the prediction residual is small is high. H. As a prediction residual calculated when using the intra-screen prediction based on H.264, the reduction rate of the prediction residual for each division number in the present invention is shown in Gain in FIG. The effectiveness of the present invention could be verified from the experimental data of FIG.

本発明では、画面内予測符号化において、予測モード数を増加させることを実現することで予測精度を高めることを実現し、これによりDCT係数が減少し、その結果としてDCT係数の符号化に必要なビット量を削減できるようになって符号化効率を向上させることができるようになる。一方、予測モード数を増加させることから、予測モード番号の符号化に必要なビット量が増加する。   In the present invention, in the intra prediction encoding, the prediction accuracy is improved by increasing the number of prediction modes, thereby reducing the DCT coefficient, and as a result necessary for encoding the DCT coefficient. As a result, the amount of bits can be reduced and the encoding efficiency can be improved. On the other hand, since the number of prediction modes is increased, the bit amount necessary for encoding the prediction mode number increases.

そのため、符号化効率を示すRD曲線は、図12および図13にも示すように、分割数が増加する毎に効率の上昇率は鈍化し、それ以上になると、符号化効率の優劣の逆転が生ずることになる。図12および図13の実験結果から、一般的によく使用されるPSNR=35〜38程度では、32や64の分割数の程度を用いるのが適当であることが分かる。   Therefore, as shown in FIG. 12 and FIG. 13, the RD curve indicating the coding efficiency slows down as the efficiency increases as the number of divisions increases. Will occur. From the experimental results shown in FIGS. 12 and 13, it is understood that it is appropriate to use the number of divisions of 32 and 64 when PSNR = 35 to 38, which is generally used, is used.

以上に説明した実施形態例では、前述した(2)式に従って等角度に分割した予測角度を用いて予測を行うようにしたが、不等角度に分割した角度を用いて予測を行うことも可能である。例えば、H.264/MPEG4 AVCと同様の不等角度に分割した角度を用いた予測は、図15に記載するような各予測モードの予測角度(不等角度)を符号化器・復号器の両方でテーブルに保持しておくことで実現できる。また、H.264/MPEG4 AVC以上に細分化した角度も符号化器・復号器で互いに既知であればオーバーヘッドなしで容易に実現できる。   In the embodiment described above, the prediction is performed using the prediction angle divided into equal angles according to the above-described equation (2). However, the prediction can be performed using the angles divided into unequal angles. It is. For example, H.M. The prediction using the angle divided into the unequal angles similar to H.264 / MPEG4 AVC is performed by using the table of the prediction angle (unequal angle) of each prediction mode as shown in FIG. It can be realized by holding. H. If the angle subdivided more than H.264 / MPEG4 AVC is also known by the encoder / decoder, it can be easily realized without overhead.

また、以上に説明した実施形態例では説明しなかったが、符号化対象画像に対して、予め計算によって効率よく予測残差を減らすことができる予測角度出現確率分布のLUT(look-up table)を構築するようにしておくと、さらに予測残差を減らすことができるようになる。   In addition, although not described in the above-described embodiment, a prediction angle appearance probability distribution LUT (look-up table) that can efficiently reduce a prediction residual by calculation in advance with respect to an encoding target image. The prediction residual can be further reduced by constructing.

この予測角度出現確率分布LUTを構築する場合には、この予測角度出現確率分布LUTをビットストリームに付加することによってデコーダ側でも予測信号が生成可能となる。予測角度出現確率分布LUTは予測角度最大分割数N(=MaxPred )をxビットで符号化し、各予測角度を固定小数点yビットでN個構築した場合、x+Nyビットのオーバーヘッド付加によって実現できる。   When this prediction angle appearance probability distribution LUT is constructed, a prediction signal can be generated on the decoder side by adding this prediction angle appearance probability distribution LUT to the bitstream. The prediction angle appearance probability distribution LUT can be realized by encoding the prediction angle maximum division number N (= MaxPred) with x bits and constructing N prediction angles with fixed-point y bits and adding overhead of x + Ny bits.

本発明の処理について説明する図である。It is a figure explaining the process of this invention. 本発明の画面内予測符号化装置の装置構成図である。It is an apparatus block diagram of the intra-screen prediction encoding apparatus of this invention. 予測角度の設定の一例を示す図である。It is a figure which shows an example of the setting of a prediction angle. 本発明の画面内予測符号化装置の実行するフローチャートである。It is a flowchart which the intra prediction encoding apparatus of this invention performs. 本発明の画面内予測符号化装置の実行するフローチャートである。It is a flowchart which the intra prediction encoding apparatus of this invention performs. 本発明の画面内予測符号化装置の実行するフローチャートである。It is a flowchart which the intra prediction encoding apparatus of this invention performs. 交点座標の周辺に位置する参照画素の説明図である。It is explanatory drawing of the reference pixel located in the periphery of an intersection coordinate. 本発明の有効性について説明する図である。It is a figure explaining the effectiveness of the present invention. 本発明の画面内予測復号装置の装置構成図である。It is an apparatus block diagram of the intra-screen prediction decoding apparatus of this invention. 本発明の画面内予測復号装置の実行するフローチャートである。It is a flowchart which the intra prediction prediction apparatus of this invention performs. 本発明の画面内予測復号装置の実行するフローチャートである。It is a flowchart which the intra prediction prediction apparatus of this invention performs. 本発明の有効性を検証するために行った実験の実験データである。It is an experimental data of the experiment conducted in order to verify the effectiveness of this invention. 本発明の有効性を検証するために行った実験の実験データである。It is an experimental data of the experiment conducted in order to verify the effectiveness of this invention. 本発明の有効性を検証するために行った実験の実験データである。It is an experimental data of the experiment conducted in order to verify the effectiveness of this invention. 従来の画面内予測手法で用いる予測角度の説明図である。It is explanatory drawing of the prediction angle used with the conventional intra-screen prediction method. 従来の画面内予測手法で用いる参照画素の画素値の説明図である。It is explanatory drawing of the pixel value of the reference pixel used with the conventional prediction method in a screen. 符号化対象ブロックの画像信号の一例を示す図である。It is a figure which shows an example of the image signal of an encoding object block. 従来の画面内予測手法の説明図である。It is explanatory drawing of the conventional prediction method in a screen.

符号の説明Explanation of symbols

10 画面内予測符号化装置
101 予測モード選択部
102 予測残差信号生成部
103 符号化部
104 コスト算出部
105 コスト最小値記憶部
106 コスト最小値初期化部
107 コスト判定部
108 最適予測モード番号記憶部
109 モード選択終了判定部
110 最適予測モード番号符号化部
111 画面内予測符号化部
DESCRIPTION OF SYMBOLS 10 Intra prediction encoding apparatus 101 Prediction mode selection part 102 Prediction residual signal generation part 103 Encoding part 104 Cost calculation part 105 Cost minimum value memory | storage part 106 Cost minimum value initialization part 107 Cost determination part 108 Optimal prediction mode number memory | storage Unit 109 mode selection end determination unit 110 optimum prediction mode number encoding unit 111 intra-screen prediction encoding unit

Claims (10)

画面内予測を用いて画像を符号化する画像符号化装置が実行する画像符号化方法であって、
予測画素の座標と任意の角度に設定される予測角度とに基づいて、予測画素の予測信号の生成に用いる予測直線を生成する過程と、
前記予測直線と参照画素により生成される線分との交点座標を算出する過程と、
前記交点座標と前記交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する過程と、
前記比率値と前記交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、予測画素の予測信号を生成する過程とを備えることを、
特徴とする画像符号化方法。
An image encoding method executed by an image encoding device that encodes an image using intra prediction,
A process of generating a prediction line used for generating a prediction signal of the prediction pixel based on the coordinates of the prediction pixel and the prediction angle set to an arbitrary angle;
Calculating intersection coordinates of the predicted straight line and a line segment generated by a reference pixel;
Calculating a distance between the intersection coordinates and a center coordinate of a reference pixel located at the intersection coordinates, and calculating a ratio value between the calculated distance and a reference inter-pixel distance;
Generating a prediction signal of a prediction pixel based on the ratio value and the value of a part or all of the reference pixels including the reference pixel located at the intersection coordinates,
A characteristic image encoding method.
請求項1に記載の画像符号化方法において、
前記生成した予測画素の予測信号に基づいて符号化コストを算出して、その符号化コストが最小となる予測角度を特定することで、任意の角度に設定される複数の予測角度の中から画面内予測に用いる予測角度を選択する過程を備えることを、
特徴とする画像符号化方法。
The image encoding method according to claim 1,
By calculating the encoding cost based on the prediction signal of the generated prediction pixel and specifying the prediction angle that minimizes the encoding cost, the screen can be selected from a plurality of prediction angles set to an arbitrary angle. Providing a process of selecting a prediction angle used for intra prediction,
A characteristic image encoding method.
請求項2に記載の画像符号化方法において、
予測角度に対応付けて予測モード番号を定義して、前記選択した予測角度に対応付けられる予測モード番号を符号化する過程を備えることを、
特徴とする画像符号化方法。
The image encoding method according to claim 2, wherein
Defining a prediction mode number associated with a prediction angle and encoding a prediction mode number associated with the selected prediction angle;
A characteristic image encoding method.
画面内予測を用いて符号化された画像の符号化データを復号する画像復号装置が実行する画像復号方法であって、
任意の角度に設定される複数の予測角度の中から選択された画像符号化側が画面内予測に用いた予測角度についての符号化データを復号する過程と、
予測画素の座標と前記復号した予測角度とに基づいて、画像符号化側が予測画素の予測信号の生成に用いた予測直線を生成する過程と、
前記予測直線と参照画素により生成される線分との交点座標を算出する過程と、
前記交点座標と前記交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する過程と、
前記比率値と前記交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、画像符号化側が生成した予測画素の予測信号を復元する過程と、
画像符号化側が符号化した予測残差信号の符号化データを復号して、その復号した予測残差信号と前記復元した予測信号とに基づいて復号画像信号を生成する過程とを備えることを、
特徴とする画像復号方法。
An image decoding method executed by an image decoding device that decodes encoded data of an image encoded using intra prediction,
A process of decoding the encoded data for the prediction angle used by the image encoding side selected from the plurality of prediction angles set to an arbitrary angle for intra prediction;
Based on the coordinates of the prediction pixel and the decoded prediction angle, the process of generating a prediction line used by the image encoding side to generate the prediction signal of the prediction pixel;
Calculating intersection coordinates of the predicted straight line and a line segment generated by a reference pixel;
Calculating a distance between the intersection coordinates and a center coordinate of a reference pixel located at the intersection coordinates, and calculating a ratio value between the calculated distance and a reference inter-pixel distance;
Restoring the prediction signal of the prediction pixel generated by the image encoding side based on the ratio value and the value of a part or all of the reference pixels including the reference pixel located at the intersection coordinates;
Decoding encoded data of a prediction residual signal encoded by the image encoding side, and generating a decoded image signal based on the decoded prediction residual signal and the restored prediction signal,
A characteristic image decoding method.
画面内予測を用いて画像を符号化する画像符号化装置であって、
予測画素の座標と任意の角度に設定される予測角度とに基づいて、予測画素の予測信号の生成に用いる予測直線を生成する手段と、
前記予測直線と参照画素により生成される線分との交点座標を算出する手段と、
前記交点座標と前記交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する手段と、
前記比率値と前記交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、予測画素の予測信号を生成する手段とを備えることを、
特徴とする画像符号化装置。
An image encoding device that encodes an image using intra prediction,
Means for generating a prediction line used for generating a prediction signal of the prediction pixel based on the coordinates of the prediction pixel and a prediction angle set to an arbitrary angle;
Means for calculating intersection coordinates between the predicted straight line and a line segment generated by a reference pixel;
Means for calculating a distance between the intersection coordinates and a center coordinate of a reference pixel located at the intersection coordinates, and calculating a ratio value between the calculated distance and a reference pixel distance;
Generating a prediction signal of a prediction pixel based on the ratio value and the value of a part or all of the reference pixels including the reference pixel located at the intersection coordinates,
An image encoding device.
画面内予測を用いて符号化された画像の符号化データを復号する画像復号装置であって、
任意の角度に設定される複数の予測角度の中から選択された画像符号化側が画面内予測に用いた予測角度についての符号化データを復号する手段と、
予測画素の座標と前記復号した予測角度とに基づいて、画像符号化側が予測画素の予測信号の生成に用いた予測直線を生成する手段と、
前記予測直線と参照画素により生成される線分との交点座標を算出する手段と、
前記交点座標と前記交点座標に位置する参照画素の中心座標との間の距離を算出して、その算出した距離と参照画素間距離との比率値を算出する手段と、
前記比率値と前記交点座標に位置する参照画素を含む一部又は全ての参照画素の値とに基づいて、画像符号化側が生成した予測画素の予測信号を復元する手段と、
画像符号化側が符号化した予測残差信号の符号化データを復号して、その復号した予測残差信号と前記復元した予測信号とに基づいて復号画像信号を生成する手段とを備えることを、
特徴とする画像復号装置。
An image decoding apparatus for decoding encoded data of an image encoded using intra prediction,
Means for decoding the encoded data for the prediction angle used by the image encoding side selected from the plurality of prediction angles set to an arbitrary angle for intra prediction;
Based on the coordinates of the prediction pixel and the decoded prediction angle, the image encoding side generates a prediction line used for generating the prediction signal of the prediction pixel;
Means for calculating intersection coordinates between the predicted straight line and a line segment generated by a reference pixel;
Means for calculating a distance between the intersection coordinates and a center coordinate of a reference pixel located at the intersection coordinates, and calculating a ratio value between the calculated distance and a reference pixel distance;
Means for restoring the prediction signal of the prediction pixel generated by the image encoding side based on the ratio value and the value of a part or all of the reference pixels including the reference pixel located at the intersection coordinates;
Means for decoding encoded data of a prediction residual signal encoded by the image encoding side, and generating a decoded image signal based on the decoded prediction residual signal and the restored prediction signal;
A featured image decoding apparatus.
請求項1ないし3のいずれか1項に記載の画像符号化方法をコンピュータに実行させるための画像符号化プログラム。   An image encoding program for causing a computer to execute the image encoding method according to any one of claims 1 to 3. 請求項1ないし3のいずれか1項に記載の画像符号化方法をコンピュータに実行させるための画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which an image encoding program for causing a computer to execute the image encoding method according to any one of claims 1 to 3 is recorded. 請求項4に記載の画像復号方法をコンピュータを実行させるための画像復号プログラム。   An image decoding program for causing a computer to execute the image decoding method according to claim 4. 請求項4に記載の画像復号方法をコンピュータに実行させるための画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which an image decoding program for causing a computer to execute the image decoding method according to claim 4 is recorded.
JP2008134889A 2008-05-23 2008-05-23 Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer Pending JP2009284275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134889A JP2009284275A (en) 2008-05-23 2008-05-23 Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134889A JP2009284275A (en) 2008-05-23 2008-05-23 Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer

Publications (1)

Publication Number Publication Date
JP2009284275A true JP2009284275A (en) 2009-12-03

Family

ID=41454251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134889A Pending JP2009284275A (en) 2008-05-23 2008-05-23 Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer

Country Status (1)

Country Link
JP (1) JP2009284275A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012008515A1 (en) * 2010-07-15 2012-01-19 シャープ株式会社 Decoding device and coding device
JP2013059132A (en) * 2012-12-28 2013-03-28 Sony Corp Image processing device and method, and recording medium
JP2013059131A (en) * 2012-12-28 2013-03-28 Sony Corp Image processing device and method, and recording medium
JP2013090015A (en) * 2011-10-13 2013-05-13 Nippon Hoso Kyokai <Nhk> Intra prediction apparatus, encoder, decoder and program
JP2013524730A (en) * 2010-04-12 2013-06-17 クゥアルコム・インコーポレイテッド Fixed point implementation for geometric motion segmentation
JP2013534375A (en) * 2010-07-16 2013-09-02 サムスン エレクトロニクス カンパニー リミテッド Video intra prediction encoding method, intra prediction decoding method, and apparatus thereof
CN103283232A (en) * 2011-01-14 2013-09-04 西门子公司 Methods and devices for forming a prediction value
WO2014050971A1 (en) * 2012-09-28 2014-04-03 日本電信電話株式会社 Intra-prediction coding method, intra-prediction decoding method, intra-prediction coding device, intra-prediction decoding device, programs therefor and recording mediums on which programs are recorded
JP2014112941A (en) * 2014-02-20 2014-06-19 Sony Corp Image processing device and method, and recording medium
JP2014135742A (en) * 2014-02-20 2014-07-24 Sony Corp Image processing device and method, and recording medium
JP2014519768A (en) * 2011-06-20 2014-08-14 メディア テック シンガポール ピーティーイー.リミテッド Method and apparatus for directional intra prediction
US8879632B2 (en) 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
EP2665276A4 (en) * 2011-01-14 2015-08-26 Huawei Tech Co Ltd Spatial prediction encoding method, decoding method, device, and system
US9123109B2 (en) 2009-04-24 2015-09-01 Sony Corporation Image processing device and method
JP5798550B2 (en) * 2010-04-12 2015-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Spatial prediction method and spatial prediction apparatus
US9225992B2 (en) 2010-03-31 2015-12-29 JVC Kenwood Corporation Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10755445B2 (en) 2009-04-24 2020-08-25 Sony Corporation Image processing device and method
US9123109B2 (en) 2009-04-24 2015-09-01 Sony Corporation Image processing device and method
US10755444B2 (en) 2009-04-24 2020-08-25 Sony Corporation Image processing device and method
US11107251B2 (en) 2009-04-24 2021-08-31 Sony Corporation Image processing device and method
US8879632B2 (en) 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
US10250908B2 (en) 2010-02-18 2019-04-02 Qualcomm Incorporated Adaptive transform size selection for geometric motion partitioning
US9654776B2 (en) 2010-02-18 2017-05-16 Qualcomm Incorporated Adaptive transform size selection for geometric motion partitioning
US9020030B2 (en) 2010-02-18 2015-04-28 Qualcomm Incorporated Smoothing overlapped regions resulting from geometric motion partitioning
US9225992B2 (en) 2010-03-31 2015-12-29 JVC Kenwood Corporation Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program
KR101780084B1 (en) 2010-04-12 2017-09-19 선 페이턴트 트러스트 Spatial prediction method, image decoding method, and image encoding method
JP5798550B2 (en) * 2010-04-12 2015-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Spatial prediction method and spatial prediction apparatus
US9961367B2 (en) 2010-04-12 2018-05-01 Sun Patent Trust Spatial prediction method, image decoding method, and image coding method
JP2017055409A (en) * 2010-04-12 2017-03-16 サン パテント トラスト Image decoding method and image decoding device
US9602837B2 (en) 2010-04-12 2017-03-21 Sun Patent Trust Spatial prediction method, image decoding method, and image coding method
US10567797B2 (en) 2010-04-12 2020-02-18 Sun Patent Trust Spatial prediction method, image decoding method, and image coding method
JP2013524730A (en) * 2010-04-12 2013-06-17 クゥアルコム・インコーポレイテッド Fixed point implementation for geometric motion segmentation
US9215465B2 (en) 2010-04-12 2015-12-15 Panasonic Intellectual Property Corporation Of America Spatial prediction method, image decoding method, and image coding method
JP2015213377A (en) * 2010-04-12 2015-11-26 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image encoding method and device
US10313689B2 (en) 2010-07-15 2019-06-04 Sharp Kabushiki Kaisha Decoding device, coding device, and method
JP5798556B2 (en) * 2010-07-15 2015-10-21 シャープ株式会社 Decoding device, encoding device
CN102986227A (en) * 2010-07-15 2013-03-20 夏普株式会社 Decoding device and coding device
US11405624B2 (en) 2010-07-15 2022-08-02 Sharp Kabushiki Kaisha Decoding device, coding device, and method
US11032557B2 (en) 2010-07-15 2021-06-08 Sharp Kabushiki Kaisha Decoding device, coding device, and method
US9930331B2 (en) 2010-07-15 2018-03-27 Sharp Kabushiki Kaisha Decoding and encoding devices using intra-frame prediction based on prediction modes of neighbor regions
WO2012008515A1 (en) * 2010-07-15 2012-01-19 シャープ株式会社 Decoding device and coding device
CN102986227B (en) * 2010-07-15 2016-04-20 夏普株式会社 Decoding device, code device
JP2016029827A (en) * 2010-07-16 2016-03-03 サムスン エレクトロニクス カンパニー リミテッド Intra prediction encoding method and intra prediction decoding method of image, and apparatus therefor
JP2016029826A (en) * 2010-07-16 2016-03-03 サムスン エレクトロニクス カンパニー リミテッド Intra prediction encoding method and intra prediction decoding method of image, and apparatus therefor
JP2016040923A (en) * 2010-07-16 2016-03-24 サムスン エレクトロニクス カンパニー リミテッド Intra prediction encoding method and intra prediction decoding method of image, and apparatus therefor
US9661344B2 (en) 2010-07-16 2017-05-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image through intra prediction
JP2013534375A (en) * 2010-07-16 2013-09-02 サムスン エレクトロニクス カンパニー リミテッド Video intra prediction encoding method, intra prediction decoding method, and apparatus thereof
US9654795B2 (en) 2010-07-16 2017-05-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image through intra prediction
JP2016007080A (en) * 2010-07-16 2016-01-14 サムスン エレクトロニクス カンパニー リミテッド Picture intra-prediction coding method, intra-prediction decoding method and device for the same
US10212452B2 (en) 2010-07-16 2019-02-19 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image through intra prediction
US9654796B2 (en) 2010-07-16 2017-05-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image through intra prediction
US9654797B2 (en) 2010-07-16 2017-05-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image through intra prediction
US9225985B2 (en) 2011-01-14 2015-12-29 Siemens Aktiengesellschaft Methods and devices for forming a prediction value
CN103283232A (en) * 2011-01-14 2013-09-04 西门子公司 Methods and devices for forming a prediction value
CN103283232B (en) * 2011-01-14 2016-04-13 西门子公司 For the formation of the method and apparatus of predicted value
EP2665276A4 (en) * 2011-01-14 2015-08-26 Huawei Tech Co Ltd Spatial prediction encoding method, decoding method, device, and system
US10306222B2 (en) 2011-06-20 2019-05-28 Hfi Innovation Inc. Method and apparatus of directional intra prediction
JP2014519768A (en) * 2011-06-20 2014-08-14 メディア テック シンガポール ピーティーイー.リミテッド Method and apparatus for directional intra prediction
JP2013090015A (en) * 2011-10-13 2013-05-13 Nippon Hoso Kyokai <Nhk> Intra prediction apparatus, encoder, decoder and program
KR20150042268A (en) * 2012-09-28 2015-04-20 니폰 덴신 덴와 가부시끼가이샤 Intra-prediction coding method, intra-prediction decoding method, intra-prediction coding device, intra-prediction decoding device, programs therefor and recording mediums on which programs are recorded
US9813709B2 (en) 2012-09-28 2017-11-07 Nippon Telegraph And Telephone Corporation Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding apparatus, intra-prediction decoding apparatus, program therefor and recording medium having program recorded thereon
JP5841670B2 (en) * 2012-09-28 2016-01-13 日本電信電話株式会社 Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, their program, and recording medium recording the program
WO2014050971A1 (en) * 2012-09-28 2014-04-03 日本電信電話株式会社 Intra-prediction coding method, intra-prediction decoding method, intra-prediction coding device, intra-prediction decoding device, programs therefor and recording mediums on which programs are recorded
KR101650532B1 (en) 2012-09-28 2016-08-23 니폰 덴신 덴와 가부시끼가이샤 Intra-prediction coding method, intra-prediction decoding method, intra-prediction coding device, intra-prediction decoding device, programs therefor and recording mediums on which programs are recorded
JP2016027756A (en) * 2012-09-28 2016-02-18 日本電信電話株式会社 Intra-prediction coding method, intra-prediction decoding method, intra-prediction encoder, intra-prediction decoder, their program and recording medium recording them
JP2013059131A (en) * 2012-12-28 2013-03-28 Sony Corp Image processing device and method, and recording medium
JP2013059132A (en) * 2012-12-28 2013-03-28 Sony Corp Image processing device and method, and recording medium
JP2014135742A (en) * 2014-02-20 2014-07-24 Sony Corp Image processing device and method, and recording medium
JP2014112941A (en) * 2014-02-20 2014-06-19 Sony Corp Image processing device and method, and recording medium

Similar Documents

Publication Publication Date Title
JP2009284275A (en) Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer
US20220295098A1 (en) Method and apparatus for decoding video signal
KR102035565B1 (en) Video encoding/decoding method and apparatus using prediction based on in-loop filtering
JP6047614B2 (en) Video decoding device
JP5063677B2 (en) VIDEO ENCODING METHOD AND DECODING METHOD, DEVICE THEREOF, THEIR PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
TWI524780B (en) Multiple sign bit hiding within a transform unit
JP5611498B1 (en) Video decoding method and apparatus
KR101700966B1 (en) Methods and apparatus for illumination compensation of intra-predicted video
TWI415478B (en) Image encoding apparatus and decoding apparatus, image encoding method and decoding method, programs therefor, and storage media for storing the programs
US8363967B2 (en) Method and apparatus for intraprediction encoding/decoding using image inpainting
US8391369B2 (en) Method and apparatus for encoding and decoding based on intra prediction
JP2009177787A (en) Video encoding and decoding methods and apparatuses
US20150063452A1 (en) High efficiency video coding (hevc) intra prediction encoding apparatus and method
JP2009111691A (en) Image-encoding device and encoding method, and image-decoding device and decoding method
US20170289567A1 (en) Image coding apparatus, method for coding image, program therefor, image decoding apparatus, method for decoding image, and program therefor
JP4995789B2 (en) Intra-screen predictive encoding method, intra-screen predictive decoding method, these devices, their programs, and recording media recording the programs
JP2006141016A (en) Method and apparatus for encoding and decoding image data, and recording medium
JP2014530557A (en) Video decoding device
JP2022000953A (en) Intra prediction device, image encoding device, image decoding device and program
US20220232237A1 (en) Image decoding device using tool set and image decoding method thereby, and image encoding device and image encoding method thereby
JP7332385B2 (en) Intra prediction device, image coding device, image decoding device, and program
JP2010283739A (en) Moving image encoding device
JP4831114B2 (en) Image encoding device, image encoding program, image decoding device, and image decoding program
JP6886825B2 (en) Predictors, encoders, decoders, and programs
Joan et al. Data Embedding with Dynamic Slice Quantisation in Versatile Video Coding

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331