JP5222878B2 - Intra prediction apparatus, encoder, decoder, and program - Google Patents

Intra prediction apparatus, encoder, decoder, and program Download PDF

Info

Publication number
JP5222878B2
JP5222878B2 JP2010068889A JP2010068889A JP5222878B2 JP 5222878 B2 JP5222878 B2 JP 5222878B2 JP 2010068889 A JP2010068889 A JP 2010068889A JP 2010068889 A JP2010068889 A JP 2010068889A JP 5222878 B2 JP5222878 B2 JP 5222878B2
Authority
JP
Japan
Prior art keywords
prediction
pixel
image
unit
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010068889A
Other languages
Japanese (ja)
Other versions
JP2011205259A (en
Inventor
和久 井口
慎一 境田
善明 鹿喰
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2010068889A priority Critical patent/JP5222878B2/en
Publication of JP2011205259A publication Critical patent/JP2011205259A/en
Application granted granted Critical
Publication of JP5222878B2 publication Critical patent/JP5222878B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、任意の方向のイントラ予測が可能なイントラ予測装置、符号化器、復号器及びプログラムに関する。   The present invention relates to an intra prediction apparatus, an encoder, a decoder, and a program that can perform intra prediction in an arbitrary direction.

MPEG−4 AVC/H.264方式では、インター予測(画面間予測)を用いずに符号化される画素ブロックに対して、符号化済み隣接ブロックの画素値から予測画像を生成し、その予測画像との差分を符号化するイントラ予測符号化(画面内予測符号化)が採用されている。   MPEG-4 AVC / H. In the H.264 system, for a pixel block that is encoded without using inter prediction (inter-screen prediction), a prediction image is generated from the pixel values of the encoded adjacent blocks, and a difference from the prediction image is encoded. Intra-prediction coding (intra-screen prediction coding) is employed.

図18に、従来のMPEG−4 AVC/H.264方式における符号化器4のブロック図を示す。符号化器4は、並べ替え部21と、減算部22と、直交変換部23と、量子化部24と、可変長符号化部25と、逆量子化部26と、逆直交変換部27と、切替えスイッチ28と、イントラ予測部29と、フレームメモリ30と、動き補償予測部31と、加算部32とを備える。   18 shows a conventional MPEG-4 AVC / H. The block diagram of the encoder 4 in a H.264 system is shown. The encoder 4 includes a rearrangement unit 21, a subtraction unit 22, an orthogonal transformation unit 23, a quantization unit 24, a variable length coding unit 25, an inverse quantization unit 26, and an inverse orthogonal transformation unit 27. A changeover switch 28, an intra prediction unit 29, a frame memory 30, a motion compensation prediction unit 31, and an addition unit 32.

並べ替え部21は、入力された映像信号を一時的に蓄積し、フレーム画像の順番を並べ替え、符号化処理に必要なフレーム画像を減算部22及び動き補償予測部31に出力する。   The rearrangement unit 21 temporarily stores the input video signal, rearranges the order of the frame images, and outputs the frame image necessary for the encoding process to the subtraction unit 22 and the motion compensation prediction unit 31.

動き補償予測部31は、並べ替え部21から供給される入力画像に対して、フレームメモリ30から取得する参照画像を用いて動きベクトル検出を行い、得られた動きベクトルを用いて動き補償を行い、その結果得られた予測画像を、切替えスイッチ28を介して減算部22及び加算部32に出力する。動きベクトルの情報は、可変長符号化部25に出力する。   The motion compensation prediction unit 31 performs motion vector detection on the input image supplied from the rearrangement unit 21 using a reference image acquired from the frame memory 30, and performs motion compensation using the obtained motion vector. Then, the predicted image obtained as a result is output to the subtraction unit 22 and the addition unit 32 via the changeover switch 28. The motion vector information is output to the variable length coding unit 25.

減算部22は、並べ替え部21からの入力画像信号と、動き補償予測部31又はイントラ予測部29からの予測画像との差分画像を生成して直交変換部23に出力する。   The subtraction unit 22 generates a difference image between the input image signal from the rearrangement unit 21 and the predicted image from the motion compensation prediction unit 31 or the intra prediction unit 29 and outputs the difference image to the orthogonal transformation unit 23.

直交変換部23は、減算部22から供給される差分画像に対して小領域の画素ブロックごとに直交変換(例えば、DCT;DiLcrete CoLine TranLform)を施し、直交変換係数を量子化部24に出力する。   The orthogonal transform unit 23 subjects the difference image supplied from the subtraction unit 22 to orthogonal transform (for example, DCT; DiLcrete CoLine TranLform) for each small-area pixel block, and outputs the orthogonal transform coefficient to the quantization unit 24. .

量子化部24は、直交変換部23から入力される直交変換係数に対して量子化テーブルを選択して量子化処理を行い、可変長符号化部25及び逆量子化部26に出力する。   The quantization unit 24 selects a quantization table for the orthogonal transform coefficient input from the orthogonal transform unit 23, performs quantization processing, and outputs the quantization table to the variable length coding unit 25 and the inverse quantization unit 26.

可変長符号化部25は、量子化部24から入力される量子化された直交変換係数についてスキャンを行って可変長符号化処理を施しビットストリームを生成するとともに、動き補償予測部31から入力される動きベクトルの情報も可変長符号化を施して出力する。   The variable length encoding unit 25 scans the quantized orthogonal transform coefficient input from the quantization unit 24 and performs variable length encoding processing to generate a bitstream, and also receives the input from the motion compensation prediction unit 31. The motion vector information is also subjected to variable length coding and output.

逆量子化部26は、量子化部24から入力される量子化された直交変換係数について逆量子化処理を行って逆直交変換部27に出力する。   The inverse quantization unit 26 performs an inverse quantization process on the quantized orthogonal transform coefficient input from the quantization unit 24 and outputs the result to the inverse orthogonal transform unit 27.

逆直交変換部27は、逆量子化部26から入力される直交変換係数に対して逆直交変換(例えば、IDCT;InverLe DiLcrete CoLine TranLform)を施し、加算部32に出力する。   The inverse orthogonal transform unit 27 performs inverse orthogonal transform (for example, IDCT; Inverse Le Dicrete CoLine TranLform) on the orthogonal transform coefficient input from the inverse quantization unit 26 and outputs the result to the addition unit 32.

加算部32は、逆直交変換部27から得られる逆直交変換した画像と、動き補償予測部31又はイントラ予測部29から得られる予測画像とを加算処理して復号画像を生成し、イントラ予測部29及びフレームメモリ30に出力する。   The addition unit 32 adds the image obtained by the inverse orthogonal transform obtained from the inverse orthogonal transform unit 27 and the prediction image obtained from the motion compensation prediction unit 31 or the intra prediction unit 29 to generate a decoded image, and generates an intra prediction unit. 29 and the frame memory 30.

切替えスイッチ28は、動き補償予測とイントラ予測とを切替える。   The changeover switch 28 switches between motion compensation prediction and intra prediction.

イントラ予測部29は、既符号化ブロックを復号した画像(加算部32の出力画像)からイントラ予測した予測画像を生成して減算部22及び加算部32に出力する。ここで、減算部22では、この予測画像と原画像との差分画像を直交変換部23に出力し、量子化部24及び可変長符号化部25を経て符号化する。   The intra prediction unit 29 generates a predicted image that is intra-predicted from the image obtained by decoding the already-encoded block (the output image of the addition unit 32), and outputs the prediction image to the subtraction unit 22 and the addition unit 32. Here, the subtraction unit 22 outputs the difference image between the predicted image and the original image to the orthogonal transform unit 23 and encodes it via the quantization unit 24 and the variable length coding unit 25.

イントラ予測は、4画素×4ライン単位、8画素×8ライン単位、又は16画素×16ライン単位で行われ、複数種類の予測モード(予測方向)(例えば、4画素×4ライン単位の予測については9種類)の中から最適な予測方向を選択する。図19は、4画素×4ライン単位で予測する場合の予測モードを示す図である。図中の斜線付の丸は復号済みの画素を示し、白丸は予測対象の画素を示し、矢印は予測方向を示している。(a)の予測モード0では垂直方向予測、(b)の予測モード1では水平方向予測、(c)の予測モード2ではDC予測、(d)の予測モード3では対角左下方向予測、(e)の予測モード4では対角右下方向予測、(f)の予測モード5では垂直右方向予測、(g)の予測モード6では水平下方向予測、(h)の予測モード7では垂直左方向予測、(i)の予測モード8では水平上方向予測を行う。以上が、MPEG−4 AVC/H.264方式におけるイントラ予測の技法である。   Intra prediction is performed in units of 4 pixels × 4 lines, 8 pixels × 8 lines, or 16 pixels × 16 lines, and a plurality of types of prediction modes (prediction directions) (for example, prediction in units of 4 pixels × 4 lines). Selects the optimum prediction direction from among nine types. FIG. 19 is a diagram illustrating a prediction mode when prediction is performed in units of 4 pixels × 4 lines. In the figure, hatched circles indicate decoded pixels, white circles indicate pixels to be predicted, and arrows indicate prediction directions. (A) Prediction mode 0 is vertical direction prediction, (b) Prediction mode 1 is horizontal direction prediction, (c) Prediction mode 2 is DC prediction, (d) Prediction mode 3 is diagonal lower left direction prediction, ( e) Prediction mode 4 in diagonal lower right direction prediction, (f) prediction mode 5 in vertical right direction prediction, (g) prediction mode 6 in horizontal down direction prediction, and (h) prediction mode 7 in vertical left direction. In the prediction mode 8 of (i), horizontal upward prediction is performed. The above is MPEG-4 AVC / H. This is a technique of intra prediction in the H.264 system.

また、イントラ予測の精度を上げるために、空間的に離れた画素を参照するのではなく、常に隣接する画素を参照して隣接画素間の差分値を符号化する技法や(例えば、特許文献1参照)、予測ブロックに隣接する画素の値と該ブロックから1画素以上間をおいた画素の値とに基づいてイントラ予測を行う技法が知られている(例えば、特許文献2参照)。また、画素値が一定の変化傾向を持つ絵柄の映像に対する予測性能を向上させるために、イントラ符号化における予測値として、隣接する復号画像の周波数特性を考慮した値を生成する技法が知られている(例えば、特許文献3参照)。更に、動き補償予測でイントラ予測を行い、動きベクトルは伝送せずに、復号器側でも動きベクトル検出を行う技法が知られている(例えば、特許文献4参照)。   In addition, in order to increase the accuracy of intra prediction, a technique of encoding a difference value between adjacent pixels by always referring to adjacent pixels instead of referring to spatially separated pixels (for example, Patent Document 1). And a technique for performing intra prediction based on the value of a pixel adjacent to a prediction block and the value of a pixel that is at least one pixel from the block (see, for example, Patent Document 2). Also known is a technique for generating a value that takes into account the frequency characteristics of adjacent decoded images as a prediction value in intra coding in order to improve the prediction performance for a picture image whose pixel value has a certain change tendency. (For example, see Patent Document 3). Furthermore, a technique is known in which intra prediction is performed by motion compensation prediction, and a motion vector is detected on the decoder side without transmitting a motion vector (see, for example, Patent Document 4).

特開2009―049969号公報JP 2009-049969 A 特開2008−271371号公報JP 2008-271371 A 特開2008−245088号公報JP 2008-245088 A 特開2007−043651号公報JP 2007-036551 A

しかし、従来の方向性を持ったイントラ予測方法は、あらかじめ定められたパターンの中から選択していたため、対象とする画像によっては適切なイントラ予測方向が選択できないという問題があった。また、イントラ予測の方向を伝送する必要があるため、伝送情報量が増大するという問題があった。更に、動き補償予測によりイントラ予測を行うと、復号器に膨大な演算を必要とするという問題があった。   However, since the conventional intra prediction method having directionality is selected from predetermined patterns, there is a problem that an appropriate intra prediction direction cannot be selected depending on the target image. In addition, since it is necessary to transmit the direction of intra prediction, there is a problem that the amount of transmission information increases. Furthermore, when intra prediction is performed by motion compensation prediction, there is a problem that a huge amount of computation is required for the decoder.

本発明の目的は、上記問題を解決するため、イントラ予測の方向をあらかじめ定められたパターンに限定せず、任意の方向のイントラ予測を可能とし、イントラ予測の方向を伝送しないことでビットレートを削減し、さらに、復号器に膨大な演算を必要とさせないイントラ予測装置、並びに符号化器、復号器及びプログラムを提供することにある。   In order to solve the above problem, the object of the present invention is not to limit the direction of intra prediction to a predetermined pattern, but enables intra prediction in an arbitrary direction, and does not transmit the direction of intra prediction, thereby reducing the bit rate. Another object of the present invention is to provide an intra-prediction device, an encoder, a decoder, and a program that can be reduced and that does not require an enormous operation in the decoder.

上記課題を解決するため、本発明は、直接参照画素値の外挿によりイントラ予測を行う。外挿の方向は、間接参照画素から求める。   In order to solve the above-mentioned problem, the present invention performs intra prediction by extrapolation of direct reference pixel values. The direction of extrapolation is obtained from indirect reference pixels.

すなわち、本発明に係るイントラ予測装置は、予測の対象である予測ブロックに隣接する復号済みの参照ブロックの画像から、該予測ブロックの画像を予測画像として生成するイントラ予測装置であって、前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線であって、前記予測ブロックの画像のエッジ方向を推定する直線であるエッジ推定直線を生成するエッジ推定直線生成手段と、前記間接参照画素のうち予測画像の画素値の算出に用いる画素を直接参照画素として選定し、予測ブロックの画素ごとに、前記エッジ推定直線上に存在する直接参照画素を抽出する直接参照画素抽出手段と、前記直接参照画素に基づいて予測ブロックの予測画像を生成する無方向予測手段とを備えることを特徴とする。   That is, the intra prediction apparatus according to the present invention is an intra prediction apparatus that generates an image of a prediction block as a prediction image from an image of a decoded reference block adjacent to a prediction block that is a prediction target. Edge estimation straight line generating means for selecting a pixel included in a block as an indirect reference pixel and generating an edge estimation straight line that is a straight line that passes through a plurality of indirect reference pixels and that estimates the edge direction of the image of the prediction block And a direct reference pixel that selects a pixel used for calculation of a pixel value of a predicted image from among the indirect reference pixels as a direct reference pixel, and extracts a direct reference pixel that exists on the edge estimation straight line for each pixel of the prediction block An extraction means; and a non-directional prediction means for generating a prediction image of a prediction block based on the direct reference pixels. .

また、本発明に係るイントラ予測装置において、前記エッジ推定直線生成手段は、前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線を規定し、該直線上に存在する複数の間接参照画素の差を示す指標を算出する手段と、前記間接参照画素の差の指標が最小となる直線を前記エッジ推定直線とし、該エッジ推定直線の傾きを求める係数最適化手段とを有することを特徴とする。   In the intra prediction apparatus according to the present invention, the edge estimation straight line generation unit selects pixels included in the reference block as indirect reference pixels, defines straight lines passing through a plurality of indirect reference pixels, and is on the straight lines. Means for calculating an index indicating a difference between a plurality of indirect reference pixels, and coefficient optimization means for obtaining a slope of the edge estimation line by setting a straight line having a minimum difference index of the indirect reference pixels as the edge estimation line. It is characterized by having.

また、本発明に係るイントラ予測装置において、前記係数最適化手段は、前記間接参照画素の差の指標を、前記エッジ推定直線上に存在する隣り合う間接参照画素間の差の二乗和、又は前記エッジ推定直線上に存在する間接参照画素の分散値とすることを特徴とする。   Further, in the intra prediction apparatus according to the present invention, the coefficient optimization unit may use the index of the difference between the indirect reference pixels as a square sum of the differences between adjacent indirect reference pixels existing on the edge estimation line, or A variance value of indirect reference pixels existing on the edge estimation straight line is used.

また、本発明に係るイントラ予測装置において、前記直接参照画素抽出手段は、前記間接参照画素のうち予ブロックに隣接する画素を直接参照画素に含むことを特徴とする。 Further, the intra prediction apparatus according to the present invention, the direct reference pixel extracting means may comprise a direct reference pixels pixels adjacent to the predicted block of the indirect reference pixel.

また、本発明に係るイントラ予測装置において、前記無方向予測手段は、前記予測ブロックの画素ごとに抽出した直接参照画素が1つの場合には、該直接参照画素の値、又は該直接参照画素と該直接参照画素に隣接する画素との平均値若しくは加重平均値を予測値とし、前記予測ブロックの画素ごとに抽出した直接参照画素が複数ある場合には、前記予測ブロックの画素に最も近い直接参照画素、該抽出した直接参照画素の平均値若しくは加重平均値、又は前記エッジ推定直線上の全ての間接参照画素及び直接参照画素の平均値を予測値とし、前記予測ブロックの画素ごとに抽出した直接参照画素が存在しない場合には、前記エッジ推定直線に最も近い直接参照画素、前記予測ブロックの画素の近傍の予測済み画素の値の平均値、又は全ての直接参照画素の平均値を予測値とすることを特徴とする。   Further, in the intra prediction apparatus according to the present invention, the non-directional prediction means, when there is one direct reference pixel extracted for each pixel of the prediction block, the value of the direct reference pixel or the direct reference pixel When there is a plurality of direct reference pixels extracted for each pixel of the prediction block, using the average value or the weighted average value of pixels adjacent to the direct reference pixel as a prediction value, the direct reference closest to the pixel of the prediction block A pixel, an average value or a weighted average value of the extracted direct reference pixels, or an average value of all the indirect reference pixels and the direct reference pixels on the edge estimation line is used as a prediction value, and a direct extracted for each pixel of the prediction block. If no reference pixel exists, the direct reference pixel closest to the edge estimation line, the average value of predicted pixels in the vicinity of the pixel of the prediction block, or all The average value of the contact reference pixels, characterized in that the predicted values.

また、本発明に係るイントラ予測装置において、前記間接参照画素の差の指標が、所定の値を超えるか否かを判定する手段と、前記参照ブロックの画像から予測画像を生成する画面内予測手段と、前記指標が前記所定の値以下である場合には、前記無方向予測手段により生成した予測画像を出力し、前記指標が前記所定の値を超える場合には、前記画面内予測手段により生成した予測画像を出力する手段とを備えることを特徴とする。   Further, in the intra prediction apparatus according to the present invention, means for determining whether or not the index of the difference between the indirect reference pixels exceeds a predetermined value, and intra-screen prediction means for generating a prediction image from the image of the reference block When the index is less than or equal to the predetermined value, the prediction image generated by the non-directional prediction means is output, and when the index exceeds the predetermined value, the prediction image generated by the in-screen prediction means And a means for outputting the predicted image.

また、本発明に係るイントラ予測装置において、前記画面内予測手段は、前記参照ブロックの画像から予測方向を選択して予測画像を生成することを特徴とする。   In the intra prediction apparatus according to the present invention, the intra-screen prediction means generates a predicted image by selecting a prediction direction from the image of the reference block.

また、本発明に係るイントラ予測装置において、前記エッジ推定直線生成手段、前記直接参照画素抽出手段、及び前記無方向予測手段は、複数の処理モードを有し、処理モードごとに、間接参照画素の位置、直接参照画素の位置、又は前記エッジ推定直線の係数の導出方法が異なり、前記無方向予測手段は、前記処理モードごとに予測画像を生成し、更に、前記処理モードごとに生成した予測画像の中から予測画像を選択して出力する判定手段を備えることを特徴とする。   In the intra prediction apparatus according to the present invention, the edge estimation straight line generation unit, the direct reference pixel extraction unit, and the non-direction prediction unit have a plurality of processing modes, and each of the processing modes has an indirect reference pixel. The position, the position of the direct reference pixel, or the derivation method of the coefficient of the edge estimation straight line is different, and the non-directional prediction unit generates a predicted image for each processing mode, and further generates a predicted image for each processing mode. The image processing apparatus includes a determination unit that selects and outputs a predicted image from among the images.

更に、本発明に係る符号化器は、上述したイントラ予測装置を備えることを特徴とする。   Furthermore, an encoder according to the present invention includes the intra prediction apparatus described above.

更に、本発明に係る復号器は、上述したイントラ予測装置を備えることを特徴とする。   Furthermore, a decoder according to the present invention includes the above-described intra prediction device.

更に、本発明は、予測の対象である予測ブロックに隣接する復号済みの参照ブロックの画像から、該予測ブロックの画像を予測画像として生成するイントラ予測装置を構成するコンピュータに、(a)前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線であって、前記予測ブロックの画像のエッジ方向を推定する直線であるエッジ推定直線を生成するステップと、(b)前記間接参照画素のうち予測画像の画素値の算出に用いる画素を直接参照画素として選定し、予測ブロックの画素ごとに、前記エッジ推定直線上に存在する直接参照画素を抽出するステップと、(c)前記直接参照画素に基づいて予測ブロックの予測画像を生成するステップと、を実行させるためのプログラムとしても特徴付けられる。   Furthermore, the present invention provides a computer constituting an intra prediction apparatus that generates an image of a prediction block as a prediction image from an image of a decoded reference block adjacent to a prediction block to be predicted. Selecting a pixel included in the block as an indirect reference pixel and generating an edge estimation line that is a straight line that passes through a plurality of indirect reference pixels and that estimates the edge direction of the image of the prediction block; ) Selecting a pixel used for calculation of a pixel value of a predicted image from among the indirect reference pixels as a direct reference pixel, and extracting a direct reference pixel existing on the edge estimation line for each pixel of the prediction block; c) generating a prediction image of a prediction block based on the direct reference pixels, and also characterized as a program for executing It is.

本発明では、イントラ予測の方向が限定されないため、様々な画像に対して適したイントラ予測が可能となる。また、イントラ予測の方向を計算により求めるため、イントラ予測の方向を伝送する必要がなくなる。さらに、イントラ予測の方向を計算する計算量も軽微で済む。   In the present invention, since the direction of intra prediction is not limited, intra prediction suitable for various images can be performed. Further, since the direction of intra prediction is obtained by calculation, it is not necessary to transmit the direction of intra prediction. Furthermore, the amount of calculation for calculating the direction of intra prediction is small.

本発明によるイントラ予測を行う画像ブロックを例示する図である。It is a figure which illustrates the image block which performs intra prediction by this invention. 本発明によるエッジ推定直線を例示する図である。It is a figure which illustrates the edge estimation straight line by this invention. 本発明によるエッジ推定直線を例示する図である。It is a figure which illustrates the edge estimation straight line by this invention. 本発明によるエッジ推定直線を例示する図である。It is a figure which illustrates the edge estimation straight line by this invention. 本発明による実施例1のイントラ予測装置の構成図である。It is a block diagram of the intra prediction apparatus of Example 1 by this invention. 本発明によるイントラ予測を行う画像ブロックを例示する図である。It is a figure which illustrates the image block which performs intra prediction by this invention. 本発明による実施例1のイントラ予測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the intra prediction apparatus of Example 1 by this invention. 本発明による実施例1のイントラ予測装置を備える符号化器の構成図である。It is a block diagram of an encoder provided with the intra prediction apparatus of Example 1 by this invention. 本発明による実施例1のイントラ予測装置を備える復号器の構成図である。It is a block diagram of a decoder provided with the intra prediction apparatus of Example 1 by this invention. 本発明による実施例2のイントラ予測装置の構成図である。It is a block diagram of the intra prediction apparatus of Example 2 by this invention. 本発明による実施例2のイントラ予測装置の第1の変形例の構成図である。It is a block diagram of the 1st modification of the intra prediction apparatus of Example 2 by this invention. 本発明による実施例2のイントラ予測装置の第2の変形例の構成図である。It is a block diagram of the 2nd modification of the intra prediction apparatus of Example 2 by this invention. 本発明による実施例3のイントラ予測装置の構成図である。It is a block diagram of the intra prediction apparatus of Example 3 by this invention. 本発明による実施例2のイントラ予測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the intra prediction apparatus of Example 2 by this invention. 本発明による実施例3のイントラ予測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the intra prediction apparatus of Example 3 by this invention. 本発明による実施例4のイントラ予測装置の構成図である。It is a block diagram of the intra prediction apparatus of Example 4 by this invention. 予測画素値曲面を例示する図である。It is a figure which illustrates a prediction pixel value curved surface. 従来のMPEG−4 AVC/H.264方式における符号化器のブロック図である。Conventional MPEG-4 AVC / H. 2 is a block diagram of an encoder in the H.264 scheme. FIG. 従来のMPEG−4 AVC/H.264方式における4画素×4ライン単位で予測する場合の予測モードを示す図である。Conventional MPEG-4 AVC / H. It is a figure which shows the prediction mode in the case of estimating by 4 pixel x4 line unit in a H.264 system.

本発明による実施例1のイントラ予測装置について、図面を参照して詳細に説明する。   The intra prediction apparatus of Example 1 by this invention is demonstrated in detail with reference to drawings.

本発明によるイントラ予測方法では、まず直接参照画素と間接参照画素とを規定する。ここで、間接参照画素とは、復号済みの画素であって、外挿の方向を求めるために用いる画素のことをいう。直接参照画素とは、復号済みの画素であって、外挿による予測値の計算に用いる画素のことをいう。間接参照画素と直接参照画素とは同一であっても異なっていてもよい。   In the intra prediction method according to the present invention, first, direct reference pixels and indirect reference pixels are defined. Here, the indirect reference pixel refers to a pixel that has been decoded and is used for obtaining an extrapolation direction. A direct reference pixel is a pixel that has been decoded and is used to calculate a predicted value by extrapolation. The indirect reference pixel and the direct reference pixel may be the same or different.

図1は、本発明によるイントラ予測を行う画像ブロックを例示する図である。画像ブロックMは、イントラ予測の対象となる画像ブロック(以下、「予測ブロック」という)である。画像ブロックA,B,C,Dは、符号化された後に復号された画像ブロックであり、予測ブロックの画素値を予測するために参照される画像ブロック(以下、「参照ブロック」という)である。各画像ブロックのサイズは、図1の例では、4画素×4ラインの場合について示しているが、8画素×8ラインや16画素×16ラインであってもよい。   FIG. 1 is a diagram illustrating an image block for performing intra prediction according to the present invention. The image block M is an image block (hereinafter referred to as “prediction block”) that is a target of intra prediction. Image blocks A, B, C, and D are image blocks that have been encoded and then decoded, and are image blocks that are referred to in order to predict pixel values of a prediction block (hereinafter referred to as “reference blocks”). . The size of each image block is shown for the case of 4 pixels × 4 lines in the example of FIG. 1, but may be 8 pixels × 8 lines or 16 pixels × 16 lines.

図1(a)の斜線付きの丸は、直接参照画素を示す。直接参照画素には予ブロックMに隣接する画素を含めるが好適である。以下では、図1(a)に示すように、参照ブロックA〜Dに含まれる全画素を間接参照画素とし、間接参照画素のうちx軸又はy軸に接する画素を直接参照画素とする場合について説明するが、直接参照画素と間接参照画素の配置はこれに限られない。例えば、図1(b)の斜線付きの丸に示すようにx軸及びy軸に接する2画素(2ライン)を直接参照画素及び/又は間接参照画素とすることや、図1(c)に示す斜線付きの丸のように隙間がある画素群を直接参照画素及び/又は間接参照画素とすることもできる。また、間接参照画素として常に同じ位置の画素を用いる必要はなく、どの位置の画素を間接参照画素とするかを画像に応じて切替えてもよい。例えば、参照ブロックAに含まれる画素、参照ブロックBに含まれる画素、参照ブロックDに含まれる画素、参照ブロックA,B,Dに含まれる画素の4種類を切替え、この切り替え情報を復号器に送信するようにしてもよい。 A circle with hatching in FIG. 1A directly indicates a reference pixel. The direct reference pixels include pixels adjacent to the predicted block M is suitable. In the following, as shown in FIG. 1A, all pixels included in the reference blocks A to D are indirect reference pixels, and among the indirect reference pixels, pixels that are in contact with the x-axis or y-axis are directly reference pixels. As will be described, the arrangement of the direct reference pixels and the indirect reference pixels is not limited to this. For example, as shown by the hatched circle in FIG. 1B, two pixels (two lines) in contact with the x-axis and y-axis may be used as direct reference pixels and / or indirect reference pixels, or in FIG. A pixel group having a gap such as a hatched circle may be used as a direct reference pixel and / or an indirect reference pixel. In addition, it is not always necessary to use a pixel at the same position as the indirect reference pixel, and the position of the pixel as the indirect reference pixel may be switched according to the image. For example, four types of pixels, a pixel included in the reference block A, a pixel included in the reference block B, a pixel included in the reference block D, and a pixel included in the reference blocks A, B, and D are switched, and this switching information is transmitted to the decoder. You may make it transmit.

図2は、本発明によるエッジ方向を推定する直線(以下、「エッジ推定直線」という)を例示する図である。以下では、画像ブロック内の各画素を(x,y)座標で表し、画素(x,y)の画素値をz(x,y)と表すこととする。また、図中に示すように、予測ブロックMの最も原点に近い画素を(0,0)とする。エッジ推定直線Lは、間接参照画素(x,y)(i=1〜N、Nは間接参照画素数)を通り、式(1)で表される互いに平行な直線のうち、複数の間接参照画素上を通る直線である。本発明によるイントラ予測装置は、同一のエッジ推定直線L上に存在する間接参照画素の値の差を示す指標を最小とするエッジ推定直線Lの傾き、すなわち係数a,bを推定(導出)する。ここで、差を示す指標とは、分散、差の絶対値和、差の絶対値の最小値、差の二乗和又は差の絶対値の積や、更にこれらの画素あたりの平均値など、種々の方法によって定まる差の値の総称である。また、以下の説明における「差」という用語は、差を示す指標を意味するものとする。間接参照画素の値の差を最小とするエッジ推定直線Lの傾きが求まれば、その傾きが参照ブロックA〜D、及び予測ブロックMのエッジの傾きであると推定することができ、エッジ推定直線Lを用いて予測画像Mの画像を予測することができるようになる。 FIG. 2 is a diagram illustrating a straight line for estimating the edge direction according to the present invention (hereinafter referred to as “edge estimated straight line”). Hereinafter, each pixel in the image block is represented by (x, y) coordinates, and the pixel value of the pixel (x, y) is represented by z (x, y). Further, as shown in the figure, the pixel closest to the origin of the prediction block M is set to (0, 0). The edge estimation straight line L passes through the indirect reference pixels (x i , y i ) (i = 1 to N, N is the number of indirect reference pixels), and among a plurality of straight lines represented by the formula (1), It is a straight line passing over an indirect reference pixel. The intra prediction apparatus according to the present invention estimates (derived) the slope of the edge estimation line L that minimizes the index indicating the difference between the values of the indirect reference pixels existing on the same edge estimation line L, that is, the coefficients a and b. . Here, the index indicating the difference includes various values such as variance, the sum of the absolute values of the differences, the minimum value of the absolute values of the differences, the product of the sum of squares of the differences or the absolute values of the differences, and the average value per pixel. This is a generic term for the difference values determined by the method. Further, the term “difference” in the following description means an index indicating the difference. If the slope of the edge estimation line L that minimizes the difference between the values of the indirect reference pixels is obtained, it can be estimated that the slope is the slope of the edges of the reference blocks A to D and the prediction block M, and edge estimation is performed. The image of the predicted image M can be predicted using the straight line L.

Figure 0005222878
Figure 0005222878

間接参照画素の値の差を最小とする係数a,bの導出には、例えば最小二乗法、線型計画法、ニューラルネットワークを用いた学習法等の最適化手段を利用可能である。   For deriving the coefficients a and b that minimize the difference between the values of the indirect reference pixels, for example, optimization means such as a least square method, a linear programming method, a learning method using a neural network, or the like can be used.

最適化手段として最小二乗法を用いる場合について、図3を参照して説明する。図3は、エッジ推定直線Lを例示する図であり、それぞれ、(a)は傾き45度の場合、(b)は傾きが90度の場合、(c)は傾きが0度の場合のエッジ推定直線Lを示している。図3から明らかなように、エッジ推定直線Lの本数は、傾きに応じて変化し、傾きが(a)の45度の場合は13本であり、(b)の90度の場合は12本であり、(c)の0度の場合は8本となる。なお、図3では2つ以上の間接参照画素を通る直線全てをエッジ推定直線Lとして用いているが、これらのうちの一部の直線のみをエッジ推定直線Lとして用いてもよい(ただし、符号化器と復号器で共通にする必要はある)。例えば、2つ以上の間接参照画素を通り予測ブロックを通る直線だけを、エッジ推定直線Lとして用いることもできる。この場合、図3(a)ではL8〜L13をエッジ推定直線として用い、図3(b)ではL5〜L8をエッジ推定直線として用い、図3(c)ではL5〜L8をエッジ推定直線として用いる。 The case where the least square method is used as the optimization means will be described with reference to FIG. FIGS. 3A and 3B are diagrams illustrating the edge estimation straight line L. FIG. 3A is an edge when the inclination is 45 degrees, FIG. 3B is an edge when the inclination is 90 degrees, and FIG. 3C is an edge when the inclination is 0 degrees. An estimated straight line L is shown. As is apparent from FIG. 3, the number of edge estimation straight lines L changes according to the inclination, and is 13 when the inclination is 45 degrees (a) and 12 when the inclination is 90 degrees (b). In the case of 0 degree in (c), the number is 8. In FIG. 3, all straight lines passing through two or more indirect reference pixels are used as the edge estimation straight line L, but only some of these straight lines may be used as the edge estimation straight line L (however, reference numerals Need to be shared between the decoder and the decoder). For example, only a straight line passing through two or more indirect reference pixels and passing through a prediction block can be used as the edge estimation straight line L. In this case, using the L 8 ~L 13 in FIGS. 3 (a) as an edge estimation linear, using L 5 ~L 8 in FIG. 3 (b) as an edge estimation linear, FIG 3 (c) the L 5 ~L 8 Are used as edge estimation straight lines.

誤差の二乗和は、エッジ推定直線L(k=1〜α、αはエッジ推定直線Lの本数)上に存在する間接参照画素の値の差の二乗の合計であり、この誤差の二乗和が最小となる係数a,bを導出する。エッジ推定直線Lの本数は傾きに応じて異なるため、誤差の二乗和Pの直線当たりの平均値Vは、式(2)で表される。 The sum of squared errors is the sum of the squares of the differences of the values of the indirect reference pixels existing on the edge estimation line L k (k = 1 to α, α is the number of edge estimation lines L). Deriving coefficients a and b that minimizes. Since the number of the edge estimation straight lines L varies depending on the inclination, the average value V a per straight line of the sum of squared errors P k is expressed by the equation (2).

Figure 0005222878
ここで、Pはエッジ推定直線L上に存在する間接参照画素の値の差の平均値である。図3(a)の場合を例にとって説明すると、エッジ推定直線Lの誤差の二乗P は{z(−3,4)−z(−4,3)}、エッジ推定直線Lの誤差の二乗P は[{z(−2,4)−z(−3,3)}+{z(−3,3)−z(−4,2)}]/2、エッジ推定直線Lの誤差の二乗P は[{z(−1,4)−z(−2,3)}+{z(−2,3)−z(−3,2)}+{z(−3,2)−z(−4,1)}]/3となる。また、エッジ推定直線Lの誤差の二乗P は[{z(5,4)−z(4,3)}+{z(4,3)−z(3,2)}+{z(3,2)−z(2,1)}+{z(2,1)−z(−1,−2)}+{z(−1,−2)−z(−2,−3)}]/5となる。このようにして得られるエッジ推定直線Lの誤差の二乗P を合計することで傾きが45度の場合の誤差の二乗和を算出する。エッジ推定直線が間接参照画素の中心を通らない場合の計算方法は、あらかじめ符号化器と復号器で共通の間接参照画素を計算に用いるように定めておく。例えば、間接参照画素の中心とエッジ推定直線Lとの距離が所定の値以下の間接参照画素のみを計算に用いる。
Figure 0005222878
Here, P k is an average value of the difference between the values of the indirect reference pixels existing on the edge estimation straight line L k . The case of FIG. 3A will be described as an example. The square P 1 2 of the error of the edge estimation line L 1 is {z (−3,4) −z (−4,3)} 2 , and the edge estimation line L 2. The square of error P 2 2 is [{z (−2,4) −z (−3,3)} 2 + {z (−3,3) −z (−4,2)} 2 ] / 2, The error square P 3 2 of the edge estimation straight line L 3 is [{z (−1,4) −z (−2,3)} 2 + {z (−2,3) −z (−3,2)}. 2 + {z (−3,2) −z (−4,1)} 2 ] / 3. Further, the square P 9 2 of the error of the edge estimation straight line L 9 is [{z (5,4) −z (4,3)} 2 + {z (4,3) −z (3,2)} 2 + {Z (3,2) -z (2,1)} 2 + {z (2,1) -z (-1, -2)} 2 + {z (-1, -2) -z (-2 , -3)} 2 ] / 5. By summing the error squares P k 2 of the edge estimation straight line L k obtained in this way, the sum of squares of errors when the inclination is 45 degrees is calculated. The calculation method when the edge estimation straight line does not pass through the center of the indirect reference pixel is determined in advance so that the indirect reference pixel common to the encoder and decoder is used for the calculation. For example, only indirect reference pixels whose distance between the center of the indirect reference pixels and the edge estimation straight line L is a predetermined value or less are used in the calculation.

上記の他に、エッジ推定直線L(k=1〜α、αはエッジ推定直線Lの本数)上に存在する間接参照画素の値の分散を最小とする方法でも係数a,bを導出することができる。すなわち、エッジ推定直線L上の間接画素群を(x,yi)(i=1〜m、mはエッジ推定直線L上の間接画素の画素数)とすると、分散Vは式(3)で表される。この分散Vの直線当たりの平均値を最小とする係数a,bを求めればよい。このように、係数a,bは、傾きにより異なる値を持つさまざまな指標を最小化する方法で導出することが可能である。 In addition to the above, the coefficients a and b are also derived by a method that minimizes the variance of the values of the indirect reference pixels existing on the edge estimation line L k (k = 1 to α, α is the number of edge estimation lines L). be able to. That is, when the indirect pixel group on the edge estimation line L k is (x i , y i ) (i = 1 to m, m is the number of pixels of the indirect pixels on the edge estimation line L k ), the variance V n is expressed by the equation It is represented by (3). Coefficient average value per linear dispersion V n minimize a, may be obtained with b. As described above, the coefficients a and b can be derived by a method of minimizing various indexes having different values depending on the inclination.

Figure 0005222878
Figure 0005222878

係数a,bが定まると、次に、式(1)に予測ブロックMの画素(以下、「予測画素」という)の座標(x,y)(j=1〜M、Mは予測画素数)を代入して得られる、(x,y)を通るエッジ推定直線Lを予測画素ごとに求め、このエッジ推定直線L上に存在する直接参照画素の値を用いて、画素(x,y)の予測値を算出する。 Once the coefficients a and b are determined, the following formula (1) shows the coordinates (x j , y j ) (j = 1 to M, M are prediction pixels) of the pixels of the prediction block M (hereinafter referred to as “prediction pixels”). The edge estimation line L passing through (x j , y j ) obtained by substituting (number) is obtained for each prediction pixel, and the value of the direct reference pixel existing on the edge estimation line L is used to obtain the pixel (x j , y j ) is calculated.

また、係数a,bを導出して式(1)に代入する代わりに、あらかじめ傾きが異なる複数種類のエッジ推定直線Lを用意し、その中から間接参照画素の値の差を最小とする傾きを選択するようにすることで、計算量を少なくすることもできる。すなわち、傾きが異なる複数種類のエッジ推定直線Lをあらかじめ用意するとともに、予測ブロックMの各画素について、傾きごとに、エッジ推定直線L上を通る間接参照画素及び直接参照画素のテーブル等をあらかじめ用意しておく。そして、複数種類の傾きそれぞれに対し、予測ブロックM内の各画素について、ある傾きの直線が通る間接参照画素の分散の平均値を求め、画素毎に求めた分散の平均値をさらに予測ブロック内で平均した値が最小となる傾きを選択するようにしてもよい。   Also, instead of deriving the coefficients a and b and substituting them into the equation (1), a plurality of types of edge estimation straight lines L having different inclinations are prepared in advance, and the inclination that minimizes the difference between the values of the indirect reference pixels is prepared. The amount of calculation can be reduced by selecting. That is, a plurality of types of edge estimation straight lines L having different inclinations are prepared in advance, and for each pixel of the prediction block M, a table of indirect reference pixels and direct reference pixels passing on the edge estimation straight line L is prepared in advance for each inclination. Keep it. Then, for each pixel in the prediction block M, for each of a plurality of types of gradients, an average value of variance of indirect reference pixels through which a certain straight line passes is obtained, and the average value of variance obtained for each pixel is further calculated in the prediction block. It is also possible to select the slope that minimizes the average value obtained in step (b).

予測値の算出について図4を参照して説明する。図4は、画素(0,0)を通るエッジ推定直線L、画素(1,−2)を通るエッジ推定直線L、及び、画素(2,−3)を通るエッジ推定直線Lを例示する図である。エッジ推定直線L上には直接参照画素(2,1)が存在し、エッジ推定直線Lは直接参照画素(2,1)の中心を通っているので、画素(1,−2)の予測値を画素値z(2,1)とする。 Calculation of the predicted value will be described with reference to FIG. FIG. 4 shows an edge estimation straight line L 1 passing through the pixel (0, 0), an edge estimation straight line L 2 passing through the pixel (1, −2), and an edge estimation straight line L 3 passing through the pixel (2, −3). It is a figure illustrated. Edge estimated straight line L 2 on the present direct reference pixels (2,1), so the edge estimated straight line L 2 passes through the center of direct reference pixel (2,1), pixel (1, -2) of Let the predicted value be the pixel value z (2, 1).

エッジ推定直線L上には直接参照画素(3,1)が存在するので、画素(2,−3)の予測値を画素値z(3,1)とすることができる。しかし、エッジ推定直線Lは直接参照画素(3,1)の中心を通る直線ではない。このように、エッジ推定直線Lが直接参照画素の中心を通る直線ではない場合には、エッジ推定直線L上の直接参照画素とこれに隣接する直接参照画素とから予測することもできる。例えば、直接参照画素値z(3,1)及びこれに隣接する直接参照画素値z(4,1)との平均値、又は距離に応じて重み付けをした加重平均値を画素(2,−3)の予測値とする。 Since direct reference pixels on the edge estimated straight line L 3 (3, 1) is present, it can be a pixel (2, -3) pixel values predicted value of z (3, 1). However, the edge estimated straight line L 3 is not a straight line passing through the center of the direct reference pixel (3,1). Thus, when the edge estimation straight line L is not a straight line passing directly through the center of the reference pixel, prediction can be made from the direct reference pixel on the edge estimation straight line L and the direct reference pixel adjacent thereto. For example, an average value of the direct reference pixel value z (3, 1) and the direct reference pixel value z (4, 1) adjacent thereto or a weighted average value weighted according to the distance is set to the pixel (2, −3). ).

一方、エッジ推定直線L上には直接参照画素(0,1)、(−1,−2)、(−1,−3)が存在する。このように、予測に用いる直接参照画素が複数ある場合には、あらかじめ定めておいた方法で、予測値を求める。例えば、予測画素に対して予測に用いる直接参照画素が等距離にある場合は、直接参照画素の平均値を予測値として使用する。予測画素に対して予測に用いる直接参照画素が等距離にない場合は、予測画素に最も近い直接参照画素の値、直接参照画素の平均値若しくは距離に応じた加重平均値、又はエッジ推定直線L上の全ての間接参照画素及び直接参照画素の平均値を予測値とするなど、さまざまな方法が考えられる。 On the other hand, on the edge estimated straight line L 1 is a direct reference pixels (0,1), (- 1, -2), (- 1, -3) is present. Thus, when there are a plurality of direct reference pixels used for prediction, a predicted value is obtained by a predetermined method. For example, when the direct reference pixels used for prediction with respect to the prediction pixel are equidistant, the average value of the direct reference pixels is used as the prediction value. When the direct reference pixels used for prediction with respect to the prediction pixel are not equidistant, the value of the direct reference pixel closest to the prediction pixel, the average value of the direct reference pixels or the weighted average value corresponding to the distance, or the edge estimation straight line L Various methods such as an average value of all the above indirect reference pixels and direct reference pixels can be considered.

また、直接参照画素の画素数が本実施例で説明した直接参照画素の画素数よりも少ない場合には、エッジ推定直線L上に直接参照画素が存在しない場合もあり得る。この場合には、あらかじめ定めておいた方法で予測値を求めることとする。例えば、エッジ推定直線Lに最も近い直接参照画素の値、近傍の予測済み画素の値の平均値、又は全ての直接参照画素の平均値を予測値として使用するなど、さまざまな方法が考えられる。また、図3(a)に示す画素(3,−3)のように、エッジ推定直線Lが存在しない場合もあり得る。この場合も同様に、あらかじめ定めておいた方法で予測値を求めることとし、例えば、近傍の予測済み画素の値の平均値、又は全ての直接参照画素の平均値を予測値として使用するなど、さまざまな方法が考えられる。   Further, when the number of direct reference pixels is smaller than the number of direct reference pixels described in the present embodiment, there may be a case where no direct reference pixel exists on the edge estimation line L. In this case, the predicted value is obtained by a predetermined method. For example, various methods are conceivable, such as using the value of the direct reference pixel closest to the edge estimation line L, the average value of the predicted pixels in the vicinity, or the average value of all the direct reference pixels as the predicted value. Further, there may be a case where the edge estimation straight line L does not exist as in the pixel (3, −3) illustrated in FIG. Similarly in this case, the predicted value is obtained by a predetermined method, for example, using the average value of the predicted pixels in the vicinity or the average value of all the direct reference pixels as the predicted value, etc. Various methods are conceivable.

図5は、本発明による実施例1のイントラ予測装置1の構成図である。実施例1のイントラ予測装置1は、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14とを備える。   FIG. 5 is a configuration diagram of the intra prediction apparatus 1 according to the first embodiment of the present invention. The intra prediction apparatus 1 according to the first embodiment includes an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, a direct reference pixel extraction unit 13, and a non-directional prediction unit 14.

間接参照画素差算出部11は、入力される復号画像のうち、間接参照画素を選定し、エッジ推定直線Lに存在する複数の間接参照画素間の差(間接参照画素差)を算出して係数最適化部12に出力する。   The indirect reference pixel difference calculation unit 11 selects an indirect reference pixel from the input decoded image, calculates a difference between a plurality of indirect reference pixels existing on the edge estimation straight line L (indirect reference pixel difference), and calculates a coefficient. The result is output to the optimization unit 12.

係数最適化部12は、式(1)で表されるエッジ推定直線Lの係数a,bを導出して直接参照画素抽出部13に出力する。あるいは、あらかじめ用意された傾きが異なる複数のエッジ推定直線Lのうち、間接参照画素の値の差を最小とするエッジ推定直線Lの傾きを選択して直接参照画素抽出部13に出力する。   The coefficient optimizing unit 12 derives the coefficients a and b of the edge estimation straight line L expressed by Expression (1) and outputs them directly to the reference pixel extracting unit 13. Alternatively, the inclination of the edge estimation line L that minimizes the difference between the values of the indirect reference pixels is selected from a plurality of edge estimation lines L having different inclinations prepared in advance, and is directly output to the reference pixel extraction unit 13.

直接参照画素抽出部13は、間接参照画素のうち予測画像の画素値の算出に用いる画素を直接参照画素として選定する。直接参照画素の位置は常に一定である必要はなく、例えば、エッジ推定直線Lの傾きに応じて変えることもできる。次に、係数最適化部12から入力される係数(又は傾き)、及び予測画素の座標(x,y)(j=1〜M、Mは予測画素数)とから、予測画素ごとに予測画素を通るエッジ推定直線Lを求める。そして、予測画素ごとにエッジ推定直線L上に存在する直接参照画素を抽出して無方向予測部14に出力する。 The direct reference pixel extraction unit 13 selects a pixel used for calculation of the pixel value of the predicted image among the indirect reference pixels as a direct reference pixel. The position of the direct reference pixel does not always need to be constant, and can be changed according to the inclination of the edge estimation straight line L, for example. Next, from the coefficient (or slope) input from the coefficient optimization unit 12 and the coordinates (x j , y j ) (j = 1 to M, M is the number of predicted pixels) of the predicted pixel, for each predicted pixel An edge estimation straight line L passing through the prediction pixel is obtained. Then, a direct reference pixel existing on the edge estimation straight line L is extracted for each prediction pixel, and is output to the non-directional prediction unit 14.

無方向予測部14は、上述したように、直接参照画素抽出部13で抽出した直接参照画素が1つの場合には、エッジ推定直線Lが直接参照画素の中心を通るときには直接参照画素の値と予測値とし、エッジ推定直線Lが直接参照画素の中心を通らないときには、直接参照画素の値と直接参照画素に隣接する画素の値との平均値又は距離に応じて重み付けをした加重平均値を予測値とする。直接参照画素抽出部13で抽出した直接参照画素が複数ある場合には、予測画素に対して予測に用いる直接参照画素が等距離にある場合は、直接参照画素の平均値を予測値とする。予測画素に対して予測に用いる直接参照画素が等距離にない場合は、予測画素に最も近い直接参照画素の値、距離に応じた加重平均値、又はエッジ推定直線L上の全ての間接参照画素及び直接参照画素の平均値を予測値とする。その後、整数化やクリップなどの処理を行い、処理後の予測画像を出力する。   As described above, when there is one direct reference pixel extracted by the direct reference pixel extraction unit 13, the non-directional prediction unit 14 determines the value of the direct reference pixel when the edge estimation straight line L passes through the center of the direct reference pixel. When the edge estimation straight line L does not directly pass through the center of the reference pixel as a predicted value, an average value or a weighted average value weighted according to the distance between the value of the direct reference pixel and the value of the pixel adjacent to the direct reference pixel Estimated value. When there are a plurality of direct reference pixels extracted by the direct reference pixel extraction unit 13, when the direct reference pixels used for prediction are equidistant with respect to the prediction pixel, the average value of the direct reference pixels is set as the prediction value. When the direct reference pixels used for prediction with respect to the prediction pixel are not equidistant, the value of the direct reference pixel closest to the prediction pixel, the weighted average value according to the distance, or all the indirect reference pixels on the edge estimation line L And the average value of the direct reference pixels is set as the predicted value. Thereafter, processing such as integerization and clipping is performed, and a predicted image after processing is output.

この実施例では参照画素(参照ブロック)は予測ブロックMに隣接しているが、復号済みの画素であれば、参照する画素は参照ブロックA〜Dの画像には限定されない。例えば、参照ブロックA〜D以外の画素をさらに参照することや、参照ブロックA〜Dのうちの一部の画素のみを参照することも可能である。また、予測ブロックを、さらに小さなブロックに区切り、小ブロック単位で符号化を行うことも考えられる。例えば、図6に示すように、予測ブロックM内の小ブロックEが既に復号済みである場合には、予測ブロックM中の小ブロックE以外の領域を予測する際に、小ブロックEの画素値を参照することもできる。このように、直接参照画素及び間接参照画素として参照する画素は、復号済みの画素であれば、その位置や画素数にはさまざまな組合せが可能である。本明細書では説明を容易にするため、参照ブロックA〜Dを参照画素の例として用いる。   In this embodiment, the reference pixel (reference block) is adjacent to the prediction block M, but the pixel to be referred to is not limited to the images of the reference blocks A to D as long as it is a decoded pixel. For example, it is possible to further refer to pixels other than the reference blocks A to D, or to refer to only some pixels of the reference blocks A to D. It is also conceivable to divide the prediction block into smaller blocks and perform encoding in units of small blocks. For example, as illustrated in FIG. 6, when the small block E in the prediction block M has already been decoded, the pixel value of the small block E is predicted when a region other than the small block E in the prediction block M is predicted. Can also be referred to. As described above, as long as the pixel referred to as the direct reference pixel and the indirect reference pixel is a decoded pixel, various combinations of the positions and the number of pixels are possible. In this specification, for ease of explanation, reference blocks A to D are used as examples of reference pixels.

次に、実施例1のイントラ予測装置1の動作について、図7を参照して説明する。   Next, the operation of the intra prediction apparatus 1 according to the first embodiment will be described with reference to FIG.

[実施例1のイントラ予測装置1の動作]
図7は、実施例1のイントラ予測装置1の動作を示すフローチャートである。まず、ステップS101にて、間接参照画素差算出部11により、エッジ推定直線L上に存在する複数の間接参照画素間の差(間接参照画素差)を算出する。
[Operation of Intra Prediction Device 1 of First Embodiment]
FIG. 7 is a flowchart illustrating the operation of the intra prediction apparatus 1 according to the first embodiment. First, in step S101, the indirect reference pixel difference calculation unit 11 calculates a difference (indirect reference pixel difference) between a plurality of indirect reference pixels existing on the edge estimation straight line L.

ステップS102にて、係数最適化部12により、間接参照画素差を用いてエッジ推定直線Lの係数(又は傾き)を導出する。   In step S102, the coefficient optimization unit 12 derives the coefficient (or slope) of the edge estimation straight line L using the indirect reference pixel difference.

ステップS103にて、直接参照画素抽出部13により、エッジ推定直線L上に存在する直接参照画素を抽出する。   In step S103, the direct reference pixel extraction unit 13 extracts direct reference pixels existing on the edge estimation straight line L.

ステップS104にて、無方向予測部14により、予測ブロックMの予測画像を生成する。   In step S104, the non-direction prediction unit 14 generates a prediction image of the prediction block M.

次に、本発明による符号化器及び復号器について、図8及び図9を参照して説明する。   Next, an encoder and a decoder according to the present invention will be described with reference to FIGS.

[符号化器及び復号器]
図8は、本発明による実施例1のイントラ予測装置を備える符号化器の構成図である。符号器2は、従来のMPEG−4 AVC/H.264方式の符号器(図18参照)におけるイントラ予測部に代えて、本発明による実施例1のイントラ予測装置1を備える。イントラ予測装置1は、逆量子化部26及び逆直交変換部27を経て既符号化ブロックを復号した画像を入力し、上述したように間接参照画素差算出部11、係数最適化部12、直接参照画素抽出部13、及び無方向予測部14を経て生成した予測画像をスイッチ28を介し減算部22及び加算部32に出力する。
[Encoder and decoder]
FIG. 8 is a configuration diagram of an encoder including the intra prediction apparatus according to the first embodiment of the present invention. The encoder 2 is a conventional MPEG-4 AVC / H. The intra prediction apparatus 1 according to the first embodiment of the present invention is provided instead of the intra prediction unit in the H.264 encoder (see FIG. 18). The intra prediction apparatus 1 inputs an image obtained by decoding an already-encoded block via the inverse quantization unit 26 and the inverse orthogonal transform unit 27, and as described above, the indirect reference pixel difference calculation unit 11, the coefficient optimization unit 12, and the direct The prediction image generated through the reference pixel extraction unit 13 and the non-directional prediction unit 14 is output to the subtraction unit 22 and the addition unit 32 via the switch 28.

図9は、本発明による実施例1のイントラ予測装置を備える復号器の構成図である。復号器3は、可変長復号部41と、逆量子化部42と、逆直交変換部43と、加算部44と、イントラ予測装置1と、フレームメモリ45と、動き補償予測部46と、切替えスイッチ47と、並べ替え部48とを備える。復号器3は、従来のMPEG−4 AVC/H.264方式の復号器のイントラ予測部に代えて、本発明によるイントラ予測装置1を備える。   FIG. 9 is a configuration diagram of a decoder including the intra prediction apparatus according to the first embodiment of the present invention. The decoder 3 switches between a variable length decoding unit 41, an inverse quantization unit 42, an inverse orthogonal transform unit 43, an addition unit 44, an intra prediction device 1, a frame memory 45, and a motion compensation prediction unit 46. A switch 47 and a rearrangement unit 48 are provided. The decoder 3 is a conventional MPEG-4 AVC / H. An intra prediction device 1 according to the present invention is provided instead of the intra prediction unit of the H.264 decoder.

可変長復号部41は、フレーム間予測で符号化されたビットストリームを入力して、可変長復号処理を施し逆量子化部42に出力するとともに、動きベクトルの情報を復号して動き補償予測部46に出力する。   The variable length decoding unit 41 inputs a bit stream encoded by inter-frame prediction, performs variable length decoding processing, outputs the bit stream to the inverse quantization unit 42, decodes motion vector information, and motion compensation prediction unit Output to 46.

逆量子化部42は、可変長復号部41から入力される量子化された直交変換係数に対して逆量子化処理を施して、動き補償した差分画像の直交変換係数を取得し、逆直交変換部43に出力する。   The inverse quantization unit 42 performs an inverse quantization process on the quantized orthogonal transform coefficient input from the variable length decoding unit 41, acquires an orthogonal transform coefficient of the motion compensated difference image, and performs an inverse orthogonal transform To the unit 43.

逆直交変換部43は、逆量子化部42から入力される差分画像の直交変換係数に対して、逆直交変換(例えば、IDCT)を施し、得られる当該差分画像を加算部44に出力する。   The inverse orthogonal transform unit 43 performs inverse orthogonal transform (for example, IDCT) on the orthogonal transform coefficient of the difference image input from the inverse quantization unit 42, and outputs the obtained difference image to the addition unit 44.

加算部44は、逆直交変換部43から得られる当該差分画像と、動き補償予測部46から入力される予測画像又はイントラ予測装置1から入力される予測画像とを加算して画像を復元し、並べ替え部48、イントラ予測装置1、及びフレームメモリ45に出力する。   The addition unit 44 adds the difference image obtained from the inverse orthogonal transform unit 43 and the prediction image input from the motion compensation prediction unit 46 or the prediction image input from the intra prediction device 1 to restore the image, The data is output to the rearrangement unit 48, the intra prediction apparatus 1, and the frame memory 45.

動き補償予測部46は、フレームメモリ45から得られる参照画像と可変長復号部41から得られる動きベクトルとを用いて予測画像を生成し、切替えスイッチ47を介して加算部34に出力する。   The motion compensation prediction unit 46 generates a prediction image using the reference image obtained from the frame memory 45 and the motion vector obtained from the variable length decoding unit 41, and outputs the prediction image to the addition unit 34 via the changeover switch 47.

並べ替え部48は、加算部44から入力される復元された復号画像信号の各フレームを表示フレーム順に並べ替て出力する。   The rearrangement unit 48 rearranges the frames of the restored decoded image signal input from the addition unit 44 in the order of display frames and outputs the rearranged frames.

イントラ予測装置1は、逆量子化部42及び逆直交変換部43を経て復号した画像を入力し、上述したように間接参照画素差算出部11、係数最適化部12、直接参照画素抽出部13、及び無方向予測部14を経て生成した予測画像を切替えスイッチ47を介して加算部47に出力する。   The intra prediction apparatus 1 inputs an image decoded through the inverse quantization unit 42 and the inverse orthogonal transform unit 43, and as described above, the indirect reference pixel difference calculation unit 11, the coefficient optimization unit 12, and the direct reference pixel extraction unit 13 The prediction image generated through the non-directional prediction unit 14 is output to the addition unit 47 via the changeover switch 47.

符号化器2と復号器3とで同じ最適化手段を用いると、符号化器側のイントラ予測値と、復号器側のイントラ予測値との値を同一にすることができる。最適化手段は、符号化器と復号器とで同一の結果が出る手段であれば、厳密に最適な値を求める手段でなくてもよい。   When the same optimization means is used in the encoder 2 and the decoder 3, the values of the intra prediction value on the encoder side and the intra prediction value on the decoder side can be made the same. The optimization means may not be a means for strictly obtaining an optimum value as long as the same result is obtained by the encoder and the decoder.

なお、図8に示した本発明による符号化器のイントラ予測装置1及び図9に示した復号器の本発明による符号化器のイントラ予測装置1を、後述する実施例2から4のイントラ予測装置1に置き換えることができることは勿論である。   The intra prediction apparatus 1 for the encoder according to the present invention shown in FIG. 8 and the intra prediction apparatus 1 for the encoder according to the present invention of the decoder shown in FIG. Of course, the device 1 can be replaced.

次に、本発明による実施例2のイントラ予測装置について、図面を参照して説明する。なお、実施例1と同様な構成要素には同一の参照番号を付して説明を省略する。   Next, the intra prediction apparatus of Example 2 by this invention is demonstrated with reference to drawings. In addition, the same reference number is attached | subjected to the component similar to Example 1, and description is abbreviate | omitted.

エッジ推定直線L上に存在する間接参照画素の差が大きい場合には、本手法によるイントラ予測値は適切でない可能性がある。そのため、間接参照画素差が大きい場合には、従来(例えば、MPEG−4 AVC/H.264方式)の予測方法により、参照ブロックの画素値を用いたイントラ予測値に切替える。この場合、符号化器と復号器の双方で同じ差を計算可能なため、本発明によるイントラ予測値と従来のイントラ予測値とを切替えるためのフラグを復号器に対して送信する必要がない。   When the difference between the indirect reference pixels existing on the edge estimation straight line L is large, the intra prediction value by this method may not be appropriate. Therefore, when the indirect reference pixel difference is large, the intra prediction value is switched to the intra prediction value using the pixel value of the reference block by a conventional prediction method (for example, MPEG-4 AVC / H.264 method). In this case, since the same difference can be calculated by both the encoder and the decoder, it is not necessary to transmit a flag for switching between the intra prediction value according to the present invention and the conventional intra prediction value to the decoder.

図10は、本発明による実施例2のイントラ予測装置1の構成図である。実施例2のイントラ予測装置1は、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16とを備える。実施例2のイントラ予測装置1は、実施例1のイントラ予測装置1(図5参照)と比較して、更に、画面内予測部15と、切替え部16とを備え、間接参照画素差算出部11が切替え部16に判定信号を出力する点で相違する。   FIG. 10 is a configuration diagram of the intra prediction apparatus 1 according to the second embodiment of the present invention. The intra prediction apparatus 1 according to the second embodiment includes an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, a direct reference pixel extraction unit 13, a non-directional prediction unit 14, an in-screen prediction unit 15, and a switching unit. 16. Compared with the intra prediction apparatus 1 (see FIG. 5) according to the first embodiment, the intra prediction apparatus 1 according to the second embodiment further includes an in-screen prediction unit 15 and a switching unit 16, and an indirect reference pixel difference calculation unit. 11 differs in that a determination signal is output to the switching unit 16.

間接参照画素差算出部11は、間接参照画素差を算出した後に、算出した間接参照画素差が閾値以下であるか否かを判定し、判定結果を判定信号として切替え部16に出力する。   After calculating the indirect reference pixel difference, the indirect reference pixel difference calculation unit 11 determines whether the calculated indirect reference pixel difference is equal to or less than a threshold value, and outputs the determination result to the switching unit 16 as a determination signal.

画面内予測部15は、復号画素値を入力し、従来(例えば、MPEG−4 AVC/H.264方式)の予測方向を選択する予測方法により、参照ブロックA〜Dの画素値を用いて予測ブロックMの予測画像を求める。   The intra-screen prediction unit 15 receives the decoded pixel value and performs prediction using the pixel values of the reference blocks A to D by a prediction method of selecting a prediction direction in the past (for example, MPEG-4 AVC / H.264 method). A predicted image of block M is obtained.

切替え部16は、間接参照画素差算出部11から入力される判定信号により、間接参照画素差が閾値以下である場合には無方向予測部14で求めた予測画素値を出力し、間接参照画素差が閾値より大きい場合には画面内予測部15で求めた予測画素値を出力するように切替える。   The switching unit 16 outputs the prediction pixel value obtained by the non-directional prediction unit 14 when the indirect reference pixel difference is equal to or smaller than the threshold value based on the determination signal input from the indirect reference pixel difference calculation unit 11, and the indirect reference pixel When the difference is larger than the threshold, switching is performed so that the predicted pixel value obtained by the in-screen prediction unit 15 is output.

また、実施例2のイントラ予測装置1の第1の変形例として、間接参照画素差算出部11で判定を行うのではなく、無方向予測部14で求めた予測画素値と参照ブロックA〜Dの画素値との差が閾値より大きいか否かを判定する判定部を別途設け、閾値より大きい場合には、切替え部16により画面内予測部15で求めた予測画素値を出力するようにすることもできる。   In addition, as a first modification of the intra prediction device 1 according to the second embodiment, the indirect reference pixel difference calculation unit 11 does not perform the determination, but the prediction pixel value obtained by the non-directional prediction unit 14 and the reference blocks A to D. A determination unit that determines whether or not the difference from the pixel value is larger than the threshold value is separately provided. When the difference is larger than the threshold value, the prediction pixel value obtained by the in-screen prediction unit 15 is output by the switching unit 16. You can also.

図11に、実施例2のイントラ予測装置1の第2の変形例を示す。この変形例では、判定部17に予測ブロックMの原画像及び無方向予測部14で求めた予測画像を入力し、原画像の画素値と予測画像の画素値との差が閾値より大きいか否かを判定し、閾値より大きい場合には、切替え部16により画面内予測部15で求めた予測画像を出力する。この場合は、判定部17は判定結果を示すフラグを復号器に送信する機能も有する。また、復号器の判定部17では誤差の計算は必要なく、受信した判定結果にしたがって切り替え部16を動作させる機能だけを有する。   FIG. 11 illustrates a second modification of the intra prediction device 1 according to the second embodiment. In this modified example, the original image of the prediction block M and the prediction image obtained by the non-directional prediction unit 14 are input to the determination unit 17, and whether or not the difference between the pixel value of the original image and the pixel value of the prediction image is greater than a threshold value. If it is larger than the threshold, the switching unit 16 outputs the predicted image obtained by the in-screen prediction unit 15. In this case, the determination unit 17 also has a function of transmitting a flag indicating the determination result to the decoder. Further, the determination unit 17 of the decoder does not need to calculate an error, and has only a function of operating the switching unit 16 according to the received determination result.

図12に、実施例2のイントラ予測装置1の第3の変形例を示す。この変形例では、判定部17に予測ブロックMの原画像、無方向予測部14で求めた予測画像、及び画面内予測部15で求めた予測画像を入力し、無方向予測部14で求めた予測画像の画素値と画面内予測部15で求めた予測画像の画素値のどちらが原画像の画素値との差が小さいかを判定し、切替え部16により、原画像の画素値との差が小さいほうの予測画像を出力する。この場合も、判定部17は判定結果を示すフラグを復号器に送信する機能も有する。また、復号器の判定部17では誤差の計算は必要なく、受信した判定結果にしたがって切り替え部16を動作させる機能だけを有する。   FIG. 12 illustrates a third modification of the intra prediction device 1 according to the second embodiment. In this modified example, the original image of the prediction block M, the prediction image obtained by the non-direction prediction unit 14, and the prediction image obtained by the in-screen prediction unit 15 are input to the determination unit 17 and obtained by the non-direction prediction unit 14. It is determined which of the pixel value of the predicted image and the pixel value of the predicted image obtained by the in-screen prediction unit 15 has a smaller difference from the pixel value of the original image, and the switching unit 16 determines the difference from the pixel value of the original image. The smaller predicted image is output. Also in this case, the determination unit 17 has a function of transmitting a flag indicating the determination result to the decoder. Further, the determination unit 17 of the decoder does not need to calculate an error, and has only a function of operating the switching unit 16 according to the received determination result.

次に、実施例2のイントラ予測装置1の動作について、図14を参照して説明する。   Next, the operation of the intra prediction apparatus 1 according to the second embodiment will be described with reference to FIG.

[実施例2のイントラ予測装置1の動作]
図14は、実施例2のイントラ予測装置1の動作を示すフローチャートである。実施例1のイントラ予測装置1の動作(図7参照)と同様に、ステップS201にて、間接参照画素差算出部11により、間接参照画素差を算出する。
[Operation of Intra Prediction Device 1 of Embodiment 2]
FIG. 14 is a flowchart illustrating the operation of the intra prediction apparatus 1 according to the second embodiment. In the same manner as the operation of the intra prediction apparatus 1 according to the first embodiment (see FIG. 7), indirect reference pixel difference calculation unit 11 calculates an indirect reference pixel difference in step S201.

ステップS202にて、間接参照画素差が閾値を超えるか否かを判定する。間接参照画素差が閾値以下であると判定した場合には処理をステップS203に進め、間接参照画素差が閾値よりも大きいと判定した場合には処理をステップS206に進める。   In step S202, it is determined whether or not the indirect reference pixel difference exceeds a threshold value. If it is determined that the indirect reference pixel difference is equal to or smaller than the threshold value, the process proceeds to step S203. If it is determined that the indirect reference pixel difference is greater than the threshold value, the process proceeds to step S206.

ステップS202にて間接参照画素差が閾値以下であると判定した場合には、実施例1のイントラ予測装置1の動作(図7参照)と同様に、ステップS203にて、係数最適化部12により間接参照画素差算を用いてエッジ推定直線Lの係数を導出し、ステップS204にて、直接参照画素抽出部13により推定直線L上を通る直接参照画素を抽出する。そして、ステップS205にて、切替え部16により、無方向予測部14から入力される予測画像を出力する。   When it is determined in step S202 that the indirect reference pixel difference is equal to or smaller than the threshold value, in the same manner as the operation of the intra prediction apparatus 1 according to the first embodiment (see FIG. 7), the coefficient optimization unit 12 performs the operation in step S203. The coefficient of the edge estimation straight line L is derived using indirect reference pixel difference calculation, and the direct reference pixel passing through the estimated straight line L is extracted by the direct reference pixel extraction unit 13 in step S204. In step S <b> 205, the switching unit 16 outputs a prediction image input from the non-directional prediction unit 14.

一方、ステップS202にて間接参照画素差が閾値よりも大きいと判定した場合には、ステップS206にて、切替え部16により、他方式(例えば、従来のMPEG−4 AVC/H.264方式)により生成した予測画像を出力する。なお、他方式による予測画像は、エッジ推定直線Lを用いた予測画像の生成と並行して、画面内予測部15により生成される。   On the other hand, when it is determined in step S202 that the indirect reference pixel difference is larger than the threshold value, in step S206, the switching unit 16 performs another method (for example, the conventional MPEG-4 AVC / H.264 method). The generated predicted image is output. In addition, the prediction image by another system is produced | generated by the prediction part 15 in a screen in parallel with the production | generation of the prediction image using the edge estimation straight line L. FIG.

実施例2のイントラ予測装置1によれば、エッジ推定直線Lを用いて生成した予測画像と、従来の方向を選択して生成した予測画像とを切替えることができるので、より適切な予測画像を生成することができるようになる。   According to the intra prediction device 1 of the second embodiment, a prediction image generated using the edge estimation straight line L and a prediction image generated by selecting a conventional direction can be switched, so that a more appropriate prediction image can be obtained. Be able to generate.

次に、本発明による実施例3のイントラ予測装置について、図面を参照して説明する。なお、実施例2と同様な構成要素には同一の参照番号を付して説明を省略する。   Next, an intra prediction apparatus according to a third embodiment of the present invention will be described with reference to the drawings. In addition, the same reference number is attached | subjected to the component similar to Example 2, and description is abbreviate | omitted.

グラデーション画像のように、エッジを含まない変化のなだらかな画像に対しては、エッジ推定直線Lを用いたイントラ予測値は適切でない可能性がある。そのため、実施例2のイントラ予測装置は、さらに他方式によるイントラ予測も行い、最も適切な予測画像を選択する。   The intra prediction value using the edge estimation straight line L may not be appropriate for a gentle image that does not include an edge, such as a gradation image. Therefore, the intra prediction apparatus according to the second embodiment also performs intra prediction using another method, and selects the most appropriate prediction image.

図13は、本発明による実施例3のイントラ予測装置1の構成図である。実施例3のイントラ予測装置1は、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16と、第2画面内予測部18とを備える。実施例3のイントラ予測装置1は、実施例2のイントラ予測装置1(図10参照)と比較して、更に、第2画面内予測部18を備える点で相違する。   FIG. 13 is a configuration diagram of the intra prediction apparatus 1 according to the third embodiment of the present invention. The intra prediction apparatus 1 according to the third embodiment includes an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, a direct reference pixel extraction unit 13, a non-directional prediction unit 14, an in-screen prediction unit 15, and a switching unit. 16 and a second intra-screen prediction unit 18. The intra prediction apparatus 1 according to the third embodiment is different from the intra prediction apparatus 1 according to the second embodiment (see FIG. 10) in that it further includes a second intra-screen prediction unit 18.

第2画面内予測部18は、エッジを含まない画像に適したイントラ予測が可能な方式を採用する。例えば、参照ブロックの画素値を近似する画素値からなる曲面である予測画素値曲面Wを用いて、座標(x,y)の位置にある予測ブロックMの画素値を予測することもできる。図17は、予測画素値曲面を示す図である。予測画素値曲面W上の曲面wは、予測ブロックMの予測画素値からなる曲面である。予測画素値曲面Wを規定できれば、予測ブロックMの画素の座標(x,y)を代入して予測画素値z(x,y)を求めることができる。   The second intra-screen prediction unit 18 employs a method capable of intra prediction suitable for an image that does not include an edge. For example, the pixel value of the prediction block M at the position of the coordinates (x, y) can be predicted using the prediction pixel value curved surface W that is a curved surface including pixel values approximating the pixel values of the reference block. FIG. 17 is a diagram illustrating a predicted pixel value curved surface. The curved surface w on the predicted pixel value curved surface W is a curved surface composed of the predicted pixel values of the predicted block M. If the predicted pixel value curved surface W can be defined, the predicted pixel value z (x, y) can be obtained by substituting the coordinates (x, y) of the pixels of the predicted block M.

また、第2画面内予測部18は、生成した予測画像の誤差が閾値以下であるか否かを判定し、判定結果を判定信号として切替え部16に出力する。誤差は例えば、予測画像の画素値と参照ブロックA〜Dの画素値との差とする。また、誤差を求める対象の画素は、参照ブロックA〜D内の全画素でも一部の画素でもよい。一部の画素のみ利用する場合には、予測ブロックMに近い画素を利用するのが好適である。   Further, the second intra-screen prediction unit 18 determines whether or not the error of the generated predicted image is equal to or less than the threshold value, and outputs the determination result to the switching unit 16 as a determination signal. The error is, for example, the difference between the pixel value of the predicted image and the pixel values of the reference blocks A to D. Further, the pixels for which the error is to be calculated may be all or some of the pixels in the reference blocks A to D. When only some pixels are used, it is preferable to use pixels close to the prediction block M.

次に、実施例3のイントラ予測装置1の動作について、図15を参照して説明する。   Next, operation | movement of the intra prediction apparatus 1 of Example 3 is demonstrated with reference to FIG.

[実施例3のイントラ予測装置1の動作]
図15は、実施例3のイントラ予測装置1の動作を示すフローチャートである。ステップS301、S302、S303、S304、S305は、それぞれ、実施例2のイントラ予測装置1の動作(図14参照)のステップS201、S202、S203、S204、S205と同様であるため、説明を省略し、ステップS302にて間接参照画素差が閾値よりも大きいと判定した場合について説明する。
[Operation of Intra Prediction Device 1 of Embodiment 3]
FIG. 15 is a flowchart illustrating the operation of the intra prediction apparatus 1 according to the third embodiment. Steps S301, S302, S303, S304, and S305 are the same as steps S201, S202, S203, S204, and S205 of the operation of the intra prediction apparatus 1 according to the second embodiment (see FIG. 14), respectively, and thus description thereof is omitted. The case where it is determined in step S302 that the indirect reference pixel difference is larger than the threshold will be described.

ステップS302にて間接参照画素差が閾値よりも大きいと判定した場合には、まずステップS306にて、第2画面内予測部18により予測画像を生成し、予測画像の誤差を求める。   If it is determined in step S302 that the indirect reference pixel difference is greater than the threshold value, first, in step S306, a prediction image is generated by the second intra-screen prediction unit 18, and an error of the prediction image is obtained.

ステップS307にて、第2画面内予測部18により生成した予測画像の誤差が閾値以下であると判定した場合には、処理をステップS308に進め、誤差が閾値よりも大きいと判定した場合には処理をステップS309に進める。   If it is determined in step S307 that the error of the predicted image generated by the second intra prediction unit 18 is equal to or less than the threshold, the process proceeds to step S308, and if it is determined that the error is greater than the threshold. The process proceeds to step S309.

ステップS308では、切替え部16により、第1の他方式により生成した予測画像を出力する。なお、他方式による予測画像は、エッジ推定直線Lを用いた予測画像の生成と並行して、第2画面内予測部18により生成される。   In step S308, the switching unit 16 outputs a predicted image generated by the first other method. In addition, the prediction image by another system is produced | generated by the 2nd intra-screen prediction part 18 in parallel with the production | generation of the prediction image using the edge estimation straight line L. FIG.

ステップS309では、切替え部16により、予測方向を選択する方向選択方式により生成した予測画像を出力する。なお、方向選択方式による予測画像は、エッジ推定直線Lを用いた予測画像の生成と並行して、画面内予測部15により生成される。   In step S309, the switching unit 16 outputs a prediction image generated by a direction selection method for selecting a prediction direction. Note that the predicted image by the direction selection method is generated by the intra-screen prediction unit 15 in parallel with the generation of the predicted image using the edge estimation straight line L.

図15のフローチャートでは、エッジ推定直線Lを用いて生成した予測画像の誤差の判定を行い、該誤差が閾値以下の場合には(ステップS302−Yes)、エッジ推定直線Lを用いて生成した予測画像を出力し(ステップS305)、該誤差が閾値より大きい場合には(ステップS302−No)、他方式により生成した予測画像の誤差を判定しているが(ステップS307)、この順番を入れ替えることも可能である。すなわち、他方式により生成した予測画像の誤差の判定を先に行い、該誤差が閾値以下の場合には、他方式により生成した予測画像を出力し、該誤差が閾値より大きい場合には、エッジ推定直線Lを用いて生成した予測画像の誤差を判定してもよい。   In the flowchart of FIG. 15, the error of the predicted image generated using the edge estimation straight line L is determined, and when the error is equal to or smaller than the threshold (step S302—Yes), the prediction generated using the edge estimation straight line L is determined. When the image is output (step S305) and the error is larger than the threshold (step S302-No), the error of the predicted image generated by another method is determined (step S307), but this order is changed. Is also possible. That is, the error of the predicted image generated by the other method is determined first, and when the error is equal to or smaller than the threshold, the predicted image generated by the other method is output. You may determine the error of the estimated image produced | generated using the estimated straight line L. FIG.

実施例3のイントラ予測装置1によれば、エッジ推定直線Lを用いて生成した予測画像と、第1の他方式(例えば、予測画素値曲面Wを用いる方式)により生成した予測画像と、第2の他方式(例えば、MPEG−4 AVC/H.264方式)により生成した予測画像とを切替えることができるので、エッジを含まない画像に対しても適切な予測画像を生成することができるようになる。また、グラデーション領域や、エッジ等を含んでいても方向を推定できる場合は、従来必要であったイントラ予測の方向の情報を送る必要がない。   According to the intra prediction device 1 of the third embodiment, a predicted image generated using the edge estimation straight line L, a predicted image generated by the first other method (for example, a method using the predicted pixel value curved surface W), 2 can switch between predicted images generated by other methods (for example, MPEG-4 AVC / H.264 method), so that an appropriate predicted image can be generated even for an image that does not include an edge. become. In addition, when the direction can be estimated even if a gradation region, an edge, or the like is included, it is not necessary to send information on the direction of intra prediction that has been conventionally required.

次に、本発明による実施例4のイントラ予測装置について、図面を参照して説明する。なお、実施例1と同様な構成要素には同一の参照番号を付して説明を省略する。   Next, an intra prediction apparatus according to a fourth embodiment of the present invention will be described with reference to the drawings. In addition, the same reference number is attached | subjected to the component similar to Example 1, and description is abbreviate | omitted.

実施例4のイントラ予測装置1は、間接参照画素及び直接参照画素の位置をどこにするか、エッジ推定直線Lの指標の種類や最適化手段(最小二乗法、線型計画法、ニューラルネットワークを用いた学習法等)としていずれを採用するか、及び抽出した直接参照画素から予測値をどのような方法で算出するかについて、複数の処理モードを用意し、予測ブロックごとにどの処理モードを選択するかを切替えるようにする。図16は、本発明による実施例4のイントラ予測装置1を示す構成図である。ここでは、複数(n個)の実施例1のイントラ予測装置1と、処理モード判定部19とを備える例を示すが、イントラ予測装置1として、実施例2又は3のイントラ予測装置1を備える構成とすることができることは勿論である。   The intra prediction apparatus 1 according to the fourth embodiment uses the position of the indirect reference pixel and the direct reference pixel, the type of the index of the edge estimation straight line L, and optimization means (least square method, linear programming method, neural network). Multiple processing modes for which prediction method is to be calculated from the extracted direct reference pixels and which processing mode to select for each prediction block. Is switched. FIG. 16: is a block diagram which shows the intra prediction apparatus 1 of Example 4 by this invention. Here, an example including a plurality (n) of intra prediction apparatuses 1 according to the first embodiment and the processing mode determination unit 19 is shown, but the intra prediction apparatus 1 includes the intra prediction apparatus 1 according to the second or third embodiment. Of course, it can be set as a structure.

処理モード判定部19は、複数の処理モードにより生成された予測画像の中から最適な予測画像を選択して出力する。例えば、符号化効率が最大となる予測画像、又は予測画像の画素値と、参照ブロックA〜Dの画素値との誤差が最小である予測画像を選択する。   The processing mode determination unit 19 selects and outputs an optimal prediction image from prediction images generated in a plurality of processing modes. For example, the prediction image with the maximum encoding efficiency or the prediction image with the smallest error between the pixel value of the prediction image and the pixel values of the reference blocks A to D is selected.

また、処理モード判定部19は、処理モード1〜nのうちのいずれの処理モードを選択したかを示すフラグを出力する。ただし、符号化器及び復号器に本実施例のイントラ予測装置1を用いた場合、符号化器と復号器との間で処理モードを決定する規則を定めておけば、フラグを伝送する必要はない。例えば、復号画像の分散値が大きい場合には、誤差の影響の小さな最適化手段を用いる処理モードを選択するなど、処理モードを復号画像から推定することも可能である。また、予測画素値曲面の式については、あらかじめ定めておいたものから選択する以外に、フレーム毎などのタイミングで別途伝送しても良い。   Further, the processing mode determination unit 19 outputs a flag indicating which of the processing modes 1 to n has been selected. However, when the intra prediction apparatus 1 of the present embodiment is used for an encoder and a decoder, it is necessary to transmit a flag if a rule for determining a processing mode is defined between the encoder and the decoder. Absent. For example, when the variance value of the decoded image is large, it is possible to estimate the processing mode from the decoded image, such as selecting a processing mode that uses optimization means with a small influence of error. Further, the predicted pixel value curved surface expression may be separately transmitted at a timing such as for each frame, in addition to selecting from a predetermined one.

実施例4のイントラ予測装置1によれば、複数の処理モードの中から所望の予測画像を選択できるので、さまざまな画像に対して、画像ごとに最適な予測画像を生成することができるようになる。   According to the intra prediction apparatus 1 of the fourth embodiment, since a desired predicted image can be selected from among a plurality of processing modes, an optimal predicted image can be generated for each image with respect to various images. Become.

ここで、イントラ予測装置1として機能させるために、コンピュータを好適に用いることができる。実施例1のイントラ予測装置1を機能させるコンピュータは、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14とを機能させるための制御部を、CPU(中央演算処理装置)と記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14の有する機能を実現させることができる。   Here, in order to function as the intra prediction apparatus 1, a computer can be used suitably. The computer that causes the intra prediction apparatus 1 of the first embodiment to function is a control for causing the indirect reference pixel difference calculation unit 11, the coefficient optimization unit 12, the direct reference pixel extraction unit 13, and the non-directional prediction unit 14 to function. Can be realized by a CPU (Central Processing Unit) and a storage unit, and by causing such a computer to execute a predetermined program by the CPU, an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, The functions of the direct reference pixel extraction unit 13 and the non-directional prediction unit 14 can be realized.

同様に実施例2のイントラ予測装置1として機能させるコンピュータは、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16とを機能させるための制御部を、CPUと記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16の有する機能を実現させることができる。   Similarly, a computer that functions as the intra prediction apparatus 1 according to the second embodiment includes an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, a direct reference pixel extraction unit 13, a non-directional prediction unit 14, and intra-screen prediction. The control unit for causing the unit 15 and the switching unit 16 to function can be realized by a CPU and a storage unit, and by causing the computer to execute a predetermined program by the CPU, the indirect reference pixel difference calculation unit 11 And the function which the coefficient optimization part 12, the direct reference pixel extraction part 13, the non-directional prediction part 14, the in-screen prediction part 15, and the switching part 16 has is realizable.

同様に実施例3のイントラ予測装置1として機能させるコンピュータは、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16と、第2画面内予測部18を機能させるための制御部を、CPUと記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、間接参照画素差算出部11と、係数最適化部12と、直接参照画素抽出部13と、無方向予測部14と、画面内予測部15と、切替え部16と、第2画面内予測部18の有する機能を実現させることができる。   Similarly, a computer that functions as the intra prediction apparatus 1 according to the third embodiment includes an indirect reference pixel difference calculation unit 11, a coefficient optimization unit 12, a direct reference pixel extraction unit 13, a non-directional prediction unit 14, and intra-screen prediction. The control unit for causing the unit 15, the switching unit 16, and the second intra-screen prediction unit 18 to function can be realized by the CPU and the storage unit, and by causing the computer to execute a predetermined program by the CPU The indirect reference pixel difference calculation unit 11, the coefficient optimization unit 12, the direct reference pixel extraction unit 13, the non-directional prediction unit 14, the intra-screen prediction unit 15, the switching unit 16, and the second intra-screen prediction unit 18 can be realized.

同様に実施例4のイントラ予測装置1として機能させるコンピュータは、複数の間接参照画素差算出部11と、複数の係数最適化部12と、複数の直接参照画素抽出部13と、複数の無方向予測部14と、処理モード判定部19とを機能させるための制御部を、CPUと記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、複数の係数最適化部12と、複数の直接参照画素抽出部13と、複数の無方向予測部14と、処理モード判定部19の有する機能を実現させることができる。   Similarly, a computer that functions as the intra prediction apparatus 1 according to the fourth embodiment includes a plurality of indirect reference pixel difference calculation units 11, a plurality of coefficient optimization units 12, a plurality of direct reference pixel extraction units 13, and a plurality of non-directions. A control unit for causing the prediction unit 14 and the processing mode determination unit 19 to function can be realized by a CPU and a storage unit, and by causing the computer to execute a predetermined program, a plurality of coefficient optimization The functions of the conversion unit 12, the plurality of direct reference pixel extraction units 13, the plurality of non-direction prediction units 14, and the processing mode determination unit 19 can be realized.

また、符号器2として機能させるために、コンピュータを好適に用いることができる。そのようなコンピュータは、イントラ予測装置1と、並べ替え部21と、減算部22と、直交変換部23と、量子化部24と、可変長符号化部25と、逆量子化部26と、逆直交変換部27と、切替えスイッチ28と、フレームメモリ30と、動き補償予測部31と、加算部32とを機能させるための制御部を、CPUと記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、イントラ予測装置1と、並べ替え部21と、減算部22と、直交変換部23と、量子化部24と、可変長符号化部25と、逆量子化部26と、逆直交変換部27と、切替えスイッチ28と、フレームメモリ30と、動き補償予測部31と、加算部32の有する機能を実現させることができる。   Moreover, in order to function as the encoder 2, a computer can be used suitably. Such a computer includes an intra prediction device 1, a rearrangement unit 21, a subtraction unit 22, an orthogonal transformation unit 23, a quantization unit 24, a variable length coding unit 25, an inverse quantization unit 26, A control unit for causing the inverse orthogonal transform unit 27, the changeover switch 28, the frame memory 30, the motion compensation prediction unit 31, and the addition unit 32 to function can be realized by a CPU and a storage unit. By causing the CPU to execute a predetermined program, the intra prediction device 1, the rearrangement unit 21, the subtraction unit 22, the orthogonal transformation unit 23, the quantization unit 24, the variable length coding unit 25, The functions of the inverse quantization unit 26, the inverse orthogonal transform unit 27, the changeover switch 28, the frame memory 30, the motion compensation prediction unit 31, and the addition unit 32 can be realized.

さらに、復号器3として機能させるために、コンピュータを好適に用いることができる。そのようなコンピュータは、イントラ予測装置1と、可変長復号部41と、逆量子化部42と、逆直交変換部43と、加算部44と、フレームメモリ45と、動き補償予測部46と、切替えスイッチ47と、並べ替え部48とを機能させるための制御部を、CPUと記憶部とで実現でき、そのようなコンピュータに、CPUによって所定のプログラムを実行させることにより、イントラ予測装置1と、可変長復号部41と、逆量子化部42と、逆直交変換部43と、加算部44と、フレームメモリ45と、動き補償予測部46と、切替えスイッチ47と、並べ替え部48の有する機能を実現させることができる。   Furthermore, in order to function as the decoder 3, a computer can be suitably used. Such a computer includes an intra prediction device 1, a variable length decoding unit 41, an inverse quantization unit 42, an inverse orthogonal transform unit 43, an addition unit 44, a frame memory 45, a motion compensation prediction unit 46, A control unit for causing the changeover switch 47 and the rearrangement unit 48 to function can be realized by a CPU and a storage unit, and by causing the computer to execute a predetermined program by the CPU, The variable length decoding unit 41, the inverse quantization unit 42, the inverse orthogonal transform unit 43, the addition unit 44, the frame memory 45, the motion compensation prediction unit 46, the changeover switch 47, and the rearrangement unit 48. Functions can be realized.

上述の実施例は、代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。従って、本発明は、上述の実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、各画像ブロックのサイズは、上述の値に限定されるものではなく、本発明を適用する画像サイズ等に合わせて好適な値を用いることができる。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, the size of each image block is not limited to the above value, and a suitable value can be used according to the image size to which the present invention is applied.

このように、本発明によれば、様々な画像に対して適したイントラ予測が可能となるので、画像を符号化又は復号する任意の用途に有用である。   As described above, according to the present invention, it is possible to perform intra prediction suitable for various images, which is useful for any application for encoding or decoding an image.

1 イントラ予測装置
11 間接参照画素差算出部
12 係数最適化部
13 直接参照画素抽出部
14 無方向予測部
15 画面内予測部
16 切替え部
17 判定部
18 第2画面内予測部
19 処理モード判定部
2 符号化器
3 復号器
DESCRIPTION OF SYMBOLS 1 Intra prediction apparatus 11 Indirect reference pixel difference calculation part 12 Coefficient optimization part 13 Direct reference pixel extraction part 14 Non-directional prediction part 15 In-screen prediction part 16 Switching part 17 Determination part 18 2nd intra-screen prediction part 19 Processing mode determination part 2 Encoder 3 Decoder

Claims (11)

予測の対象である予測ブロックに隣接する復号済みの参照ブロックの画像から、該予測ブロックの画像を予測画像として生成するイントラ予測装置であって、
前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線であって、前記予測ブロックの画像のエッジ方向を推定する直線であるエッジ推定直線を生成するエッジ推定直線生成手段と、
前記間接参照画素のうち予測画像の画素値の算出に用いる画素を直接参照画素として選定し、予測ブロックの画素ごとに、前記エッジ推定直線上に存在する直接参照画素を抽出する直接参照画素抽出手段と、
前記直接参照画素に基づいて予測ブロックの予測画像を生成する無方向予測手段と、
を備えることを特徴とするイントラ予測装置。
An intra prediction device that generates an image of a prediction block as a prediction image from an image of a decoded reference block adjacent to a prediction block to be predicted,
An edge estimation line that selects pixels included in the reference block as indirect reference pixels and generates an edge estimation line that is a straight line that passes through a plurality of indirect reference pixels and that estimates the edge direction of the image of the prediction block. Generating means;
A direct reference pixel extraction unit that selects a pixel used for calculation of a pixel value of a predicted image from among the indirect reference pixels as a direct reference pixel, and extracts a direct reference pixel existing on the edge estimation line for each pixel of the prediction block When,
Non-directional prediction means for generating a prediction image of a prediction block based on the direct reference pixels;
An intra prediction apparatus comprising:
前記エッジ推定直線生成手段は、前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線を規定し、該直線上に存在する複数の間接参照画素の差を示す指標を算出する手段と、
前記間接参照画素の差の指標が最小となる直線を前記エッジ推定直線とし、該エッジ推定直線の傾きを求める係数最適化手段と、
を有することを特徴とする、請求項1に記載のイントラ予測装置。
The edge estimation straight line generating unit selects pixels included in the reference block as indirect reference pixels, defines straight lines passing through the plurality of indirect reference pixels, and indicates a difference between the plurality of indirect reference pixels existing on the straight line. Means for calculating the indicator;
Coefficient optimization means for determining the slope of the edge estimation straight line as a straight line that minimizes the index of difference between the indirect reference pixels,
The intra prediction apparatus according to claim 1, comprising:
前記係数最適化手段は、前記間接参照画素の差の指標を、前記エッジ推定直線上に存在する隣り合う間接参照画素間の差の二乗和、又は前記エッジ推定直線上に存在する間接参照画素の分散値とすることを特徴とする、請求項2に記載のイントラ予測装置。   The coefficient optimizing means uses an index of the difference between the indirect reference pixels as a square sum of differences between adjacent indirect reference pixels existing on the edge estimation line, or an indirect reference pixel existing on the edge estimation line. The intra prediction apparatus according to claim 2, wherein a variance value is used. 前記直接参照画素抽出手段は、前記間接参照画素のうち予ブロックに隣接する画素を直接参照画素に含むことを特徴とする、請求項1〜3のいずれか一項に記載のイントラ予測装置。 The direct reference pixel extracting means may comprise a direct reference pixels pixels adjacent to the predicted block of the indirect reference pixels, the intra prediction apparatus according to any one of claims 1 to 3. 前記無方向予測手段は、前記予測ブロックの画素ごとに抽出した直接参照画素が1つの場合には、該直接参照画素の値、又は該直接参照画素と該直接参照画素に隣接する画素との平均値若しくは加重平均値を予測値とし、
前記予測ブロックの画素ごとに抽出した直接参照画素が複数ある場合には、前記予測ブロックの画素に最も近い直接参照画素、該抽出した直接参照画素の平均値若しくは加重平均値、又は前記エッジ推定直線上の全ての間接参照画素及び直接参照画素の平均値を予測値とし、
前記予測ブロックの画素ごとに抽出した直接参照画素が存在しない場合には、前記エッジ推定直線に最も近い直接参照画素、前記予測ブロックの画素の近傍の予測済み画素の値の平均値、又は全ての直接参照画素の平均値を予測値とする
ことを特徴とする、請求項1〜4のいずれか一項に記載のイントラ予測装置。
The non-directional prediction means, when there is one direct reference pixel extracted for each pixel of the prediction block, the value of the direct reference pixel or the average of the direct reference pixel and the pixel adjacent to the direct reference pixel Value or weighted average value as the predicted value,
When there are a plurality of direct reference pixels extracted for each pixel of the prediction block, the direct reference pixel closest to the pixel of the prediction block, the average value or the weighted average value of the extracted direct reference pixels, or the edge estimation line The average value of all the indirect reference pixels and direct reference pixels above is taken as the predicted value,
If there is no direct reference pixel extracted for each pixel of the prediction block, the direct reference pixel closest to the edge estimation line, the average value of the predicted pixels in the vicinity of the pixel of the prediction block, or all The intra prediction apparatus according to claim 1, wherein an average value of direct reference pixels is used as a prediction value.
前記間接参照画素の差の指標が、所定の値を超えるか否かを判定する手段と、
前記参照ブロックの画像から予測画像を生成する画面内予測手段と、
前記指標が前記所定の値以下である場合には、前記無方向予測手段により生成した予測画像を出力し、前記指標が前記所定の値を超える場合には、前記画面内予測手段により生成した予測画像を出力する手段と、
を備えることを特徴とする、請求項2〜5のいずれか一項に記載のイントラ予測装置。
Means for determining whether an index of the difference between the indirect reference pixels exceeds a predetermined value;
In-screen prediction means for generating a predicted image from the image of the reference block;
When the index is less than or equal to the predetermined value, the prediction image generated by the non-directional prediction unit is output, and when the index exceeds the predetermined value, the prediction generated by the intra-screen prediction unit Means for outputting an image;
The intra prediction apparatus according to any one of claims 2 to 5, comprising:
前記画面内予測手段は、前記参照ブロックの画像から予測方向を選択して予測画像を生成することを特徴とする、請求項6に記載のイントラ予測装置。   The intra-prediction device according to claim 6, wherein the intra-screen prediction unit generates a prediction image by selecting a prediction direction from the image of the reference block. 前記エッジ推定直線生成手段、前記直接参照画素抽出手段、及び前記無方向予測手段は、複数の処理モードを有し、処理モードごとに、間接参照画素の位置、直接参照画素の位置、又は前記エッジ推定直線の係数の導出方法が異なり、
前記無方向予測手段は、前記処理モードごとに予測画像を生成し、
更に、前記処理モードごとに生成した予測画像の中から予測画像を選択して出力する判定手段を備えることを特徴とする、請求項1〜7のいずれか一項に記載のイントラ予測装置。
The edge estimation straight line generation unit, the direct reference pixel extraction unit, and the non-directional prediction unit have a plurality of processing modes, and the position of the indirect reference pixel, the position of the direct reference pixel, or the edge for each processing mode The method for deriving the coefficient of the estimated line is different,
The non-directional prediction means generates a predicted image for each processing mode,
Furthermore, the intra prediction apparatus as described in any one of Claims 1-7 provided with the determination means which selects and outputs a prediction image from the prediction images produced | generated for every said processing mode.
請求項1〜8のいずれか一項に記載のイントラ予測装置を備えることを特徴とする符号化器。   The encoder provided with the intra prediction apparatus as described in any one of Claims 1-8. 請求項1〜8のいずれか一項に記載のイントラ予測装置を備えることを特徴とする復号器。   A decoder comprising the intra prediction apparatus according to any one of claims 1 to 8. 予測の対象である予測ブロックに隣接する復号済みの参照ブロックの画像から、該予測ブロックの画像を予測画像として生成するイントラ予測装置を構成するコンピュータに、
(a)前記参照ブロックに含まれる画素を間接参照画素として選定し、複数の間接参照画素を通る直線であって、前記予測ブロックの画像のエッジ方向を推定する直線であるエッジ推定直線を生成するステップと、
(b)前記間接参照画素のうち予測画像の画素値の算出に用いる画素を直接参照画素として選定し、予測ブロックの画素ごとに、前記エッジ推定直線上に存在する直接参照画素を抽出するステップと、
(c)前記直接参照画素に基づいて予測ブロックの予測画像を生成するステップと、
を実行させるためのプログラム。
From a decoded reference block image adjacent to a prediction block to be predicted, an image of the prediction block is generated as a predicted image to a computer constituting an intra prediction apparatus.
(A) A pixel included in the reference block is selected as an indirect reference pixel, and an edge estimation line that is a straight line that passes through a plurality of indirect reference pixels and that estimates the edge direction of the image of the prediction block is generated. Steps,
(B) selecting a pixel used for calculating a pixel value of a predicted image from among the indirect reference pixels as a direct reference pixel, and extracting a direct reference pixel existing on the edge estimation line for each pixel of the predicted block; ,
(C) generating a prediction image of a prediction block based on the direct reference pixels;
A program for running
JP2010068889A 2010-03-24 2010-03-24 Intra prediction apparatus, encoder, decoder, and program Expired - Fee Related JP5222878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010068889A JP5222878B2 (en) 2010-03-24 2010-03-24 Intra prediction apparatus, encoder, decoder, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010068889A JP5222878B2 (en) 2010-03-24 2010-03-24 Intra prediction apparatus, encoder, decoder, and program

Publications (2)

Publication Number Publication Date
JP2011205259A JP2011205259A (en) 2011-10-13
JP5222878B2 true JP5222878B2 (en) 2013-06-26

Family

ID=44881464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010068889A Expired - Fee Related JP5222878B2 (en) 2010-03-24 2010-03-24 Intra prediction apparatus, encoder, decoder, and program

Country Status (1)

Country Link
JP (1) JP5222878B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101530284B1 (en) 2010-07-16 2015-06-19 삼성전자주식회사 Method and apparatus for video intra prediction encoding, and method and apparatus for video intra prediction decoding
EP3273694A4 (en) * 2015-05-12 2018-04-25 Samsung Electronics Co., Ltd. Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4257789B2 (en) * 2004-02-27 2009-04-22 Kddi株式会社 Video encoding device
JP2006211304A (en) * 2005-01-28 2006-08-10 Matsushita Electric Ind Co Ltd Device, method, and program for video image coding and decoding
KR100750128B1 (en) * 2005-09-06 2007-08-21 삼성전자주식회사 Method and apparatus for intra prediction of video
JP2009094828A (en) * 2007-10-10 2009-04-30 Hitachi Ltd Device and method for encoding image, and device and method for decoding image
JP2009111691A (en) * 2007-10-30 2009-05-21 Hitachi Ltd Image-encoding device and encoding method, and image-decoding device and decoding method
JP2009194760A (en) * 2008-02-15 2009-08-27 Victor Co Of Japan Ltd Image coding device, image decoding device, program for coding image, and program for decoding image
KR20090095316A (en) * 2008-03-05 2009-09-09 삼성전자주식회사 Method and apparatus for image intra prediction

Also Published As

Publication number Publication date
JP2011205259A (en) 2011-10-13

Similar Documents

Publication Publication Date Title
US9053543B2 (en) Methods and apparatuses for encoding/decoding high resolution images
KR102512053B1 (en) Methods of decoding using skip mode and apparatuses for using the same
US20150016741A1 (en) Apparatus and method for encoding/decoding images for intra-prediction
JP5215951B2 (en) Encoding apparatus, control method therefor, and computer program
US20130089265A1 (en) Method for encoding/decoding high-resolution image and device for performing same
KR20110134319A (en) Methods for encoding/decoding high definition image and apparatuses for performing the same
JP5216710B2 (en) Decryption processing method
KR102624286B1 (en) Method and apparatus for video encoding/decoding using image analysis
JP6698053B2 (en) Method and apparatus for encoding and decoding
JP5222870B2 (en) Intra prediction apparatus, encoder, decoder, and program
JP2017069866A (en) Moving image encoder, moving image encoding method and computer program for encoding moving image
JP5222878B2 (en) Intra prediction apparatus, encoder, decoder, and program
JP5174062B2 (en) Intra prediction apparatus, encoder, decoder, and program
JP5518224B2 (en) Encoding apparatus, encoding method, and program
JP7027044B2 (en) Image coding device, image coding method and program
JP5202558B2 (en) Intra prediction apparatus, encoder, decoder, and program
JP5542636B2 (en) Intra prediction apparatus, encoder, decoder, and program
JP2013017128A (en) Intra-prediction mode estimation device, image encoder, image decoder and program
JP5298082B2 (en) Encoding apparatus and decoding apparatus for adaptively determining scan order of orthogonal transform coefficients
WO2012141500A2 (en) Image encoding method using a skip mode, and a device using the method
JP2018007079A (en) Encoder, decoder, and program
JP2012054791A (en) Encoding device, decoding device and program
JP2009147535A (en) Motion picture encoder and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5222878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees