JP5898452B2 - Intra prediction apparatus, encoding apparatus, decoding apparatus, and program - Google Patents

Intra prediction apparatus, encoding apparatus, decoding apparatus, and program Download PDF

Info

Publication number
JP5898452B2
JP5898452B2 JP2011226230A JP2011226230A JP5898452B2 JP 5898452 B2 JP5898452 B2 JP 5898452B2 JP 2011226230 A JP2011226230 A JP 2011226230A JP 2011226230 A JP2011226230 A JP 2011226230A JP 5898452 B2 JP5898452 B2 JP 5898452B2
Authority
JP
Japan
Prior art keywords
prediction
intra prediction
color difference
unit
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011226230A
Other languages
Japanese (ja)
Other versions
JP2013090015A (en
Inventor
善明 鹿喰
善明 鹿喰
井口 和久
和久 井口
境田 慎一
慎一 境田
市ヶ谷 敦郎
敦郎 市ヶ谷
泰子 杉藤
泰子 杉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2011226230A priority Critical patent/JP5898452B2/en
Publication of JP2013090015A publication Critical patent/JP2013090015A/en
Application granted granted Critical
Publication of JP5898452B2 publication Critical patent/JP5898452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、ブロック単位でイントラ予測(画面内予測)を行い、予測対称ブロックの予測画像を生成するイントラ予測装置、符号化装置、復号装置、及びプログラムに関するものである。   The present invention relates to an intra prediction device, an encoding device, a decoding device, and a program that perform intra prediction (intra-screen prediction) in units of blocks and generate a prediction image of a prediction symmetric block.

MPEG−4 AVC/H.264方式(ISO/IEC 14496−10/ITU−T Rec.H.264)においては、予測対象ブロック(符号化対象ブロック)をイントラ予測により符号化する場合は、復号済みの周囲のブロックを用いてイントラ予測を行って予測画像を生成し、原画像と予測画像との差分を符号化することが知られている(例えば、非特許文献1参照)。イントラ予測にあたっては、予め設定された予測方向のうち、最適なものを選択して予測を行うとともに、選択された予測方向を示すイントラ予測モード(以下、単に「予測モード」ともいう)を符号化して伝送する。   MPEG-4 AVC / H. In the H.264 system (ISO / IEC 14496-10 / ITU-T Rec. H.264), when a prediction target block (encoding target block) is encoded by intra prediction, a decoded surrounding block is used. It is known that intra prediction is performed to generate a predicted image, and the difference between the original image and the predicted image is encoded (see, for example, Non-Patent Document 1). In intra prediction, an optimal prediction direction is selected from the preset prediction directions and prediction is performed, and an intra prediction mode (hereinafter also simply referred to as “prediction mode”) indicating the selected prediction direction is encoded. And transmit.

MPEG−4 AVC/H.264方式におけるイントラ予測は、4×4画素単位、8×8画素単位、又は16×16画素単位で行われ、予め設定された複数種類の予測モードの中から最適な予測モードを選択する。図8は、MPEG−4 AVC/H.264方式において、8×8画素単位でイントラ予測する場合のイントラ予測モードを示す図である。図中の斜線付きの丸は復号済みの画素を示し、白丸は予測対象の画素を示し、矢印は予測方向を示している。図8(a)の予測モード0では垂直方向予測、図8(b)の予測モード1では水平方向予測、図8(c)の予測モード2ではDC予測、図8(d)の予測モード3では対角左下方向予測、図8(e)の予測モード4では対角右下方向予測、図8(f)の予測モード5では垂直右方向予測、図8(g)の予測モード6では水平下方向予測、図8(h)の予測モード7では垂直左方向予測、図8(i)の予測モード8では水平上方向予測を行う。このように、予測モードは予測方向に対応付けられている。なお、輝度信号のイントラ予測には上記の予測モード0〜8までが設定されているが、色差信号のイントラ予測には上記の予測モード0〜3のみが設定されている。   MPEG-4 AVC / H. Intra prediction in the H.264 scheme is performed in units of 4 × 4 pixels, 8 × 8 pixels, or 16 × 16 pixels, and an optimal prediction mode is selected from a plurality of preset prediction modes. FIG. 8 shows MPEG-4 AVC / H. FIG. 3 is a diagram illustrating an intra prediction mode when performing intra prediction in units of 8 × 8 pixels in the H.264 scheme. In the figure, a hatched circle indicates a decoded pixel, a white circle indicates a prediction target pixel, and an arrow indicates a prediction direction. The prediction mode 0 in FIG. 8 (a) is vertical prediction, the prediction mode 1 in FIG. 8 (b) is horizontal prediction, the prediction mode 2 in FIG. 8 (c) is DC prediction, and the prediction mode 3 in FIG. 8 (d). In diagonally lower left direction prediction, in prediction mode 4 in FIG. 8 (e), diagonal lower right direction prediction, in prediction mode 5 in FIG. 8 (f), vertical right direction prediction, in prediction mode 6 in FIG. 8 (g), horizontal. In the downward prediction, the prediction mode 7 in FIG. 8H performs vertical left prediction, and the prediction mode 8 in FIG. 8I performs horizontal upward prediction. Thus, the prediction mode is associated with the prediction direction. Note that the prediction modes 0 to 8 are set for the intra prediction of the luminance signal, but only the prediction modes 0 to 3 are set for the intra prediction of the color difference signal.

次世代の圧縮符号化方式として規格化が進められているHEVC(High-Efficiency Video Coding)方式でもイントラ予測を行うことが知られている(例えば、非特許文献2参照)。図9は、非特許文献2に開示されている、HEVC方式におけるイントラ予測モードを示す図である。図面の便宜上、図8の矢印は予測方向を示しているが、図9の矢印は参照方向(予測方向と逆方向)を示している。また、図9中の数字は予測モードを表している。HEVC方式の予測モードは、MPEG−4 AVC/H.264方式の9種類に比べて、34種類に増加している。   It is known that intra-prediction is also performed in the HEVC (High-Efficiency Video Coding) system, which is being standardized as a next-generation compression encoding system (see, for example, Non-Patent Document 2). FIG. 9 is a diagram illustrating an intra prediction mode in the HEVC method disclosed in Non-Patent Document 2. For convenience of drawing, the arrow in FIG. 8 indicates the prediction direction, but the arrow in FIG. 9 indicates the reference direction (the direction opposite to the prediction direction). Also, the numbers in FIG. 9 represent the prediction mode. The prediction mode of the HEVC system is MPEG-4 AVC / H. Compared to 9 types of H.264 system, it is increased to 34 types.

また、カラー画像(RGB画像やYCbCr画像)の符号化においては、例えばYCbCr画像を符号化する場合、1つの輝度信号(Y)及び2つの色差信号(Cb,Cr)を符号化する。このとき、上述したような同一画面内の同一コンポーネント信号を用いてイントラ予測する技法の他に、同一画面内の異なるコンポーネント信号(輝度信号と色差信号)を用いてイントラ予測する技法が知られている(例えば、非特許文献3参照)。非特許文献3に記載の技法では、輝度信号から色差信号を予測する予測式を導出し、導出した予測式を用いて、復号済みの輝度信号から色差信号を予測する。なお、予測式の復号側への伝送は不要である。   Also, in encoding a color image (RGB image or YCbCr image), for example, when encoding a YCbCr image, one luminance signal (Y) and two color difference signals (Cb, Cr) are encoded. At this time, in addition to the technique of performing intra prediction using the same component signal in the same screen as described above, a technique of performing intra prediction using different component signals (luminance signal and color difference signal) in the same screen is known. (For example, see Non-Patent Document 3). In the technique described in Non-Patent Document 3, a prediction formula for predicting a color difference signal is derived from a luminance signal, and a color difference signal is predicted from a decoded luminance signal using the derived prediction formula. Note that it is not necessary to transmit the prediction formula to the decoding side.

図10は、異なるコンポーネント信号間における予測式を用いたイントラ予測を説明する図である。輝度信号の画像サイズと色差信号の画像サイズが異なる場合には、輝度信号を色差信号と同一の画像サイズとなるようにダウンサンプリングする。図10では、2N×2N画素の輝度信号RecをN×N画素の色差信号Recと同一の画像サイズとなるようにダウンサンプリングした信号Rec’を生成する。 FIG. 10 is a diagram for describing intra prediction using a prediction formula between different component signals. When the image size of the luminance signal and the image size of the color difference signal are different, the luminance signal is down-sampled so as to have the same image size as the color difference signal. In FIG. 10, a signal Rec L ′ is generated by down-sampling the luminance signal Rec L of 2N × 2N pixels so as to have the same image size as the color difference signal Rec C of N × N pixels.

そして、色差信号の予測対象ブロックに隣接する復号済みの画素Rec(i)と、該画素に対応する位置(異なるコンポーネント信号間で同位置)にある輝度信号の復号済みの画素Rec’(i)とを用いて、次式(1)(2)により、予測式に用いられる係数α,βを導出する。次式(3)の予測式に導出した係数α,βを代入することにより、輝度信号から色差信号の予測値Predを算出することができる。ここで、Iは隣接画素(参照画素)の数を表し、iは隣接画素の番号を表す。図10に示すように予測対象ブロックのサイズが8×8画素の場合、I=16、i=0〜15である。なお、色差信号Cb,Crの各々について、式(1)〜(3)を用いてイントラ予測する。 Then, the decoded pixel Rec C (i) adjacent to the prediction target block of the color difference signal and the decoded pixel Rec L ′ () of the luminance signal at the position corresponding to the pixel (the same position between different component signals). i) and the following equations (1) and (2) are used to derive the coefficients α and β used in the prediction equation. By substituting the coefficients α and β derived into the prediction equation of the following equation (3), the prediction value Pred C of the color difference signal can be calculated from the luminance signal. Here, I represents the number of adjacent pixels (reference pixels), and i represents the number of adjacent pixels. As shown in FIG. 10, when the size of the prediction target block is 8 × 8 pixels, I = 16 and i = 0 to 15. In addition, intra prediction is performed for each of the color difference signals Cb and Cr using the equations (1) to (3).

Figure 0005898452
Figure 0005898452

大久保 榮、他3名、「改訂三版 H.264/AVC教科書」、インプレスR&D、2008年12月26日Satoshi Okubo and three others, “Revised third edition H.264 / AVC textbook”, Impress R & D, December 26, 2008 T.Wiegand, W-J Han, B Bross, J-R.Ohm, G.J.Sullivan, “WD3:Working Draft 3 of High-Efficiency Video Coding”, JCTVC-E603T. Wiegand, W-J Han, B Bross, J-R.Ohm, G.J.Sullivan, “WD3: Working Draft 3 of High-Efficiency Video Coding”, JCTVC-E603 JCT-VC E266 Chroma intra prediction by reconstructed luma samples (Samusung, LG)JCT-VC E266 Chroma intra prediction by reconstructed luma samples (Samusung, LG)

上述した、同一画面内で異なるコンポーネント信号間で予測式を用いてイントラ予測する技法では、予測対象ブロック(符号化対象ブロック)と該予測対象ブロックに隣接する隣接画素との相関が高いという前提でイントラ予測を行っている。しかし、一般に必ずしも予測対象ブロックと隣接画素との相関が高いとは限らず、両者の相関が低い場合には確度(信頼度)の高いイントラ予測を行うことができなかった。   In the technique of performing intra prediction using a prediction formula between different component signals in the same screen as described above, it is assumed that a correlation between a prediction target block (encoding target block) and an adjacent pixel adjacent to the prediction target block is high. Intra prediction is performed. However, in general, the correlation between the prediction target block and adjacent pixels is not necessarily high, and when the correlation between the two is low, intra prediction with high accuracy (reliability) cannot be performed.

本発明の目的は、上記問題を解決するため、予測対象ブロックと該予測対象ブロックの隣接画素との相関を考慮した予測式を用いてイントラ予測を行うことにより、イントラ予測の確度を向上させることが可能なイントラ予測装置、符号化装置、復号装置、及びプログラムを提供することにある。   In order to solve the above problem, an object of the present invention is to improve the accuracy of intra prediction by performing intra prediction using a prediction formula that takes into account the correlation between a prediction target block and adjacent pixels of the prediction target block. It is an object to provide an intra prediction device, an encoding device, a decoding device, and a program capable of performing the above.

符号化済みのコンポーネント信号(例えば、輝度信号)をプライマリコンポーネント信号、予測対象とするその他の1以上のコンポーネント信号(例えば、色差信号)をセカンダリコンポーネント信号とする。上記課題を解決するため、本発明に係るイントラ予測装置は、プライマリコンポーネント信号のイントラ予測に用いられた隣接画素を用いて予測式を導出する。多くのイントラ予測においては特定の一方向に同じ値が続くという予測が用いられるため、選択されたイントラ予測の予測モードから予測対象ブロックに相関の高い隣接画素の位置を推定することができる。したがって、予測対象ブロックに対して予測方向の逆方向に存在する隣接画素だけを用いることにより、予測対象ブロックの予測に適した予測式を導出することができる。   An encoded component signal (for example, luminance signal) is defined as a primary component signal, and one or more other component signals (for example, color difference signals) to be predicted are defined as secondary component signals. In order to solve the above-described problem, the intra prediction apparatus according to the present invention derives a prediction formula using adjacent pixels used for intra prediction of a primary component signal. In many intra predictions, a prediction that the same value continues in one specific direction is used, so that the position of an adjacent pixel having a high correlation with the prediction target block can be estimated from the selected prediction mode of intra prediction. Therefore, a prediction formula suitable for prediction of a prediction target block can be derived by using only adjacent pixels that exist in a direction opposite to the prediction direction with respect to the prediction target block.

すなわち、本発明に係るイントラ予測装置は、プライマリコンポーネント信号(例えば、輝度信号)と、その他の1以上のコンポーネント信号からなるセカンダリコンポーネント信号(例えば、色差信号)とを有する映像信号について、符号化済みのプライマリコンポーネント信号及び係数で表される予測式を用いて、セカンダリコンポーネント信号のイントラ予測を行うイントラ予測装置であって、予め定められた複数のイントラ予測モードから決定されたプライマリ予測モードに基づいてプライマリコンポーネント信号の予測画像を生成するプライマリ予測画像生成部と、前記プライマリ予測モードが示す予測方向に応じて、前記予測式の係数導出に用いる参照画素の位置を決定し、該参照画素の位置を示す参照画素位置情報を生成する参照画素選択部と、前記参照画素位置情報が示す、前記プライマコンポーネント信号の画素及び前記セカンダリコンポーネント信号の画素から、前記予測式の係数を導出する係数導出部と、前記係数導出部により導出された係数を代入した予測式を用いて前記セカンダリコンポーネント信号のイントラ予測を行い、セカンダリコンポーネント信号の予測画像を生成する第1セカンダリ予測画像生成部と、を備えることを特徴とする。
That is, the intra prediction apparatus according to the present invention has encoded a video signal having a primary component signal (for example, a luminance signal) and a secondary component signal (for example, a color difference signal) composed of one or more other component signals. An intra-prediction device that performs intra-prediction of a secondary component signal using a prediction formula represented by a primary component signal and a coefficient based on a primary prediction mode determined from a plurality of predetermined intra-prediction modes A primary prediction image generation unit that generates a prediction image of a primary component signal, and determines a position of a reference pixel used for deriving a coefficient of the prediction formula according to a prediction direction indicated by the primary prediction mode, and determines the position of the reference pixel Generate reference pixel position information to indicate And irradiation pixel selection unit, the illustrated reference pixel position information, from the pixels of the pixel and the secondary component signal of the primary component signals, and a coefficient deriving unit that derives the coefficients of the prediction equation is derived by the coefficient deriving unit And a first secondary predicted image generation unit that performs intra prediction of the secondary component signal using a prediction formula into which the coefficient is substituted and generates a predicted image of the secondary component signal.

さらに、本発明に係るイントラ予測装置において、前記参照画素選択部は、前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、0度を含む範囲である、第1の角度以上第2の角度未満である場合には、前記参照画素の位置を、予測対象ブロックの上側に隣接する一行の画素(後述する図2に示す例では、隣接画素a1〜a8)とし、前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、45度を含む範囲である、前記第2の角度以上第3の角度未満である場合には、前記参照画素の位置を、前記一行の画素の一部、及び、予測対象ブロックの左側に隣接する一列の画素(後述する図2に示す例では、隣接画素b1〜b8)の一部とし、前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、0度を含む範囲である、前記第3の角度以上第4の角度未満である場合には、前記参照画素の位置を、前記一列の画素とすることを特徴とする。   Furthermore, in the intra prediction device according to the present invention, the reference pixel selection unit has a range in which an angle in a counterclockwise direction with respect to a vertically downward direction of the prediction direction indicated by the primary prediction mode includes 0 degrees. When the angle is equal to or larger than the first angle and smaller than the second angle, the position of the reference pixel is set to a row of pixels adjacent to the upper side of the prediction target block (in the example illustrated in FIG. 2 described later, adjacent pixels a1 to a8). When the angle in the counterclockwise direction with respect to the vertically downward direction of the prediction direction indicated by the primary prediction mode is a range including 45 degrees, and is less than the second angle and less than the third angle. , The position of the reference pixel is a part of the pixels in the one row and a part of a column of pixels adjacent to the left side of the prediction target block (in the example shown in FIG. 2 described later, adjacent pixels b1 to b8), The primary prediction mode If the angle in the counterclockwise direction with respect to the vertical downward direction of the prediction direction indicated by is within the range including 0 degrees and is less than or equal to the third angle and less than the fourth angle, the position of the reference pixel Is the one row of pixels.

さらに、本発明に係るイントラ予測装置において、予め定められた複数のイントラ予測モードから決定されたセカンダリ予測モードに基づいてセカンダリコンポーネント信号の予測画像を生成する第2セカンダリ予測画像生成部と、前記第1セカンダリ予測画像生成部により生成されたセカンダリコンポーネント信号の予測画像、及び前記第2セカンダリ予測画像生成部により生成されたセカンダリコンポーネント信号の予測画像のうち、いずれか一方を選択して出力するセカンダリ予測画像選択部と、を更に備えることを特徴とする。   Furthermore, in the intra prediction device according to the present invention, a second secondary prediction image generation unit that generates a prediction image of a secondary component signal based on a secondary prediction mode determined from a plurality of predetermined intra prediction modes; Secondary prediction that selects and outputs one of the predicted image of the secondary component signal generated by the first secondary predicted image generation unit and the predicted image of the secondary component signal generated by the second secondary predicted image generation unit And an image selection unit.

また、上記課題を解決するため、本発明に係る符号化装置は、上述したイントラ予測装置を備えることを特徴とする。   Moreover, in order to solve the said subject, the encoding apparatus which concerns on this invention is provided with the intra prediction apparatus mentioned above, It is characterized by the above-mentioned.

また、上記課題を解決するため、本発明に係る復号装置は、上述したイントラ予測装置を備えることを特徴とする。   Moreover, in order to solve the said subject, the decoding apparatus which concerns on this invention is provided with the intra prediction apparatus mentioned above.

また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上述したイントラ予測装置、符号化装置又は復号装置として機能させることを特徴とする。   Moreover, in order to solve the said subject, the program which concerns on this invention makes a computer function as an intra prediction apparatus mentioned above, an encoding apparatus, or a decoding apparatus.

本発明によれば、予測対象ブロックと該予測対象ブロックに隣接する参照画素との相関を考慮した予測式を用いてイントラ予測を行うことにより、イントラ予測の確度を向上させることができるようになる。   According to the present invention, it is possible to improve the accuracy of intra prediction by performing intra prediction using a prediction formula that takes into account the correlation between a prediction target block and a reference pixel adjacent to the prediction target block. .

本発明の一実施例に係る符号化側のイントラ予測装置の第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of the intra prediction apparatus by the side of an encoding which concerns on one Example of this invention. 予測式の係数を導出する際に用いる参照画素を示す図である。It is a figure which shows the reference pixel used when deriving the coefficient of a prediction formula. 本発明の一実施例に係る符号化側のイントラ予測装置の第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the intra prediction apparatus by the side of an encoding which concerns on one Example of this invention. 本発明の一実施例に係る符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the encoding apparatus which concerns on one Example of this invention. 本発明の一実施例に係る復号側のイントラ予測装置の第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of the intra prediction apparatus by the side of a decoding which concerns on one Example of this invention. 本発明の一実施例に係る復号側のイントラ予測装置の第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the intra prediction apparatus by the side of decoding which concerns on one Example of this invention. 本発明の一実施例に係る復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the decoding apparatus which concerns on one Example of this invention. MPEG4 AVC/H.264方式におけるイントラ予測モードを示す図である。MPEG4 AVC / H. It is a figure which shows the intra prediction mode in H.264 system. HEVC方式におけるイントラ予測モードを示す図である。It is a figure which shows the intra prediction mode in a HEVC system. 異なるコンポーネント信号間における予測式を用いたイントラ予測を説明する図である。It is a figure explaining the intra prediction using the prediction formula between different component signals.

本発明に係るイントラ予測装置は、プライマリコンポーネント信号と、その他の1以上のコンポーネント信号からなるセカンダリコンポーネント信号とを有する映像信号について、プライマリコンポーネント信号及び係数で表される予測式を用いて、セカンダリコンポーネント信号のイントラ予測を行う。以下に説明する本発明の実施例では、プライマリコンポーネント信号が輝度信号であり、セカンダリコンポーネント信号が色差信号である場合を例に説明する。なお、色差信号はCb信号及びCr信号からなり、色差信号Cb,Crの各々について予測式を用いてイントラ予測を行うが、以下の実施例では、色差信号Cb,Crのいずれに対しても適用可能であるため、両者を区別せずに色差信号と称する。   An intra prediction apparatus according to the present invention uses a prediction formula represented by a primary component signal and a coefficient for a video signal having a primary component signal and a secondary component signal composed of one or more other component signals. Perform intra prediction of the signal. In the embodiments of the present invention described below, a case where the primary component signal is a luminance signal and the secondary component signal is a color difference signal will be described as an example. The color difference signal is composed of a Cb signal and a Cr signal, and intra prediction is performed using a prediction formula for each of the color difference signals Cb and Cr. However, in the following embodiments, the present invention is applied to both the color difference signals Cb and Cr. Since they are possible, they are referred to as color difference signals without distinction.

[符号化側のイントラ予測装置]
図1は、本発明の一実施例に係る符号化側のイントラ予測装置の第1の構成例を示すブロック図である。図1に示すように、符号化側のイントラ予測装置1は、輝度予測画像生成部(プライマリ予測画像生成部)10と、参照画素選択部11と、ダウンサンプリング部12と、メモリ13と、係数導出部14と、第1色差予測画像生成部(第1セカンダリ予測画像生成部)15と、を備える。
[Intra prediction device on the encoding side]
FIG. 1 is a block diagram illustrating a first configuration example of an encoding-side intra prediction apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the intra prediction apparatus 1 on the encoding side includes a luminance prediction image generation unit (primary prediction image generation unit) 10, a reference pixel selection unit 11, a downsampling unit 12, a memory 13, and coefficients. A derivation unit 14 and a first color difference prediction image generation unit (first secondary prediction image generation unit) 15 are provided.

符号化側のイントラ予測装置1は、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号についてイントラ予測を行った後に、色差信号についてイントラ予測を行う。この点を明示するために、図1(a)では、輝度信号についてイントラ予測を行う処理部のみ実線で示し、図1(b)では、色差信号についてイントラ予測を行う処理部のみ実線で示している。つまり、イントラ予測装置1は、図1(a)に示すように、入力される輝度信号について輝度予測画像生成部10によりブロック単位でイントラ予測を行い、輝度信号の予測モードである輝度予測モード、輝度信号の予測画像である輝度予測画像を生成する。その後、図1(b)に示すように、入力される色差信号について参照画素選択部11、ダウンサンプリング部12、メモリ13、係数導出部14、及び第1色差予測画像生成部15によりブロック単位でイントラ予測を行い、色差信号の予測画像である色差予測画像を生成する。なお、イントラ予測装置1が符号化装置に組み込まれた場合、後述するようにイントラ予測装置1には、輝度信号及び色差信号として、それぞれの局部復号画像が入力される。   The intra prediction apparatus 1 on the encoding side performs intra prediction on the color difference signal after performing intra prediction on the luminance signal for each predetermined unit block (for example, macroblock). In order to clarify this point, in FIG. 1A, only the processing unit that performs intra prediction on the luminance signal is shown by a solid line, and in FIG. 1B, only the processing unit that performs intra prediction on the color difference signal is shown by a solid line. Yes. That is, as illustrated in FIG. 1A, the intra prediction device 1 performs intra prediction on the input luminance signal in units of blocks by the luminance prediction image generation unit 10, and the luminance prediction mode that is a luminance signal prediction mode, A luminance prediction image that is a prediction image of the luminance signal is generated. Thereafter, as shown in FIG. 1B, the reference color selection unit 11, the downsampling unit 12, the memory 13, the coefficient derivation unit 14, and the first color difference prediction image generation unit 15 are processed block by block with respect to the input color difference signal. Intra prediction is performed to generate a color difference prediction image that is a prediction image of the color difference signal. In addition, when the intra prediction apparatus 1 is incorporated in an encoding apparatus, each local decoded image is input into the intra prediction apparatus 1 as a luminance signal and a color difference signal, as will be described later.

輝度予測画像生成部10は、輝度信号(プライマリコンポーネント信号)について、予測対象ブロックの周囲のブロックであって予測モードを決定済みのブロック(以下、「参照ブロック」という)の画像を参照し、予め定められた複数の予測モードから最適な予測モードである輝度予測モード(プライマリ予測モード)を決定し、決定した輝度予測モードを外部に出力する。輝度予測画像生成部10に入力される輝度信号及び輝度予測画像生成部10から出力される輝度予測モードは、その後に行われる色差信号のイントラ予測にも用いられる。   The luminance predicted image generation unit 10 refers to an image of a block (hereinafter referred to as “reference block”) that is a block around the prediction target block and has a prediction mode determined for the luminance signal (primary component signal) in advance. A luminance prediction mode (primary prediction mode) that is an optimal prediction mode is determined from a plurality of determined prediction modes, and the determined luminance prediction mode is output to the outside. The luminance signal input to the luminance predicted image generation unit 10 and the luminance prediction mode output from the luminance predicted image generation unit 10 are also used for intra prediction of the color difference signal performed thereafter.

輝度予測画像生成部10は、輝度予測モードを既知の手法により決定することができる。例えば、各予測モードに基づいて予測画像を求め、符号化コストを最小とする輝度予測モードをR−D最適化(Rate-Distortion Optimization)により決定する。MPEG4 AVC/H.264方式により8×8画素単位でイントラ予測する場合には、図8に示した予測モード0〜8の中から予測対象ブロックの輝度予測モードを決定し、HEVC方式によりイントラ予測する場合には、図9に示した予測モード0〜33の中から予測対象ブロックの輝度予測モードを決定する。   The luminance predicted image generation unit 10 can determine the luminance prediction mode by a known method. For example, a prediction image is obtained based on each prediction mode, and a luminance prediction mode that minimizes the coding cost is determined by RD optimization (Rate-Distortion Optimization). MPEG4 AVC / H. When the intra prediction is performed in units of 8 × 8 pixels using the H.264 method, the luminance prediction mode of the prediction target block is determined from the prediction modes 0 to 8 illustrated in FIG. 8, and when the intra prediction is performed using the HEVC method, The luminance prediction mode of the prediction target block is determined from the prediction modes 0 to 33 shown in FIG.

また、輝度予測画像生成部10は、決定した輝度予測モードに基づく予測画像である輝度予測画像を生成し、生成した輝度予測画像を外部に出力する。例えば、輝度予測モードが図8に示した予測モード0であった場合、輝度予測画像生成部10は、予測対象ブロックの上側に隣接する画素をそれぞれ予測対象ブロックの同じ列の画素の予測値とした輝度予測画像を生成する。   In addition, the predicted brightness image generation unit 10 generates a predicted brightness image that is a predicted image based on the determined brightness prediction mode, and outputs the generated predicted brightness image to the outside. For example, when the luminance prediction mode is the prediction mode 0 illustrated in FIG. 8, the luminance prediction image generation unit 10 determines the pixels adjacent to the upper side of the prediction target block as the prediction values of the pixels in the same column of the prediction target block. A luminance prediction image is generated.

参照画素選択部11は、色差信号の予測対象ブロックと同一フレームの同一位置における輝度信号のブロックについて、輝度予測画像生成部10により生成された輝度予測モードを取得する。そして、取得した輝度予測モードが示す予測方向に応じて、予測式の係数α,βを導出する際に用いる参照画素の位置を決定し、決定した参照画素の位置を示す参照画素位置情報を生成して係数導出部14に出力する。   The reference pixel selection unit 11 acquires the luminance prediction mode generated by the luminance prediction image generation unit 10 for the luminance signal block at the same position in the same frame as the prediction target block of the color difference signal. Then, the position of the reference pixel used when deriving the coefficients α and β of the prediction formula is determined according to the prediction direction indicated by the acquired luminance prediction mode, and reference pixel position information indicating the position of the determined reference pixel is generated. And output to the coefficient deriving unit 14.

図2は、予測式の係数α,βを導出する際に用いる参照画素を示す図である。ここでは、予測対象ブロックのブロックサイズが8×8画素の場合、すなわち8×8画素単位でイントラ予測する場合を示している。このとき、予測対象ブロックの上側に隣接する隣接画素をa1〜a8とし、予測対象ブロックの左側に隣接する隣接画素をb1〜b8とする。参照画素選択部11は、輝度予測画像生成部10から入力される輝度信号の予測モードが示す予測方向に応じて、係数α,βを導出する際に用いる参照画素の位置を、隣接画素a1〜a8及びb1〜b8の中から選択する。   FIG. 2 is a diagram illustrating reference pixels used when deriving the coefficients α and β of the prediction formula. Here, a case where the block size of the prediction target block is 8 × 8 pixels, that is, a case where intra prediction is performed in units of 8 × 8 pixels is shown. At this time, adjacent pixels adjacent to the upper side of the prediction target block are a1 to a8, and adjacent pixels adjacent to the left side of the prediction target block are b1 to b8. The reference pixel selection unit 11 determines the positions of the reference pixels used when deriving the coefficients α and β according to the prediction direction indicated by the prediction mode of the luminance signal input from the luminance prediction image generation unit 10 as the adjacent pixels a1 to a1. Select from a8 and b1 to b8.

例えば、MPEG4 AVC/H.264方式において図8に示した予測モード0〜8が予め設定されている場合には、参照画素選択部11は、次のように参照画素の位置を決定する。なお、予測方向の垂直下方向に対して反時計回り方向の角度は、予測方向が左斜め下方向のとき−45度、下方向のとき0度、右斜め下方向のとき45度、右方向のとき90度となる。
・輝度信号の予測モードが、参照画素の平均値を予測値とする予測モード(予測モード2)である場合には、隣接画素a1〜a8及びb1〜b8の全てを参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、0度を含む所定の範囲内(第1の角度以上第2の角度未満)である場合(予測モード3,7,0)には、隣接画素a1〜a8を参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、45度を含む所定の範囲内(前記第2の角度以上第3の角度未満)である場合(予測モード5,4,6)には、隣接画素a1〜a4及びb1〜b4を参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、90度を含む所定の範囲内(前記第3の角度以上第4の角度未満)である場合(予測モード1,8)には、隣接画素b1〜b8を参照画素と決定する。
For example, MPEG4 AVC / H. In the H.264 system, when the prediction modes 0 to 8 shown in FIG. 8 are set in advance, the reference pixel selection unit 11 determines the position of the reference pixel as follows. The angle in the counterclockwise direction with respect to the vertical downward direction of the prediction direction is −45 degrees when the prediction direction is diagonally downward left, 0 degrees when downward, 45 degrees when diagonally downward right, and rightward At 90 degrees.
When the prediction mode of the luminance signal is a prediction mode (prediction mode 2) in which the average value of the reference pixels is a prediction value, all of the adjacent pixels a1 to a8 and b1 to b8 are determined as reference pixels.
When the angle of the prediction direction indicated by the prediction mode of the luminance signal in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 0 degree (the first angle is less than the second angle) ( In the prediction modes 3, 7, 0), adjacent pixels a1 to a8 are determined as reference pixels.
The angle of the prediction direction indicated by the luminance signal prediction mode in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 45 degrees (more than the second angle and less than the third angle). In (prediction modes 5, 4, 6), adjacent pixels a1 to a4 and b1 to b4 are determined as reference pixels.
When the angle of the prediction direction indicated by the prediction mode of the luminance signal in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 90 degrees (more than the third angle and less than the fourth angle). In (prediction modes 1 and 8), adjacent pixels b1 to b8 are determined as reference pixels.

また、HEVC方式において図9に示した予測モード0〜33が予め設定されている場合には、MPEG4 AVC/H.264方式の場合と同様に、参照画素選択部11は次のように参照画素の位置を選択する。
・輝度信号の予測モードが、参照画素の平均値を予測値とする予測モードである場合(予測モード2)には、隣接画素a1〜a8及びb1〜b8の全てを参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、0度を含む所定の範囲内(第1の角度以上第2の角度未満)である場合(予測モード6,25,13,24,5,23,12,22,0,21,11,20,4)には、隣接画素a1〜a8を参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、45度を含む所定の範囲内(前記第2の角度以上第3の角度未満)である場合(予測モード19,10,18,3,26,14,27)には、隣接画素a1〜a4及びb1〜b4を参照画素と決定する。
・輝度信号の予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、90度を含む所定の範囲内(前記第3の角度以上第4の角度未満)である場合(予測モード7,28,15,29,1,30,16,31,8,32,17,33,9)には、隣接画素b1〜b8を参照画素と決定する。
In the HEVC system, when the prediction modes 0 to 33 shown in FIG. 9 are set in advance, MPEG4 AVC / H. As in the case of the H.264 system, the reference pixel selection unit 11 selects the position of the reference pixel as follows.
When the prediction mode of the luminance signal is a prediction mode in which the average value of the reference pixels is a prediction value (prediction mode 2), all of the adjacent pixels a1 to a8 and b1 to b8 are determined as reference pixels.
When the angle of the prediction direction indicated by the prediction mode of the luminance signal in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 0 degree (the first angle is less than the second angle) ( In prediction modes 6, 25, 13, 24, 5, 23, 12, 22, 0, 21, 11, 20, 4), adjacent pixels a1 to a8 are determined as reference pixels.
The angle of the prediction direction indicated by the luminance signal prediction mode in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 45 degrees (more than the second angle and less than the third angle). In (prediction modes 19, 10, 18, 3, 26, 14, 27), adjacent pixels a1 to a4 and b1 to b4 are determined as reference pixels.
When the angle of the prediction direction indicated by the prediction mode of the luminance signal in the counterclockwise direction with respect to the vertical downward direction is within a predetermined range including 90 degrees (more than the third angle and less than the fourth angle). In (prediction modes 7, 28, 15, 29, 1, 30, 16, 31, 8, 32, 17, 33, 9), adjacent pixels b1 to b8 are determined as reference pixels.

なお、方向性を持ったイントラ予測が用いられなかった場合(例えば、上述した参照画素の平均値を予測値とするイントラDC予測や、動き補償予測が用いられた場合)には、隣接画素a1〜a8及びb1〜b8の全てを参照画素と決定する。また、上述した例では輝度予測モードが示す予測方向の角度を、270度を含む所定の範囲、315度を含む所定の範囲、及び0度を含む所定の範囲の3つに分類したが、より細かく分類して参照画素の位置を決定するようにしてもよい。   In addition, when intra prediction with directionality is not used (for example, when intra DC prediction using the average value of the reference pixels described above or motion compensation prediction is used), the adjacent pixel a1 is used. All of .about.a8 and b1 to b8 are determined as reference pixels. In the example described above, the angle of the prediction direction indicated by the luminance prediction mode is classified into three: a predetermined range including 270 degrees, a predetermined range including 315 degrees, and a predetermined range including 0 degrees. The position of the reference pixel may be determined by fine classification.

ダウンサンプリング部12は、外部から入力される輝度信号の画像サイズを色差信号と同一の画像サイズにダウンサンプリングし、ダウンサンプリングされた輝度信号をメモリ13に出力する。例えば、Y,Cb,Crのフォーマットが4:2:2である場合には、輝度信号の画像サイズを水平方向に1/2にダウンサンプリングする。Y,Cb,Crのフォーマットが4:1:1である場合には、輝度信号の画像サイズを水平方向に1/4にダウンサンプリングする。Y,Cb,Crのフォーマットが4:2:0である場合には、輝度信号の画像サイズを水平方向に1/2にダウンサンプリングし、垂直方向に1/2にダウンサンプリングする。なお、Y,Cb,Crのフォーマットが4:4:4である場合には、ダウンサンプリングを行わない。   The downsampling unit 12 downsamples the image size of the luminance signal input from the outside to the same image size as the color difference signal, and outputs the downsampled luminance signal to the memory 13. For example, when the format of Y, Cb, and Cr is 4: 2: 2, the image size of the luminance signal is downsampled to ½ in the horizontal direction. When the format of Y, Cb, and Cr is 4: 1: 1, the image size of the luminance signal is downsampled to 1/4 in the horizontal direction. When the format of Y, Cb, and Cr is 4: 2: 0, the luminance signal image size is down-sampled to 1/2 in the horizontal direction and down-sampled to 1/2 in the vertical direction. Note that when the format of Y, Cb, and Cr is 4: 4: 4, downsampling is not performed.

メモリ13は、外部から入力される色差信号、及びダウンサンプリング部12から入力されるダウンサンプリングされた輝度信号を記憶する。   The memory 13 stores a color difference signal input from the outside and a downsampled luminance signal input from the downsampling unit 12.

係数導出部14は、参照画素選択部11から入力される参照画素位置情報に基づいて、メモリ13から色差信号の予測対象ブロックに隣接する復号済みの画素Rec(i)と、該画素に対応する位置にある輝度信号の復号済みの画素Rec’(i)とを取得し、上記の式(1)(2)により係数α,βを導出し、導出した係数α,βを第1色差予測画像生成部15に出力する。 Based on the reference pixel position information input from the reference pixel selection unit 11, the coefficient deriving unit 14 corresponds to the decoded pixel Rec C (i) adjacent to the prediction target block of the color difference signal from the memory 13 and the pixel. And the decoded pixel Rec L ′ (i) of the luminance signal at the position to be obtained, the coefficients α and β are derived by the above equations (1) and (2), and the derived coefficients α and β are used as the first color difference. It outputs to the prediction image generation part 15.

予測式を用いてイントラ予測を行う従来の技法では、Rec(i)、Rec’(i)として予測対象ブロックの隣接画素a1〜a8及びb1〜b8の全てを用いて、上記の式(1)(2)により係数α,βを導出していた。しかし、本発明に係るイントラ予測装置1では、Rec(i)、Rec’(i)として、隣接画素a1〜a8及びb1〜b8のうち、参照画素選択部11によって選択された参照画素のみを用いて、上記の式(1)(2)により係数α,βを導出するため、上記の予測式(3)を、予測対象ブロックと該予測対象ブロックの隣接画素との相関を考慮したものとすることができる。 In the conventional technique of performing intra prediction using a prediction formula, all of the adjacent pixels a1 to a8 and b1 to b8 of the prediction target block are used as Rec C (i) and Rec L ′ (i), and the above formula ( 1) The coefficients α and β were derived from (2). However, in the intra prediction apparatus 1 according to the present invention, only the reference pixels selected by the reference pixel selection unit 11 among the adjacent pixels a1 to a8 and b1 to b8 as Rec C (i) and Rec L ′ (i). In order to derive the coefficients α and β using the above equations (1) and (2), the above prediction equation (3) is obtained by considering the correlation between the prediction target block and the adjacent pixels of the prediction target block. It can be.

第1色差予測画像生成部15は、係数導出部14から入力される係数α,βと、メモリ13から取得したダウンサンプリングされた輝度信号Rec’[x,y]とを用いて、上記の式(3)の予測式により色差信号の予測画像である色差画像を生成し、生成した色差画像を外部に出力する。 The first color difference predicted image generation unit 15 uses the coefficients α and β input from the coefficient derivation unit 14 and the downsampled luminance signal Rec L ′ [x, y] acquired from the memory 13 as described above. A color difference image which is a predicted image of the color difference signal is generated by the prediction formula of Expression (3), and the generated color difference image is output to the outside.

図3は、本発明の一実施例に係る符号化側のイントラ予測装置の第2の構成例を示すブロック図である。図3に示すように、符号化側のイントラ予測装置2は、輝度予測画像生成部10と、参照画素選択部11と、ダウンサンプリング部12と、メモリ13と、係数導出部14と、第1色差予測画像生成部15と、第2色差予測画像生成部(第2セカンダリ予測画像生成部)16と、色差予測画像選択部17と、を備える。第2の構成例のイントラ予測装置2は、図1に示した第1の構成例のイントラ予測装置1と比較して、第2色差予測画像生成部16、及び色差予測画像選択部17を更に備える点が相違するが、その他の点は同様である。よって、図1に示した第1の構成例のイントラ予測装置2と同じ構成要素には同一の参照番号を付して説明を省略する。なお、図3では各処理ブロックを全て実線で示しているが、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号についてイントラ予測を行った後に、色差信号についてイントラ予測を行う点は、図1に示した第1の構成例のイントラ予測装置1と同様である。   FIG. 3 is a block diagram showing a second configuration example of the encoding-side intra prediction apparatus according to an embodiment of the present invention. As illustrated in FIG. 3, the intra prediction apparatus 2 on the encoding side includes a luminance predicted image generation unit 10, a reference pixel selection unit 11, a downsampling unit 12, a memory 13, a coefficient derivation unit 14, a first A color difference prediction image generation unit 15, a second color difference prediction image generation unit (second secondary prediction image generation unit) 16, and a color difference prediction image selection unit 17 are provided. The intra prediction device 2 of the second configuration example further includes a second color difference prediction image generation unit 16 and a color difference prediction image selection unit 17 as compared with the intra prediction device 1 of the first configuration example shown in FIG. The points to be provided are different, but the other points are the same. Therefore, the same components as those of the intra prediction apparatus 2 of the first configuration example shown in FIG. In FIG. 3, all the processing blocks are indicated by solid lines. However, after performing intra prediction on the luminance signal for each predetermined unit block (for example, macro block), the point of performing intra prediction on the color difference signal is as follows. This is the same as the intra prediction apparatus 1 of the first configuration example shown in FIG.

第1色差予測画像生成部15は、生成した色差予測画像を外部ではなく、色差予測画像選択部17に出力する。   The first color difference predicted image generation unit 15 outputs the generated color difference predicted image to the color difference predicted image selection unit 17 instead of the outside.

第2色差予測画像生成部16は、色差信号について、参照ブロックの画像を参照し、予め定められた複数の予測モードから最適な予測モードである色差予測モードを決定し、決定した色差予測モードを色差予測画像選択部17に出力する。第2色差予測画像生成部16は、色差予測モードを既知の手法により決定することができる。例えば、各予測モードに基づいて予測画像を求め、符号化コストを最小とする色差予測モードをR−D最適化により決定する。例えば、MPEG4 AVC/H.264方式により8×8画素単位でイントラ予測する場合には、図8に示した予測モードの中から予測対象ブロックの色差予測モードを決定し、HEVC方式によりイントラ予測する場合は図9に示した予測モードの中から予測対象ブロックの色差予測モードを決定する。   The second color difference prediction image generation unit 16 refers to the image of the reference block for the color difference signal, determines a color difference prediction mode that is an optimal prediction mode from a plurality of predetermined prediction modes, and determines the determined color difference prediction mode. It outputs to the color difference prediction image selection part 17. The second color difference prediction image generation unit 16 can determine the color difference prediction mode by a known method. For example, a prediction image is obtained based on each prediction mode, and a color difference prediction mode that minimizes the coding cost is determined by RD optimization. For example, MPEG4 AVC / H. When the intra prediction is performed in units of 8 × 8 pixels by the H.264 method, the color difference prediction mode of the prediction target block is determined from the prediction modes illustrated in FIG. 8, and the intra prediction by the HEVC method is illustrated in FIG. 9. The color difference prediction mode of the prediction target block is determined from the prediction modes.

また、第2色差予測画像生成部16は、決定した色差予測モードに基づく予測画像である色差予測画像を生成し、生成した色差予測画像を色差予測画像選択部17に出力する。   In addition, the second color difference predicted image generation unit 16 generates a color difference predicted image that is a predicted image based on the determined color difference prediction mode, and outputs the generated color difference predicted image to the color difference predicted image selection unit 17.

色差予測画像選択部17は、第1色差予測画像生成部15から入力される色差予測画像と、第2色差予測画像生成部16から入力される色差予測画像のうち、いずれか一方、例えばR−D最適化により符号化コストが小さくなるほうの色差予測画像を選択し、選択した色差予測画像を外部に出力する。なお、従来のMPEG4 AVC/H.264方式やHEVC方式で予め設定されている予測モードの一つを予測式に基づく予測モードに差し替えることにより、従来の方式に対してモード数が増加しないようにしてもよい。   The color difference prediction image selection unit 17 is one of the color difference prediction image input from the first color difference prediction image generation unit 15 and the color difference prediction image input from the second color difference prediction image generation unit 16, for example, R−. The color difference prediction image whose encoding cost is reduced by D optimization is selected, and the selected color difference prediction image is output to the outside. The conventional MPEG4 AVC / H. By replacing one of the prediction modes set in advance in the H.264 system or the HEVC system with a prediction mode based on the prediction formula, the number of modes may not be increased compared to the conventional system.

このように、符号化側のイントラ予測装置1,2は、参照画素選択部11により、輝度予測画像生成部10が生成する輝度予測モードが示す予測方向に応じて参照画素位置情報を生成し、係数導出部14により、参照画素位置情報が示す輝度信号の画素及び色差信号の画素から予測式の係数α,βを導出し、第1色差予測画像生成部15により、係数α,βを代入した予測式を用いて色差信号のイントラ予測を行って色差予測画像を生成する。このため、イントラ予測装置1,2は、予測対象ブロックと該予測対象ブロックに隣接する参照画素との相関を考慮したイントラ予測を行うことができ、イントラ予測の確度を向上させることができるようになる。   As described above, the intra prediction apparatuses 1 and 2 on the encoding side generate reference pixel position information according to the prediction direction indicated by the luminance prediction mode generated by the luminance predicted image generation unit 10 by the reference pixel selection unit 11, The coefficient derivation unit 14 derives the coefficients α and β of the prediction formula from the luminance signal pixel and the color difference signal pixels indicated by the reference pixel position information, and the first color difference prediction image generation unit 15 substitutes the coefficients α and β. A color difference prediction image is generated by performing intra prediction of a color difference signal using a prediction formula. Therefore, the intra prediction devices 1 and 2 can perform intra prediction considering the correlation between the prediction target block and the reference pixel adjacent to the prediction target block, and can improve the accuracy of intra prediction. Become.

また、符号化側のイントラ予測装置2は、予め定められた複数の予測モードから決定された色差予測モードに基づいて色差予測画像を生成する第2色差予測画像生成部16と、第1色差予測画像生成部15により生成された色差予測画像、及び第2色差予測画像生成部16により生成された色差予測画像のうちいずれか一方を選択して出力する色差予測画像選択部17と、を更に備える。このため、イントラ予測装置2は、相関を考慮した予測式に基づく色差予測画像と、従来のMPEG4 AVC/H.264方式による色差予測画像のうち、適したほうを選択することができるので、よりイントラ予測の確度を向上させることができるようになる。   The intra prediction device 2 on the encoding side includes a second color difference prediction image generation unit 16 that generates a color difference prediction image based on a color difference prediction mode determined from a plurality of predetermined prediction modes, and a first color difference prediction. A color difference prediction image selection unit 17 that selects and outputs one of the color difference prediction image generated by the image generation unit 15 and the color difference prediction image generated by the second color difference prediction image generation unit 16; . For this reason, the intra-prediction device 2 uses a color difference prediction image based on a prediction formula in consideration of the correlation and the conventional MPEG4 AVC / H. Since it is possible to select a suitable one of the color difference prediction images by the H.264 method, the accuracy of intra prediction can be further improved.

なお、上述したイントラ予測装置1,2として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、イントラ予測装置1,2の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   It should be noted that a computer can be suitably used to function as the intra prediction devices 1 and 2 described above, and such a computer can store a program describing processing contents for realizing each function of the intra prediction devices 1 and 2. It can be realized by storing the program in a storage unit of the computer and reading and executing the program by the CPU of the computer.

[符号化装置]
次に、上述したイントラ予測装置1又は2を備える符号化装置について説明する。図4は、本発明の一実施例に係る符号化装置の構成を示すブロック図であり、ここではMPEG−4 AVC/H.264方式の符号化装置にイントラ予測装置1又は2を適用した例を示している。図4に示すように、符号化装置20は、減算部21と、直交変換部22と、量子化部23と、逆量子化部24と、逆直交変換部25と、加算部26と、メモリ27と、イントラ予測装置1,2と、動き補償部28と、切替えスイッチ29と、可変長符号化部30とを備える。符号化装置20は、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号について符号化を行った後に、色差信号について符号化を行う。よって、以下に説明する符号化装置20の各処理ブロックは、輝度信号について処理した後に、色差信号について処理する点に留意されたい。
[Encoding device]
Next, an encoding apparatus provided with the intra prediction apparatus 1 or 2 described above will be described. FIG. 4 is a block diagram showing a configuration of an encoding apparatus according to an embodiment of the present invention. In this example, MPEG-4 AVC / H. The example which applied intra prediction apparatus 1 or 2 to the encoding apparatus of H.264 system is shown. As illustrated in FIG. 4, the encoding device 20 includes a subtraction unit 21, an orthogonal transformation unit 22, a quantization unit 23, an inverse quantization unit 24, an inverse orthogonal transformation unit 25, an addition unit 26, and a memory. 27, intra prediction apparatuses 1 and 2, a motion compensation unit 28, a changeover switch 29, and a variable length coding unit 30. The encoding device 20 encodes the color difference signal after encoding the luminance signal for each predetermined unit block (for example, macroblock). Therefore, it should be noted that each processing block of the encoding device 20 described below processes the color difference signal after processing the luminance signal.

減算部21は、輝度信号及び色差信号からなる映像信号(輝度信号又は色差信号)と、切替えスイッチ29を介してイントラ予測装置1,2又は動き補償部28から入力される予測画像(輝度予測画像又は色差予測画像)とを差分し、差分画像を直交変換部22に出力する。   The subtracting unit 21 is a video signal (luminance signal or color difference signal) composed of a luminance signal and a color difference signal, and a prediction image (luminance prediction image) input from the intra prediction devices 1 and 2 or the motion compensation unit 28 via the changeover switch 29. Or the color difference prediction image), and the difference image is output to the orthogonal transform unit 22.

直交変換部22は、減算部21から入力される差分画像に対してブロック単位で直交変換を施し、得られる直交変換係数を量子化部23に出力する。   The orthogonal transform unit 22 performs orthogonal transform on the difference image input from the subtraction unit 21 in units of blocks, and outputs the obtained orthogonal transform coefficients to the quantization unit 23.

量子化部23は、直交変換部22から入力される直交変換係数に対して量子化テーブルを選択して量子化処理を行い、量子化された直交変換係数を逆量子化部24及び可変長符号化部30に出力する。   The quantization unit 23 selects a quantization table for the orthogonal transform coefficient input from the orthogonal transform unit 22 and performs a quantization process. The quantized orthogonal transform coefficient is converted into an inverse quantization unit 24 and a variable length code. To the conversion unit 30.

逆量子化部24は、量子化部23から入力される量子化された直交変換係数に対して逆量子化処理を行い、得られる直交変換係数を逆直交変換部25に出力する。   The inverse quantization unit 24 performs inverse quantization processing on the quantized orthogonal transform coefficient input from the quantization unit 23 and outputs the obtained orthogonal transform coefficient to the inverse orthogonal transform unit 25.

逆直交変換部25は、逆量子化部24から入力される直交変換係数に対して逆直交変換(例えば、IDCT;Inverse Discrete Cosine Transform)処理を施し、逆直交変換した画像を加算部26に出力する。   The inverse orthogonal transform unit 25 performs an inverse orthogonal transform (for example, IDCT; Inverse Discrete Cosine Transform) process on the orthogonal transform coefficient input from the inverse quantization unit 24 and outputs an inversely orthogonally transformed image to the addition unit 26. To do.

加算部26は、逆直交変換部25から入力される逆直交変換した画像と、切替えスイッチ29を介してイントラ予測装置1,2又は動き補償部28から入力される予測画像(輝度予測画像又は色差予測画像)とを加算して局部復号画像を生成し、生成した局部復号画像をメモリ27に出力する。符号化装置20は、輝度信号について処理した後に色差信号について処理するので、色差信号のn番目のブロックを符号化する際には、メモリ27には、色差信号の(n−1)番目のブロックまでの局部復号画像、及び輝度信号のn番目のブロックまでの局部復号画像が記憶されている。   The adding unit 26 performs the inverse orthogonal transform image input from the inverse orthogonal transform unit 25 and the predicted image (luminance predicted image or color difference) input from the intra prediction devices 1 and 2 or the motion compensation unit 28 via the changeover switch 29. The predicted image) is added to generate a local decoded image, and the generated local decoded image is output to the memory 27. Since the encoding device 20 processes the luminance signal and then the color difference signal, when encoding the nth block of the color difference signal, the memory 27 stores the (n−1) th block of the color difference signal. The local decoded images up to and the local decoded image up to the nth block of the luminance signal are stored.

イントラ予測装置1,2は、メモリ27に記憶された局部復号画像を参照し、上述したように輝度信号のイントラ予測画像を生成した後に、色差信号のイントラ予測画像を生成する。生成されたイントラ予測画像は切替えスイッチ29を介して減算部21及び加算部26に出力される。また、イントラ予測装置1は輝度予測モードを生成して可変長符号化部30に出力し、イントラ予測装置2は輝度予測モード及び色差予測モードを生成して可変長符号化部30に出力する。   The intra prediction devices 1 and 2 refer to the locally decoded image stored in the memory 27, generate the luminance signal intra prediction image as described above, and then generate the color difference signal intra prediction image. The generated intra prediction image is output to the subtraction unit 21 and the addition unit 26 via the changeover switch 29. Also, the intra prediction device 1 generates a luminance prediction mode and outputs it to the variable length coding unit 30, and the intra prediction device 2 generates a luminance prediction mode and a color difference prediction mode and outputs them to the variable length coding unit 30.

動き補償部28は、映像信号に対して、メモリ27に記憶された過去及び/又は未来のピクチャ(フレーム)を参照し、SSD(Sum of Squared Difference)法やSAD(Sum of Absolute intensity Difference)法を用いたブロックマッチングにより動きベクトルを生成し、生成した動きベクトルを可変長符号化部30に出力する。ブロックマッチングは、例えばパラボラフィッティング関数を用いた補間処理により、小数画素精度で行う。   The motion compensation unit 28 refers to past and / or future pictures (frames) stored in the memory 27 with respect to the video signal, and performs an SSD (Sum of Squared Difference) method or an SAD (Sum of Absolute Intensity Difference) method. A motion vector is generated by block matching using, and the generated motion vector is output to the variable length encoding unit 30. Block matching is performed with decimal pixel accuracy by, for example, interpolation processing using a parabolic fitting function.

動き補償部28は、メモリ27に記憶された復号画像に対し、生成した動きベクトルを用いて動き補償を行ってインター予測(画面間予測)したインター予測画像を生成し、生成したインター予測画像を切替えスイッチ29を介してインター予測画像を減算部21及び加算部26に出力する。   The motion compensation unit 28 performs motion compensation on the decoded image stored in the memory 27 using the generated motion vector to generate an inter prediction image (inter prediction), and generates the inter prediction image. The inter prediction image is output to the subtraction unit 21 and the addition unit 26 via the changeover switch 29.

切替えスイッチ29は、イントラ予測装置1,2から入力されるイントラ予測画像と、動き補償部28から入力されるインター予測画像とを切替えて、減算部21及び加算部26に出力する。   The changeover switch 29 switches between the intra prediction image input from the intra prediction devices 1 and 2 and the inter prediction image input from the motion compensation unit 28, and outputs the result to the subtraction unit 21 and the addition unit 26.

可変長符号化部30は、量子化部23から入力される量子化された直交変換係数についてスキャンを行って可変長符号化処理を施し、得られる符号化データを外部に出力する。また、可変長符号化部30は、イントラ予測装置1,2から入力される予測モード、及び動き補償部28から入力される動きベクトルの情報も可変長符号化処理を施し、得られる符号化データを外部に出力する。   The variable length encoding unit 30 scans the quantized orthogonal transform coefficient input from the quantization unit 23 to perform variable length encoding processing, and outputs the obtained encoded data to the outside. The variable length coding unit 30 also performs variable length coding processing on the prediction mode input from the intra prediction apparatuses 1 and 2 and the motion vector information input from the motion compensation unit 28, and obtains encoded data obtained. Is output to the outside.

このように、符号化装置20はイントラ予測装置1又は2を備えるため、イントラ予測の確度を向上させることができ、それに伴い符号化効率を向上させることができるようになる。   Thus, since the encoding apparatus 20 includes the intra prediction apparatus 1 or 2, the accuracy of intra prediction can be improved, and accordingly, the encoding efficiency can be improved.

なお、上述した符号化装置20として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、符号化装置20の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   Note that a computer can be suitably used to cause the above-described encoding device 20 to function, and such a computer stores a program that describes processing contents for realizing each function of the encoding device 20 in the storage of the computer. The program can be realized by reading out and executing the program by the CPU of the computer.

[復号側のイントラ予測装置]
次に、復号側のイントラ予測装置について説明する。図5は、本発明の一実施例に係る復号側のイントラ予測装置の第1の構成例を示すブロック図である。図5に示すように、復号側のイントラ予測装置3は、輝度予測画像生成部10と、参照画素選択部11と、ダウンサンプリング部12と、メモリ13と、係数導出部14と、第1色差予測画像生成部15と、を備える。
[Intra prediction device on decoding side]
Next, the decoding side intra prediction apparatus will be described. FIG. 5 is a block diagram illustrating a first configuration example of the decoding-side intra prediction apparatus according to an embodiment of the present invention. As illustrated in FIG. 5, the decoding-side intra prediction device 3 includes a luminance predicted image generation unit 10, a reference pixel selection unit 11, a downsampling unit 12, a memory 13, a coefficient derivation unit 14, and a first color difference. A predicted image generation unit 15.

復号側のイントラ予測装置3は、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号についてイントラ予測を行った後に、色差信号についてイントラ予測を行う。この点を明示するために、図5(a)では、輝度信号についてイントラ予測を行う処理部のみ実線で示し、図5(b)では、色差信号についてイントラ予測を行う処理部のみ実線で示している。つまり、イントラ予測装置3は、図5(a)に示すように、入力される輝度信号について輝度予測画像生成部10によりブロック単位でイントラ予測を行い、輝度信号の予測画像である輝度予測画像を生成する。その後、図1(b)に示すように、入力される色差信号について参照画素選択部11、ダウンサンプリング部12、メモリ13、係数導出部14、及び第1色差予測画像生成部15によりブロック単位でイントラ予測を行い、色差信号の予測画像である色差予測画像を生成する。なお、イントラ予測装置3が復号装置に組み込まれた場合、後述するようにイントラ予測装置3には、輝度信号及び色差信号として、それぞれの復号画像が入力される。   The intra prediction apparatus 3 on the decoding side performs intra prediction on the color difference signal after performing intra prediction on the luminance signal for each predetermined unit block (for example, macroblock). In order to clarify this point, in FIG. 5A, only the processing unit that performs intra prediction on the luminance signal is shown by a solid line, and in FIG. 5B, only the processing unit that performs intra prediction on the color difference signal is shown by a solid line. Yes. That is, as illustrated in FIG. 5A, the intra prediction device 3 performs intra prediction on the input luminance signal by the luminance prediction image generation unit 10 in units of blocks, and obtains a luminance prediction image that is a prediction image of the luminance signal. Generate. Thereafter, as shown in FIG. 1B, the reference color selection unit 11, the downsampling unit 12, the memory 13, the coefficient derivation unit 14, and the first color difference prediction image generation unit 15 are processed block by block with respect to the input color difference signal. Intra prediction is performed to generate a color difference prediction image that is a prediction image of the color difference signal. In addition, when the intra prediction apparatus 3 is incorporated in a decoding apparatus, each decoded image is input to the intra prediction apparatus 3 as a luminance signal and a color difference signal as described later.

図5に示す復号側のイントラ予測装置3は、図1に示した符号化側のイントラ予測装置1と比較して、輝度予測画像生成部10が輝度予測モードを生成しない点、及び参照画素選択部11が外部から入力される輝度予測モードを用いて参照画素位置情報を生成する点が相違するが、他のブロックの機能は、符号化側のイントラ予測装置1と同様である。   The decoding-side intra prediction device 3 illustrated in FIG. 5 is different from the encoding-side intra prediction device 1 illustrated in FIG. 1 in that the luminance prediction image generation unit 10 does not generate the luminance prediction mode and reference pixel selection. The difference is that the unit 11 generates reference pixel position information using the luminance prediction mode input from the outside, but the functions of the other blocks are the same as those of the intra prediction apparatus 1 on the encoding side.

つまり、輝度予測画像生成部10は符号化側から取得した輝度予測モードに基づく輝度予測画像を生成し、生成した輝度予測画像を外部に出力する。輝度予測画像生成部10に入力される輝度信号及び輝度予測モードは、その後に行われる色差信号のイントラ予測にも用いられる。   That is, the luminance predicted image generation unit 10 generates a luminance predicted image based on the luminance prediction mode acquired from the encoding side, and outputs the generated luminance predicted image to the outside. The luminance signal and the luminance prediction mode input to the luminance predicted image generation unit 10 are also used for intra prediction of the color difference signal performed thereafter.

参照画素選択部11は、符号化側から取得した輝度予測モードに基づいて、予測式の係数α,βを導出する際に用いる参照画素の位置を選択し、参照画素の選択位置を示す参照画素位置情報を係数導出部14に出力する。   The reference pixel selection unit 11 selects the position of the reference pixel used when deriving the coefficients α and β of the prediction formula based on the luminance prediction mode acquired from the encoding side, and indicates the reference pixel selection position The position information is output to the coefficient deriving unit 14.

ダウンサンプリング部12は、符号化側から取得した輝度信号の画像サイズを、符号化側から取得した色差信号と同一の画像サイズにダウンサンプリングし、ダウンサンプリングされた輝度信号をメモリ13に出力する。メモリ13は、色差信号、及びダウンサンプリング部12から入力されるダウンサンプリングされた輝度信号を記憶する。   The downsampling unit 12 downsamples the image size of the luminance signal acquired from the encoding side to the same image size as the color difference signal acquired from the encoding side, and outputs the downsampled luminance signal to the memory 13. The memory 13 stores the color difference signal and the downsampled luminance signal input from the downsampling unit 12.

係数導出部14は、参照画素選択部11から入力される参照画素位置情報に基づいて、メモリ13から色差信号の予測対象ブロックに隣接する復号済みの画素Rec(i)と、該画素に対応する位置にある輝度信号の復号済みの画素Rec’(i)とを取得し、上記の式(1)(2)により係数α,βを導出し、導出した係数α,βを第1色差予測画像生成部15に出力する。色差予測画像生成部15は、係数導出部14から入力される係数α,βと、メモリ13から取得したダウンサンプリングされた輝度信号Rec’[x,y]とを用いて、上記の式(3)の予測式により色差予測画像を生成し、生成した色差予測画像を外部に出力する。 Based on the reference pixel position information input from the reference pixel selection unit 11, the coefficient deriving unit 14 corresponds to the decoded pixel Rec C (i) adjacent to the prediction target block of the color difference signal from the memory 13 and the pixel. And the decoded pixel Rec L ′ (i) of the luminance signal at the position to be obtained, the coefficients α and β are derived by the above equations (1) and (2), and the derived coefficients α and β are used as the first color difference. It outputs to the prediction image generation part 15. The color difference prediction image generation unit 15 uses the coefficients α and β input from the coefficient derivation unit 14 and the downsampled luminance signal Rec L ′ [x, y] acquired from the memory 13 to A color difference prediction image is generated by the prediction formula 3), and the generated color difference prediction image is output to the outside.

図6は、本発明の一実施例に係る復号側のイントラ予測装置の第2の構成例を示すブロック図である。図6に示すように、復号側のイントラ予測装置4は、輝度予測画像生成部10と、参照画素選択部11と、ダウンサンプリング部12と、メモリ13と、係数導出部14と、第1色差予測画像生成部15と、第2色差予測画像生成部16と、色差予測画像選択部17と、を備える。第2の構成例の復号側のイントラ予測装置4は、図5に示した第1の構成例の復号側のイントラ予測装置3と比較して、第2色差予測画像生成部16、及び色差予測画像選択部17を更に備える点が相違するが、その他の点は同様である。よって、図5に示した第1の構成例の復号側のイントラ予測装置3と同じ構成要素には同一の参照番号を付して説明を省略する。なお、図6では各処理ブロックを全て実線で示しているが、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号についてイントラ予測を行った後に、色差信号についてイントラ予測を行う点は、図5に示した復号側の第1の構成例のイントラ予測装置3と同様である。   FIG. 6 is a block diagram illustrating a second configuration example of the decoding-side intra prediction apparatus according to an embodiment of the present invention. As illustrated in FIG. 6, the decoding-side intra prediction device 4 includes a luminance predicted image generation unit 10, a reference pixel selection unit 11, a downsampling unit 12, a memory 13, a coefficient derivation unit 14, and a first color difference. A prediction image generation unit 15, a second color difference prediction image generation unit 16, and a color difference prediction image selection unit 17 are provided. Compared with the decoding-side intra prediction device 3 of the first configuration example illustrated in FIG. 5, the decoding-side intra prediction device 4 of the second configuration example has a second color difference prediction image generation unit 16 and color difference prediction. The difference is that the image selection unit 17 is further provided, but the other points are the same. Therefore, the same components as those of the decoding-side intra prediction device 3 of the first configuration example shown in FIG. In FIG. 6, all processing blocks are indicated by solid lines. However, after performing intra prediction for a luminance signal for each predetermined unit block (for example, a macroblock), the point of performing intra prediction for a color difference signal is as follows. This is the same as the intra prediction apparatus 3 of the first configuration example on the decoding side shown in FIG.

第1色差予測画像生成部15は、生成した色差予測画像を外部ではなく、色差予測画像選択部17に出力する。   The first color difference predicted image generation unit 15 outputs the generated color difference predicted image to the color difference predicted image selection unit 17 instead of the outside.

第2色差予測画像生成部16は、符号化側から取得した色差予測モードに基づいて色差予測画像を生成し、生成した色差予測画像を色差予測画像選択部17に出力する。   The second color difference prediction image generation unit 16 generates a color difference prediction image based on the color difference prediction mode acquired from the encoding side, and outputs the generated color difference prediction image to the color difference prediction image selection unit 17.

色差予測画像選択部17は、第1色差予測画像生成部15から入力される色差予測画像と、第2色差予測画像生成部16から入力される色差予測画像のうち、符号化側から入力される色差予測モードに基づいていずれか一方を選択して外部に出力する。つまり、色差予測モードが、予測式を用いて色差予測画像を生成する予測モードであった場合には第1色差予測画像生成部15から入力される色差予測画像を選択し、それ以外の予測モードであった場合には第2色差予測画像生成部16から入力される色差予測画像を選択する。なお、色差予測モードが、予測式を用いて色差予測画像を生成する予測モードであった場合には第2色差予測画像生成部16による色差予測画像の生成を行わず、それ以外の予測モードであった場合には第1色差予測画像生成部15による色差予測画像の生成を行わないようにしてもよい。   The color difference prediction image selection unit 17 is input from the encoding side among the color difference prediction image input from the first color difference prediction image generation unit 15 and the color difference prediction image input from the second color difference prediction image generation unit 16. Either one is selected based on the color difference prediction mode and output to the outside. That is, when the color difference prediction mode is a prediction mode for generating a color difference prediction image using a prediction formula, the color difference prediction image input from the first color difference prediction image generation unit 15 is selected, and the other prediction modes are selected. If it is, the color difference prediction image input from the second color difference prediction image generation unit 16 is selected. When the color difference prediction mode is a prediction mode for generating a color difference prediction image using a prediction formula, the second color difference prediction image generation unit 16 does not generate a color difference prediction image, and other prediction modes are used. If there is a color difference prediction image, the first color difference prediction image generation unit 15 may not generate the color difference prediction image.

このように、復号側のイントラ予測装置3,4は、符号化側のイントラ予測装置1,2と同様に、参照画素選択部11により、輝度予測画像生成部10が生成する輝度予測モードが示す予測方向に応じて参照画素位置情報を生成し、係数導出部14により、参照画素位置情報が示す輝度信号の画素及び色差信号の画素から予測式の係数α,βを導出し、第1色差予測画像生成部15により、係数α,βを代入した予測式を用いて色差信号のイントラ予測を行って色差予測画像を生成する。このため、イントラ予測装置3,4は、予測対象ブロックと該予測対象ブロックに隣接する参照画素との相関を考慮したイントラ予測を行うことができ、イントラ予測の確度を向上させることができるようになる。   As described above, the decoding-side intra prediction devices 3 and 4 indicate the luminance prediction mode generated by the luminance-predicted image generation unit 10 by the reference pixel selection unit 11 in the same manner as the encoding-side intra prediction devices 1 and 2. The reference pixel position information is generated according to the prediction direction, and the coefficient deriving unit 14 derives the coefficients α and β of the prediction formula from the pixel of the luminance signal and the color difference signal indicated by the reference pixel position information, and the first color difference prediction The image generation unit 15 generates a color difference prediction image by performing intra prediction of the color difference signal using a prediction formula into which the coefficients α and β are substituted. For this reason, the intra prediction apparatuses 3 and 4 can perform the intra prediction which considered the correlation with a prediction object block and the reference pixel adjacent to this prediction object block, and can improve the accuracy of intra prediction. Become.

また、復号側のイントラ予測装置4は、予め定められた複数のイントラ予測モードから決定された色差予測モードに基づいて色差予測画像を生成する第2色差予測画像生成部16と、第1色差予測画像生成部15により生成された色差予測画像、及び第2色差予測画像生成部16により生成された色差予測画像のうちいずれか一方を選択して出力する色差予測画像選択部17と、を更に備える。このため、イントラ予測装置4は、相関を考慮した予測式に基づく色差予測画像と、従来のMPEG4 AVC/H.264方式による色差予測画像のうち、適したほうを選択することができるので、よりイントラ予測の確度を向上させることができるようになる。   The decoding-side intra prediction device 4 includes a second color difference prediction image generation unit 16 that generates a color difference prediction image based on a color difference prediction mode determined from a plurality of predetermined intra prediction modes, and a first color difference prediction. A color difference prediction image selection unit 17 that selects and outputs one of the color difference prediction image generated by the image generation unit 15 and the color difference prediction image generated by the second color difference prediction image generation unit 16; . For this reason, the intra-prediction device 4 uses a color difference prediction image based on a prediction formula in consideration of the correlation and the conventional MPEG4 AVC / H. Since it is possible to select a suitable one of the color difference prediction images by the H.264 method, the accuracy of intra prediction can be further improved.

なお、上述したイントラ予測装置3,4として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、イントラ予測装置3,4の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   It should be noted that a computer can be suitably used to function as the above-described intra prediction devices 3 and 4, and such a computer can store a program describing processing contents for realizing each function of the intra prediction devices 3 and 4. It can be realized by storing the program in a storage unit of the computer and reading and executing the program by the CPU of the computer.

[復号装置]
次に、上述したイントラ予測装置3又は4を備える復号装置について説明する。図7は、本発明の一実施例の復号装置の構成を示すブロック図であり、ここではMPEG−4 AVC/H.264方式の復号装置にイントラ予測装置3又は4を適用した例を示している。図7に示すように、復号装置40は、可変長復号部41と、逆量子化部42と、逆直交変換部43と、加算部44と、メモリ45と、イントラ予測装置3,4と、動き補償部46と、切替えスイッチ47とを備える。復号装置40は、所定の単位ブロック(例えば、マクロブロック)ごとに、輝度信号について復号を行った後に、色差信号について復号を行う。よって、以下に説明する復号装置40の各処理ブロックは、輝度信号について処理した後に、色差信号について処理する点に留意されたい。
[Decoding device]
Next, a decoding apparatus provided with the intra prediction apparatus 3 or 4 described above will be described. FIG. 7 is a block diagram showing a configuration of a decoding apparatus according to an embodiment of the present invention. In this example, MPEG-4 AVC / H. An example in which the intra prediction device 3 or 4 is applied to a H.264 decoding device is shown. As illustrated in FIG. 7, the decoding device 40 includes a variable length decoding unit 41, an inverse quantization unit 42, an inverse orthogonal transform unit 43, an addition unit 44, a memory 45, intra prediction devices 3 and 4, A motion compensation unit 46 and a changeover switch 47 are provided. The decoding device 40 performs decoding on the color difference signal after decoding the luminance signal for each predetermined unit block (for example, macroblock). Therefore, it should be noted that each processing block of the decoding device 40 described below processes the color difference signal after processing the luminance signal.

可変長復号部41は、符号化された直交変換係数に対して可変長復号処理を施して逆量子化部42に出力し、符号化された予測モードに対して可変長復号処理を施してイントラ予測装置3,4に出力し、符号化された動きベクトルに対して可変長復号処理を施し、動き補償部46に出力する。   The variable length decoding unit 41 performs a variable length decoding process on the encoded orthogonal transform coefficient and outputs it to the inverse quantization unit 42, and performs a variable length decoding process on the encoded prediction mode to perform the intra length conversion. It outputs to the prediction apparatuses 3 and 4, performs a variable length decoding process with respect to the encoded motion vector, and outputs it to the motion compensation part 46. FIG.

逆量子化部42は、可変長復号部41から入力される量子化された直交変換係数に対して逆量子化処理を施し、得られる差分画像の直交変換係数を逆直交変換部43に出力する。   The inverse quantization unit 42 performs an inverse quantization process on the quantized orthogonal transform coefficient input from the variable length decoding unit 41 and outputs the orthogonal transform coefficient of the obtained difference image to the inverse orthogonal transform unit 43. .

逆直交変換部43は、逆量子化部42から入力される差分画像の直交変換係数に対して、逆直交変換(例えば、IDCT)を施し、得られる差分画像を加算部44に出力する。   The inverse orthogonal transform unit 43 performs inverse orthogonal transform (for example, IDCT) on the orthogonal transform coefficient of the difference image input from the inverse quantization unit 42 and outputs the obtained difference image to the addition unit 44.

加算部44は、逆直交変換部43から得られる差分画像と、切替えスイッチ47を介してイントラ予測装置3,4又は動き補償部46から入力される予測画像とを加算し、復号画像をメモリ45及び外部に出力する。メモリ45には、輝度信号のあるブロックを復号する際には、輝度信号の一つ前のブロックまでの復号画像が記憶されている。また、色差信号のあるブロックを復号する際には、色差信号の一つ前のブロックまでの復号画像、及び同一フレームの輝度信号の復号画像が記憶されている。   The adding unit 44 adds the difference image obtained from the inverse orthogonal transform unit 43 and the prediction image input from the intra prediction devices 3 and 4 or the motion compensation unit 46 via the changeover switch 47, and stores the decoded image in the memory 45. And output to the outside. When decoding a block having a luminance signal, the memory 45 stores a decoded image up to the previous block of the luminance signal. When a block having a color difference signal is decoded, a decoded image up to the previous block of the color difference signal and a decoded image of a luminance signal of the same frame are stored.

イントラ予測装置3,4は、メモリ45に記憶された復号画像を入力し、可変長復号部41から入力される予測モードに基づいて輝度信号のイントラ予測画像を生成した後に、色差信号のイントラ予測画像を生成する。生成されたイントラ予測画像は、切替えスイッチ47を介して加算部44に出力される。   The intra prediction devices 3 and 4 receive the decoded image stored in the memory 45, generate an intra prediction image of the luminance signal based on the prediction mode input from the variable length decoding unit 41, and then perform intra prediction of the color difference signal. Generate an image. The generated intra predicted image is output to the adding unit 44 via the changeover switch 47.

動き補償部46は、メモリ45に記憶された復号フレーム画像を参照し、可変長復号部41から得られる動きベクトルを用いてインター予測画像を生成し、生成したインター予測画像を切替えスイッチ47を介して加算部44に出力する。   The motion compensation unit 46 refers to the decoded frame image stored in the memory 45, generates an inter prediction image using the motion vector obtained from the variable length decoding unit 41, and switches the generated inter prediction image via the changeover switch 47. To the adder 44.

切替えスイッチ47は、イントラ予測装置3,4から入力されるイントラ予測画像と、動き補償部46から入力されるインター予測画像とを切替えて加算部44に出力する。   The changeover switch 47 switches between the intra prediction image input from the intra prediction devices 3 and 4 and the inter prediction image input from the motion compensation unit 46 and outputs the switched image to the addition unit 44.

このように、復号装置40はイントラ予測装置3又は4を備えるため、イントラ予測の確度を向上させることができ、それに伴い復号画像の画質を向上させことができるようになる。   Thus, since the decoding apparatus 40 includes the intra prediction apparatus 3 or 4, the accuracy of intra prediction can be improved, and the image quality of the decoded image can be improved accordingly.

なお、上述した復号装置40として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、復号装置40の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。   Note that a computer can be suitably used to cause the above-described decryption device 40 to function, and such a computer stores a program describing processing contents for realizing each function of the decryption device 40 in a storage unit of the computer. This can be realized by storing the program and executing it by the CPU of the computer.

上述の実施例は、代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims.

例えば、上述の実施例では、プライマリコンポーネント信号が輝度信号であり、セカンダリコンポーネント信号が色差信号である場合を例に説明したが、入力される映像信号がRGB信号である場合には、プライマリコンポーネント信号をG信号とし、セカンダリコンポーネント信号をR信号及びB信号として、同様に予測式を用いてG信号からR信号及びB信号のイントラ予測を行うことができる。また、入力される映像がマルチスペクトル信号のように多数のコンポーネント信号からなる場合でも、同様に予測式を用いてプライマリコンポーネント信号からセカンダリコンポーネント信号のイントラ予測を行うことができる。   For example, in the above-described embodiment, the case where the primary component signal is a luminance signal and the secondary component signal is a color difference signal has been described as an example. However, when the input video signal is an RGB signal, the primary component signal is Is the G signal, the secondary component signal is the R signal and the B signal, and intra prediction of the R signal and the B signal can be performed from the G signal using the prediction formula. In addition, even when the input video is composed of a large number of component signals such as a multispectral signal, intra prediction of the secondary component signal can be performed from the primary component signal using the prediction formula.

また、上述の実施例ではプライマリコンポーネント信号がセカンダリコンポーネント信号より解像度が高い(画素数が多い)場合を例にしたためダウンサンプリング部12を備えたが、プライマリコンポーネント信号がセカンダリコンポーネント信号より解像度が低い(画素数が少ない)場合はダウンサンプリング部12の代わりにアップサンプル部を備えることで、同様に予測式を用いてプライマリコンポーネント信号からセカンダリコンポーネント信号のイントラ予測を行うことができる。   In the above-described embodiment, the case where the primary component signal has a higher resolution than the secondary component signal (the number of pixels) is taken as an example, and thus the downsampling unit 12 is provided. However, the primary component signal has a lower resolution than the secondary component signal ( In the case where the number of pixels is small), by providing an upsampling unit instead of the downsampling unit 12, it is possible to similarly perform intra prediction of the secondary component signal from the primary component signal using the prediction formula.

このように、本発明によれば、イントラ予測確度の確度を向上させることが可能となるので、映像信号をイントラ予測して符号化又は復号する任意の用途に有用である。   As described above, according to the present invention, it is possible to improve the accuracy of the intra prediction accuracy. Therefore, the present invention is useful for any application that encodes or decodes a video signal by intra prediction.

1,2 符号化側のイントラ予測装置
3,4 復号側のイントラ予測装置
10 輝度予測画像生成部(プライマリ予測画像生成部)
11 参照画素選択部
12 ダウンサンプリング部
13 メモリ
14 係数導出部
15 第1色差予測画像生成部(第1セカンダリ予測画像生成部)
16 第2色差予測画像生成部(第2セカンダリ予測画像生成部)
17 色差予測画像選択部
20 符号化装置
21 減算部
22 直交変換部
23 量子化部
24,42 逆量子化部
25,43 逆直交変換部
26,44 加算部
27,45 メモリ
28,46 動き補償部
29,47 切替えスイッチ
30 可変長符号化部
40 復号装置
41 可変長復号部
DESCRIPTION OF SYMBOLS 1, 2 Coding side intra prediction apparatus 3,4 Decoding side intra prediction apparatus 10 Luminance prediction image generation part (primary prediction image generation part)
DESCRIPTION OF SYMBOLS 11 Reference pixel selection part 12 Downsampling part 13 Memory 14 Coefficient derivation | leading-out part 15 1st color difference prediction image generation part (1st secondary prediction image generation part)
16 2nd color difference prediction image generation part (2nd secondary prediction image generation part)
17 Color difference prediction image selection unit 20 Encoding device 21 Subtraction unit 22 Orthogonal transformation unit 23 Quantization unit 24, 42 Inverse quantization unit 25, 43 Inverse orthogonal transformation unit 26, 44 Addition unit 27, 45 Memory 28, 46 Motion compensation unit 29, 47 changeover switch 30 variable length encoding unit 40 decoding device 41 variable length decoding unit

Claims (8)

プライマリコンポーネント信号と、その他の1以上のコンポーネント信号からなるセカンダリコンポーネント信号とを有する映像信号について、符号化済みのプライマリコンポーネント信号及び係数で表される予測式を用いて、セカンダリコンポーネント信号のイントラ予測を行うイントラ予測装置であって、
予め定められた複数のイントラ予測モードから決定されたプライマリ予測モードに基づいてプライマリコンポーネント信号の予測画像を生成するプライマリ予測画像生成部と、
前記プライマリ予測モードが示す予測方向に応じて、前記予測式の係数導出に用いる参照画素の位置を決定し、該参照画素の位置を示す参照画素位置情報を生成する参照画素選択部と、
前記参照画素位置情報が示す、前記プライマコンポーネント信号の画素及び前記セカンダリコンポーネント信号の画素から、前記予測式の係数を導出する係数導出部と、
前記係数導出部により導出された係数を代入した予測式を用いて前記セカンダリコンポーネント信号のイントラ予測を行い、セカンダリコンポーネント信号の予測画像を生成する第1セカンダリ予測画像生成部と、
を備えることを特徴とするイントラ予測装置。
For a video signal having a primary component signal and a secondary component signal composed of one or more other component signals, intra prediction of the secondary component signal is performed using a coded primary component signal and a prediction formula represented by a coefficient. An intra prediction device for performing
A primary prediction image generation unit that generates a prediction image of a primary component signal based on a primary prediction mode determined from a plurality of predetermined intra prediction modes;
A reference pixel selection unit that determines a position of a reference pixel used for deriving a coefficient of the prediction formula according to a prediction direction indicated by the primary prediction mode, and generates reference pixel position information indicating the position of the reference pixel;
The illustrated reference pixel position information, from the pixels of the pixel and the secondary component signal of the primary component signals, and a coefficient deriving unit that derives the coefficients of the prediction equation,
A first secondary predicted image generation unit configured to perform intra prediction of the secondary component signal using a prediction formula into which the coefficient derived by the coefficient deriving unit is substituted, and generate a predicted image of the secondary component signal;
An intra prediction apparatus comprising:
前記参照画素選択部は、
前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、0度を含む範囲である、第1の角度以上第2の角度未満である場合には、前記参照画素の位置を、予測対象ブロックの上側に隣接する一行の画素とし、
前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、45度を含む範囲である、前記第2の角度以上第3の角度未満である場合には、前記参照画素の位置を、前記一行の画素の一部、及び、予測対象ブロックの左側に隣接する一列の画素の一部とし、
前記プライマリ予測モードが示す予測方向の、垂直下方向に対して反時計回り方向の角度が、90度を含む範囲である、前記第3の角度以上第4の角度未満である場合には、前記参照画素の位置を、前記一列の画素とする
ことを特徴とする、請求項1に記載のイントラ予測装置。
The reference pixel selection unit includes:
When the angle in the counterclockwise direction with respect to the vertical downward direction of the prediction direction indicated by the primary prediction mode is a range including 0 degrees, the reference angle is greater than or equal to the first angle and less than the second angle. The pixel position is a row of pixels adjacent to the upper side of the prediction target block,
When the angle of the anticlockwise direction with respect to the vertical downward direction of the prediction direction indicated by the primary prediction mode is a range including 45 degrees, the angle is greater than or equal to the second angle and less than the third angle, The position of the reference pixel is a part of the pixels in the one row and a part of a column of pixels adjacent to the left side of the prediction target block,
In the case where the angle of the counterclockwise direction with respect to the vertical downward direction of the prediction direction indicated by the primary prediction mode is a range including 90 degrees, the angle is equal to or greater than the third angle and less than the fourth angle. The intra prediction apparatus according to claim 1, wherein a position of a reference pixel is the pixel in the row.
予め定められた複数のイントラ予測モードから決定されたセカンダリ予測モードに基づいてセカンダリコンポーネント信号の予測画像を生成する第2セカンダリ予測画像生成部と、
前記第1セカンダリ予測画像生成部により生成されたセカンダリコンポーネント信号の予測画像、及び前記第2セカンダリ予測画像生成部により生成されたセカンダリコンポーネント信号の予測画像のうち、いずれか一方を選択して出力するセカンダリ予測画像選択部と、
を更に備えることを特徴とする、請求項1又は2に記載のイントラ予測装置。
A second secondary predicted image generation unit that generates a predicted image of the secondary component signal based on a secondary prediction mode determined from a plurality of predetermined intra prediction modes;
One of the predicted image of the secondary component signal generated by the first secondary predicted image generation unit and the predicted image of the secondary component signal generated by the second secondary predicted image generation unit are selected and output. A secondary predicted image selection unit;
The intra prediction apparatus according to claim 1, further comprising:
請求項1から3のいずれか一項に記載のイントラ予測装置を備えることを特徴とする符号化装置。   An encoding apparatus comprising the intra prediction apparatus according to any one of claims 1 to 3. 請求項1から3のいずれか一項に記載のイントラ予測装置を備えることを特徴とする復号装置。   A decoding apparatus comprising the intra prediction apparatus according to any one of claims 1 to 3. コンピュータを、請求項1から3のいずれか一項に記載のイントラ予測装置として機能させるためのイントラ予測プログラム。   The intra prediction program for functioning a computer as an intra prediction apparatus as described in any one of Claim 1 to 3. コンピュータを、請求項4に記載の符号化装置として機能させるための符号化プログラム。   An encoding program for causing a computer to function as the encoding device according to claim 4. コンピュータを、請求項5に記載の復号装置として機能させるための復号プログラム。   A decoding program for causing a computer to function as the decoding device according to claim 5.
JP2011226230A 2011-10-13 2011-10-13 Intra prediction apparatus, encoding apparatus, decoding apparatus, and program Active JP5898452B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011226230A JP5898452B2 (en) 2011-10-13 2011-10-13 Intra prediction apparatus, encoding apparatus, decoding apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011226230A JP5898452B2 (en) 2011-10-13 2011-10-13 Intra prediction apparatus, encoding apparatus, decoding apparatus, and program

Publications (2)

Publication Number Publication Date
JP2013090015A JP2013090015A (en) 2013-05-13
JP5898452B2 true JP5898452B2 (en) 2016-04-06

Family

ID=48533545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011226230A Active JP5898452B2 (en) 2011-10-13 2011-10-13 Intra prediction apparatus, encoding apparatus, decoding apparatus, and program

Country Status (1)

Country Link
JP (1) JP5898452B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177295A (en) * 2014-03-14 2015-10-05 三菱電機株式会社 Terminal apparatus and data management apparatus
JP6409400B2 (en) * 2014-08-13 2018-10-24 沖電気工業株式会社 Video encoding apparatus, method and program
JP6680260B2 (en) 2017-04-28 2020-04-15 株式会社Jvcケンウッド IMAGE ENCODING DEVICE, IMAGE ENCODING METHOD, IMAGE ENCODING PROGRAM, IMAGE DECODING DEVICE, IMAGE DECODING METHOD, AND IMAGE DECODING PROGRAM
JP2019213096A (en) 2018-06-06 2019-12-12 Kddi株式会社 Image decoding device, image encoding device, image processing system, image decoding method, and program
JP6879401B2 (en) * 2020-02-27 2021-06-02 株式会社Jvcケンウッド Image coding device, image coding method and image coding program, and image decoding device, image decoding method and image decoding program.
CN113473135B (en) * 2021-05-26 2023-09-01 北京大学 Intra-frame prediction method, device and medium for nonlinear texture
WO2023224290A1 (en) * 2022-05-18 2023-11-23 현대자동차주식회사 Method and apparatus for selecting reference sample for deriving cross-component relation model in intra prediction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284275A (en) * 2008-05-23 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> Image encoding method, image decoding method, image encoder, image decoder, image encoding program, image decoding program, and recording medium recording programs and readable by computer

Also Published As

Publication number Publication date
JP2013090015A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
US9224215B2 (en) Apparatus and method for encoding/decoding images for intra-prediction
JP5898452B2 (en) Intra prediction apparatus, encoding apparatus, decoding apparatus, and program
WO2012087034A2 (en) Intra prediction method and apparatus using the method
WO2020036132A1 (en) Image encoding device, image decoding device, and program
JP7323710B2 (en) Bi-Prediction of Weighted Samples in Video Coding
JP7415067B2 (en) Intra prediction device, image decoding device, and program
JP5841395B2 (en) Intra prediction device, encoding device, and program
CN115988202A (en) Apparatus and method for intra prediction
CN113395520B (en) Decoding prediction method, device and computer storage medium
JP2020053725A (en) Predictive image correction device, image encoding device, image decoding device, and program
WO2021100450A1 (en) Intra prediction device, image encoding device, image decoding device, and program
JP2013098713A (en) Video encoding device, video decoding device, video encoding method, and video decoding method
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7396883B2 (en) Encoding device, decoding device, and program
JP2023086397A (en) Intra prediction device, decoding device, and program
KR102125969B1 (en) Intra prediction method and apparatus using the method
JP6102977B2 (en) Image processing apparatus and method, program, and recording medium
JP2021118525A (en) Coding device, decoding device, and program
JP2020109959A (en) Inter-prediction device, image coding device, image decoding device, and program
JP2020195063A (en) Intra-prediction device, image coding device, image decoding device, and program
JP2014135552A (en) Dynamic image encoder, dynamic image decoder, dynamic image encoding method, and dynamic image decoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160304

R150 Certificate of patent or registration of utility model

Ref document number: 5898452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250