JP2013110502A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013110502A
JP2013110502A JP2011252513A JP2011252513A JP2013110502A JP 2013110502 A JP2013110502 A JP 2013110502A JP 2011252513 A JP2011252513 A JP 2011252513A JP 2011252513 A JP2011252513 A JP 2011252513A JP 2013110502 A JP2013110502 A JP 2013110502A
Authority
JP
Japan
Prior art keywords
prediction
unit
filter
color difference
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011252513A
Other languages
Japanese (ja)
Inventor
Zong Dai Kim
鐘大 金
Kazufumi Sato
数史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011252513A priority Critical patent/JP2013110502A/en
Priority to PCT/JP2012/076840 priority patent/WO2013073328A1/en
Publication of JP2013110502A publication Critical patent/JP2013110502A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a more efficient use of memory resources while reducing influence of noise when calculating prediction values of color difference components in the LM mode.SOLUTION: An image processing apparatus comprises: a filter that generates an input value for a brightness component to be substituted into a prediction function that is for predicting the value of a first color difference component, by filtering the value of a filter tap comprising one or more brightness components at a pixel position that is common with the first color difference component, and one or more brightness components at a pixel position that is not common with the first color difference component; and a prediction unit that predicts the value of the first color difference component, by substituting, into the prediction function, the input value generated by the filter for the brightness component. The filter of this image processing apparatus is a one-dimensional filter.

Description

本開示は、画像処理装置及び画像処理方法に関する。   The present disclosure relates to an image processing apparatus and an image processing method.

デジタル画像のデータサイズを圧縮するための画像符号化方式において重要な技術の1つは、画面内予測、即ちイントラ予測である。イントラ予測は、画像内の隣り合うブロック間の相関を利用し、あるブロック内の画素値を隣り合う他のブロックの画素値から予測することで、符号化される情報量を削減する技術である。MPEG4以前の画像符号化方式では、直交変換係数の直流成分及び低周波成分のみがイントラ予測の対象とされていた。これに対し、H.264/AVC(Advanced Video Coding)では、全ての成分についてイントラ予測が可能となった。イントラ予測を用いることで、例えば青空の画像のように、画素値の変化の緩やかな画像については、圧縮率の大幅な向上が見込まれる。   One of the important techniques in an image encoding method for compressing the data size of a digital image is intra-screen prediction, that is, intra prediction. Intra prediction is a technique for reducing the amount of encoded information by using the correlation between adjacent blocks in an image and predicting the pixel values in a block from the pixel values of other adjacent blocks. . In the image coding system before MPEG4, only the direct current component and low frequency component of the orthogonal transform coefficient are targeted for intra prediction. In contrast, H.H. In H.264 / AVC (Advanced Video Coding), intra prediction is possible for all components. By using intra prediction, for example, an image with a gradual change in pixel value, such as an image of a blue sky, is expected to greatly improve the compression ratio.

イントラ予測に際しては、通常、予測対象のブロックの画素値を予測するために最適な予測モードが、複数の予測モードから選択される。予測モードは、典型的には、参照画素から予測対象画素への予測方向によって区別され得る。例えば、H.264/AVCにおいて、色差成分の予測に際しては、平均値予測、水平予測、垂直予測及び平面予測という4つの予測モードが選択可能である。さらに、H.264/AVCに続く次世代の画像符号化方式として標準化が進められているHEVCでは、動的に構築される輝度成分の線型関数を予測関数として用いて色差成分の画素値を予測する、線型モデル(LM:Linear Model)モードと呼ばれる追加的な予測モードが採用される見込みである(下記非特許文献1参照)。   In intra prediction, usually, an optimal prediction mode for predicting a pixel value of a prediction target block is selected from a plurality of prediction modes. The prediction mode can typically be distinguished by the prediction direction from the reference pixel to the prediction target pixel. For example, H.M. In H.264 / AVC, when predicting a color difference component, four prediction modes of average value prediction, horizontal prediction, vertical prediction, and plane prediction can be selected. Further, H.C. In HEVC, which is being standardized as a next-generation image encoding method following H.264 / AVC, a linear model that predicts a pixel value of a color difference component using a linear function of a luminance component that is dynamically constructed as a prediction function An additional prediction mode called (LM: Linear Model) mode is expected to be employed (see Non-Patent Document 1 below).

画像の色差成分の密度は、クロマフォーマットが4:2:0の場合、輝度成分の密度よりも低い。そこで、下記非特許文献1に記載された手法では、ある色差成分の値をLMモードで予測する際、当該色差成分と共通する画素位置の2つの輝度成分の値をダウンサンプリングすることにより、予測関数へ代入される輝度成分の入力値が生成される。これに対し、下記非特許文献2は、ノイズの影響を低減して予測の精度を高めるために、色差成分と共通しない画素位置の輝度成分の値をも算入して、予測関数への輝度成分の入力値を3×2タップの2次元フィルタで生成することを提案している。下記非特許文献3は、LMモードの予測関数の係数を決定する際の左の隣接ブロックの参照画素のダウンサンプリングを、2タップではなく4タップのフィルタで行うことを提案している。   The density of the color difference component of the image is lower than the density of the luminance component when the chroma format is 4: 2: 0. Therefore, in the method described in Non-Patent Document 1 below, when a value of a certain color difference component is predicted in the LM mode, the prediction is performed by down-sampling two luminance component values at pixel positions common to the color difference component. An input value of the luminance component to be substituted into the function is generated. On the other hand, Non-Patent Document 2 listed below also includes the luminance component value at a pixel position that is not in common with the chrominance component in order to reduce the influence of noise and increase the accuracy of the prediction, and the luminance component to the prediction function It is proposed to generate an input value of 2 by a two-dimensional filter of 3 × 2 taps. Non-Patent Document 3 below proposes to perform downsampling of the reference pixel of the adjacent block on the left when determining the coefficient of the prediction function in the LM mode with a 4-tap filter instead of 2-tap.

Jianle Chen, et al. “CE6.a.4: Chroma intra prediction by reconstructed luma samples”(JCTVC-E266,2011年3月)Jianle Chen, et al. “CE6.a.4: Chroma intra prediction by reconstructed luma samples” (JCTVC-E266, March 2011) Akira Minezawa, et al. “An improvement to chroma intra prediction from luma”(JCTVC-F173,2011年7月)Akira Minezawa, et al. “An improvement to chroma intra prediction from luma” (JCTVC-F173, July 2011) Yongbing Lin, et al. “Modifications to intra frame coding”(JCTVC-G119,2011年11月)Yongbing Lin, et al. “Modifications to intra frame coding” (JCTVC-G119, November 2011)

しかしながら、上記非特許文献2により提案されている手法では、予測関数への1つの入力値を生成する際に参照される輝度成分が、複数の行及び複数の列にわたって存在する。そのため、LMモードでの色差成分の予測値の計算のために、複数のラインメモリに予測対象ブロックの輝度成分の値を一時的に記憶しておくことが求められる。一方で、HEVCにおいて、イントラ予測の前段に設けられる逆直交変換は、1次元の水平方向の変換処理と1次元の垂直方向の変換処理とを逐次的に実行する方式で実装されることが想定されている。   However, in the method proposed by Non-Patent Document 2, the luminance component referred to when generating one input value to the prediction function exists over a plurality of rows and a plurality of columns. For this reason, in order to calculate the prediction value of the color difference component in the LM mode, it is required to temporarily store the luminance component value of the prediction target block in a plurality of line memories. On the other hand, in HEVC, it is assumed that the inverse orthogonal transform provided in the previous stage of intra prediction is implemented by a method of sequentially executing a one-dimensional horizontal transformation process and a one-dimensional vertical transformation process. Has been.

従って、LMモードでの色差成分の予測値の計算において、単一のラインメモリに記憶される輝度成分の値のみを参照する方式とすれば、ライン単位での逐次処理を採用してメモリリソースをより効率的に使用することが可能となる。   Therefore, in calculating the predicted value of the color difference component in the LM mode, if only a luminance component value stored in a single line memory is referred to, a sequential process in units of lines is adopted to save memory resources. It can be used more efficiently.

本開示によれば、第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値をフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成するフィルタと、前記フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測する予測部と、を備え、前記フィルタは、1次元フィルタである、画像処理装置が提供される。   According to the present disclosure, the value of a filter tap including one or more luminance components at a pixel position common to the first color difference component and one or more luminance components at a pixel position not common to the first color difference component is obtained. A filter that generates an input value of a luminance component to be substituted into a prediction function for predicting a value of the first color difference component by filtering, and the input value of the luminance component generated by the filter A prediction unit that predicts the value of the first chrominance component by substituting it into a prediction function, and the filter is a one-dimensional filter.

上述した画像処理装置は、画像符号化装置及び画像復号装置のいずれにも適用可能である。   The above-described image processing apparatus can be applied to both an image encoding apparatus and an image decoding apparatus.

また、本開示によれば、第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値を1次元フィルタでフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成することと、前記1次元フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測することと、を含む画像処理方法が提供される。   Further, according to the present disclosure, a filter tap including one or more luminance components at a pixel position common to the first color difference component and one or more luminance components at a pixel position not common to the first color difference component. By filtering the value with a one-dimensional filter, an input value of a luminance component to be substituted into a prediction function for predicting the value of the first color difference component is generated, and generated by the one-dimensional filter An image processing method including predicting a value of the first color difference component by substituting the input value of the luminance component into the prediction function is provided.

本開示に係る技術によれば、LMモードでの色差成分の予測値の計算に際して、ノイズの影響を低減しながら、メモリリソースをより効率的に使用することが可能となる。   According to the technology according to the present disclosure, it is possible to more efficiently use memory resources while reducing the influence of noise when calculating the predicted value of the color difference component in the LM mode.

一実施形態に係る画像符号化装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image coding apparatus which concerns on one Embodiment. 一実施形態に係る画像符号化装置のイントラ予測部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the intra estimation part of the image coding apparatus which concerns on one Embodiment. HEVCの角度イントラ予測法に従って選択可能な予測方向の候補について説明するための説明図である。It is explanatory drawing for demonstrating the candidate of the prediction direction which can be selected according to the angle intra prediction method of HEVC. HEVCの角度イントラ予測法における参照画素値の計算について説明するための説明図である。It is explanatory drawing for demonstrating calculation of the reference pixel value in the angle intra prediction method of HEVC. LMモードについて説明するための説明図である。It is explanatory drawing for demonstrating LM mode. LMモードにおける輝度成分のダウンサンプリングの既存の第1の手法について説明するための説明図である。It is explanatory drawing for demonstrating the existing 1st method of the downsampling of the luminance component in LM mode. LMモードにおける輝度成分のダウンサンプリングの既存の第2の手法について説明するための説明図である。It is explanatory drawing for demonstrating the existing 2nd method of the downsampling of the luminance component in LM mode. 逆直交変換部における逐次的な逆直交変換の順序について説明するための説明図である。It is explanatory drawing for demonstrating the order of the sequential inverse orthogonal transformation in an inverse orthogonal transformation part. 一実施形態に係る輝度成分のダウンサンプリングの第1の手法について説明するための説明図である。It is explanatory drawing for demonstrating the 1st method of the downsampling of the luminance component which concerns on one Embodiment. 一実施形態に係る輝度成分のダウンサンプリングの第2の手法について説明するための説明図である。It is explanatory drawing for demonstrating the 2nd method of the downsampling of the luminance component which concerns on one Embodiment. 輝度成分の予測方向の角度に応じたフィルタタップ数の切り替えの第1の例について説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of switching of the number of filter taps according to the angle of the prediction direction of a luminance component. 輝度成分の予測方向の角度に応じたフィルタタップ数の切り替えの第2の例について説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of switching of the number of filter taps according to the angle of the prediction direction of a luminance component. 一実施形態に係るイントラ予測処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the intra prediction process which concerns on one Embodiment. 図10に示したLMモード予測処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the LM mode prediction process shown in FIG. 図11に示したダウンサンプリング処理の詳細な流れの第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the detailed flow of the downsampling process shown in FIG. 図11に示したダウンサンプリング処理の詳細な流れの第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the detailed flow of the downsampling process shown in FIG. 図11に示したダウンサンプリング処理の詳細な流れの第3の例を示すフローチャートである。12 is a flowchart illustrating a third example of a detailed flow of the downsampling process illustrated in FIG. 11. 一実施形態に係る画像復号装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image decoding apparatus which concerns on one Embodiment. 一実施形態に係る画像復号装置のイントラ予測部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the intra estimation part of the image decoding apparatus which concerns on one Embodiment. 一実施形態に係る復号時のイントラ予測処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the intra prediction process at the time of the decoding which concerns on one Embodiment. 第1の変形例に係るイントラ予測部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the intra estimation part which concerns on a 1st modification. クロマフォーマットが4:2:2である場合のLMモードについて説明するための説明図である。It is explanatory drawing for demonstrating LM mode in case a chroma format is 4: 2: 2. クロマフォーマットが4:4:4である場合のLMモードについて説明するための説明図である。It is explanatory drawing for demonstrating LM mode in case a chroma format is 4: 4: 4. テレビジョン装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a television apparatus. 携帯電話機の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a mobile telephone. 記録再生装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of a recording / reproducing apparatus. 撮像装置の概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a schematic structure of an imaging device.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下の順序で説明を行う。
1.一実施形態に係る画像符号化装置の構成例
2.一実施形態に係る符号化時の処理の流れ
3.一実施形態に係る画像復号装置の構成例
4.一実施形態に係る復号時の処理の流れ
5.変形例
6.応用例
7.まとめ
The description will be given in the following order.
1. 1. Configuration example of image encoding device according to one embodiment 2. Processing flow during encoding according to an embodiment 3. Configuration example of image decoding apparatus according to one embodiment 4. Process flow during decoding according to one embodiment Modification 6 Application example 7. Summary

<1.一実施形態に係る画像符号化装置の構成例>
[1−1.全体的な構成例]
図1は、一実施形態に係る画像符号化装置10の構成の一例を示すブロック図である。図1を参照すると、画像符号化装置10は、A/D(Analogue to Digital)変換部11、並び替えバッファ12、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18、逆量子化部21、逆直交変換部22、加算部23、デブロックフィルタ24、フレームメモリ25、セレクタ26及び27、動き探索部30、並びにイントラ予測部40を備える。
<1. Configuration Example of Image Encoding Device According to One Embodiment>
[1-1. Overall configuration example]
FIG. 1 is a block diagram illustrating an example of a configuration of an image encoding device 10 according to an embodiment. Referring to FIG. 1, an image encoding device 10 includes an A / D (Analogue to Digital) conversion unit 11, a rearrangement buffer 12, a subtraction unit 13, an orthogonal transformation unit 14, a quantization unit 15, a lossless encoding unit 16, The accumulation buffer 17, rate control unit 18, inverse quantization unit 21, inverse orthogonal transform unit 22, addition unit 23, deblock filter 24, frame memory 25, selectors 26 and 27, motion search unit 30, and intra prediction unit 40 Prepare.

A/D変換部11は、アナログ形式で入力される画像信号をデジタル形式の画像データに変換し、一連のデジタル画像データを並び替えバッファ12へ出力する。   The A / D conversion unit 11 converts an image signal input in analog format into image data in digital format, and outputs a series of digital image data to the rearrangement buffer 12.

並び替えバッファ12は、A/D変換部11から入力される一連の画像データに含まれる画像を並び替える。並び替えバッファ12は、符号化処理に係るGOP(Group of Pictures)構造に応じて画像を並び替えた後、並び替え後の画像データを減算部13、動き探索部30及びイントラ予測部40へ出力する。   The rearrangement buffer 12 rearranges images included in a series of image data input from the A / D conversion unit 11. The rearrangement buffer 12 rearranges the images according to the GOP (Group of Pictures) structure related to the encoding process, and then outputs the rearranged image data to the subtraction unit 13, the motion search unit 30, and the intra prediction unit 40. To do.

減算部13には、並び替えバッファ12から入力される画像データ、及び後に説明する動き探索部30又はイントラ予測部40から入力される予測画像データが供給される。減算部13は、並び替えバッファ12から入力される画像データと予測画像データとの差分である予測誤差データを算出し、算出した予測誤差データを直交変換部14へ出力する。   Image data input from the rearrangement buffer 12 and predicted image data input from the motion search unit 30 or the intra prediction unit 40 described later are supplied to the subtraction unit 13. The subtraction unit 13 calculates prediction error data that is the difference between the image data input from the rearrangement buffer 12 and the predicted image data, and outputs the calculated prediction error data to the orthogonal transform unit 14.

直交変換部14は、減算部13から入力される予測誤差データについて直交変換を行う。HEVCにおいて、直交変換部14による直交変換は、変換単位(Transform Unit:TU)ごとの2次元の離散コサイン変換(Discrete Cosine Transform:DCT)である。2次元のDCTは、実質的には、垂直方向の1次元のDCT及び水平方向の1次元のDCTのうち一方を先に、他方を後に逐次的に実行する手法で、ラインごとに行われ得る。本実施形態では、垂直方向の1次元のDCTが先に行われるものとする。直交変換部14は、直交変換処理により取得される変換係数データを量子化部15へ出力する。   The orthogonal transform unit 14 performs orthogonal transform on the prediction error data input from the subtraction unit 13. In HEVC, the orthogonal transform by the orthogonal transform unit 14 is a two-dimensional discrete cosine transform (DCT) for each transform unit (TU). The two-dimensional DCT can be performed for each line in a method in which one of the vertical one-dimensional DCT and the horizontal one-dimensional DCT is sequentially executed first and the other one after the other sequentially. . In the present embodiment, it is assumed that one-dimensional DCT in the vertical direction is performed first. The orthogonal transform unit 14 outputs transform coefficient data acquired by the orthogonal transform process to the quantization unit 15.

量子化部15には、直交変換部14から入力される変換係数データ、及び後に説明するレート制御部18からのレート制御信号が供給される。量子化部15は、変換係数データを量子化し、量子化後の変換係数データ(以下、量子化データという)を可逆符号化部16及び逆量子化部21へ出力する。また、量子化部15は、レート制御部18からのレート制御信号に基づいて量子化パラメータ(量子化スケール)を切り替えることにより、可逆符号化部16に入力される量子化データのビットレートを変化させる。   The quantization unit 15 is supplied with transform coefficient data input from the orthogonal transform unit 14 and a rate control signal from a rate control unit 18 described later. The quantizing unit 15 quantizes the transform coefficient data and outputs the quantized transform coefficient data (hereinafter referred to as quantized data) to the lossless encoding unit 16 and the inverse quantization unit 21. Further, the quantization unit 15 changes the bit rate of the quantized data input to the lossless encoding unit 16 by switching the quantization parameter (quantization scale) based on the rate control signal from the rate control unit 18. Let

可逆符号化部16は、量子化部15から入力される量子化データについて可逆符号化処理を行うことにより、符号化ストリームを生成する。可逆符号化部16による可逆符号化は、例えば、可変長符号化、又は算術符号化などであってよい。また、可逆符号化部16は、スイッチ27から入力されるイントラ予測に関する情報又はインター予測に関する情報を、符号化ストリームのヘッダ領域内に多重化する。そして、可逆符号化部16は、生成した符号化ストリームを蓄積バッファ17へ出力する。   The lossless encoding unit 16 performs a lossless encoding process on the quantized data input from the quantization unit 15 to generate an encoded stream. The lossless encoding by the lossless encoding unit 16 may be variable length encoding or arithmetic encoding, for example. In addition, the lossless encoding unit 16 multiplexes information related to intra prediction or information related to inter prediction input from the switch 27 in the header area of the encoded stream. Then, the lossless encoding unit 16 outputs the generated encoded stream to the accumulation buffer 17.

蓄積バッファ17は、可逆符号化部16から入力される符号化ストリームを半導体メモリなどの記憶媒体を用いて一時的に蓄積する。そして、蓄積バッファ17は、蓄積した符号化ストリームを、伝送路の帯域に応じたレートで、図示しない伝送部(例えば、通信インタフェース又は周辺機器との接続インタフェースなど)へ出力する。   The accumulation buffer 17 temporarily accumulates the encoded stream input from the lossless encoding unit 16 using a storage medium such as a semiconductor memory. Then, the accumulation buffer 17 outputs the accumulated encoded stream to a transmission unit (not shown) (for example, a communication interface or a connection interface with a peripheral device) at a rate corresponding to the bandwidth of the transmission path.

レート制御部18は、蓄積バッファ17の空き容量を監視する。そして、レート制御部18は、蓄積バッファ17の空き容量に応じてレート制御信号を生成し、生成したレート制御信号を量子化部15へ出力する。例えば、レート制御部18は、蓄積バッファ17の空き容量が少ない時には、量子化データのビットレートを低下させるためのレート制御信号を生成する。また、例えば、レート制御部18は、蓄積バッファ17の空き容量が十分大きい時には、量子化データのビットレートを高めるためのレート制御信号を生成する。   The rate control unit 18 monitors the free capacity of the accumulation buffer 17. Then, the rate control unit 18 generates a rate control signal according to the free capacity of the accumulation buffer 17 and outputs the generated rate control signal to the quantization unit 15. For example, the rate control unit 18 generates a rate control signal for reducing the bit rate of the quantized data when the free capacity of the storage buffer 17 is small. For example, when the free capacity of the accumulation buffer 17 is sufficiently large, the rate control unit 18 generates a rate control signal for increasing the bit rate of the quantized data.

逆量子化部21は、量子化部15から入力される量子化データについて逆量子化処理を行う。そして、逆量子化部21は、逆量子化処理により取得される変換係数データを、逆直交変換部22へ出力する。   The inverse quantization unit 21 performs an inverse quantization process on the quantized data input from the quantization unit 15. Then, the inverse quantization unit 21 outputs transform coefficient data acquired by the inverse quantization process to the inverse orthogonal transform unit 22.

逆直交変換部22は、逆量子化部21から入力される変換係数データについて逆直交変換処理を行うことにより、予測誤差データを復元する。逆直交変換部22による逆直交変換は、TUごとの2次元の逆離散コサイン変換(Inverse Discrete Cosine Transform:IDCT)である。2次元のIDCTは、実質的には、垂直方向の1次元のIDCT及び水平方向の1次元のIDCTを、直交変換とは逆の順序で逐次的に実行する手法で、ラインごとに行われ得る。本実施形態では、水平方向の1次元のIDCTが先に行われるものとする。そして、逆直交変換部22は、復元した予測誤差データを加算部23へ出力する。   The inverse orthogonal transform unit 22 restores the prediction error data by performing an inverse orthogonal transform process on the transform coefficient data input from the inverse quantization unit 21. The inverse orthogonal transform by the inverse orthogonal transform unit 22 is a two-dimensional inverse discrete cosine transform (IDCT) for each TU. The two-dimensional IDCT can be substantially performed for each line by a method of sequentially executing the one-dimensional IDCT in the vertical direction and the one-dimensional IDCT in the horizontal direction in the reverse order of the orthogonal transformation. . In the present embodiment, it is assumed that horizontal one-dimensional IDCT is performed first. Then, the inverse orthogonal transform unit 22 outputs the restored prediction error data to the addition unit 23.

加算部23は、逆直交変換部22から入力される復元された予測誤差データと動き探索部30又はイントラ予測部40から入力される予測画像データとを加算することにより、復号画像データを再構築(reconstruct)する。そして、加算部23は、再構築した復号画像データをデブロックフィルタ24及びフレームメモリ25へ出力する。また、加算部23は、LMモードでの色差成分の予測の際に用いられる輝度成分の復号画像データをイントラ予測部40へ出力する。   The adding unit 23 reconstructs decoded image data by adding the restored prediction error data input from the inverse orthogonal transform unit 22 and the predicted image data input from the motion search unit 30 or the intra prediction unit 40. (Reconstruct). Then, the addition unit 23 outputs the reconstructed decoded image data to the deblock filter 24 and the frame memory 25. Further, the adding unit 23 outputs the decoded image data of the luminance component used when predicting the color difference component in the LM mode to the intra prediction unit 40.

デブロックフィルタ24は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタリング処理を行う。デブロックフィルタ24は、加算部23から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データをフレームメモリ25へ出力する。   The deblocking filter 24 performs a filtering process for reducing block distortion that occurs when an image is encoded. The deblocking filter 24 removes block distortion by filtering the decoded image data input from the adding unit 23, and outputs the decoded image data after filtering to the frame memory 25.

フレームメモリ25は、加算部23から入力される復号画像データ、及びデブロックフィルタ24から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。   The frame memory 25 stores the decoded image data input from the adder 23 and the decoded image data after filtering input from the deblock filter 24 using a storage medium.

セレクタ26は、インター予測のために使用されるフィルタリング後の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとして動き探索部30に供給する。また、セレクタ26は、イントラ予測のために使用されるフィルタリング前の復号画像データをフレームメモリ25から読み出し、読み出した復号画像データを参照画像データとしてイントラ予測部40に供給する。   The selector 26 reads out the decoded image data after filtering used for inter prediction from the frame memory 25 and supplies the read out decoded image data to the motion search unit 30 as reference image data. The selector 26 reads out decoded image data before filtering used for intra prediction from the frame memory 25 and supplies the read decoded image data to the intra prediction unit 40 as reference image data.

セレクタ27は、インター予測モードにおいて、動き探索部30から出力されるインター予測の結果としての予測画像データを減算部13へ出力すると共に、インター予測に関する情報を可逆符号化部16へ出力する。また、セレクタ27は、イントラ予測モードにおいて、イントラ予測部40から出力されるイントラ予測の結果としての予測画像データを減算部13へ出力すると共に、イントラ予測に関する情報を可逆符号化部16へ出力する。セレクタ27は、インター予測モードとイントラ予測モードとを、動き探索部30及びイントラ予測部40から出力されるコスト関数値の大きさに応じて切り替える。   In the inter prediction mode, the selector 27 outputs predicted image data as a result of the inter prediction output from the motion search unit 30 to the subtraction unit 13 and outputs information related to the inter prediction to the lossless encoding unit 16. Further, in the intra prediction mode, the selector 27 outputs predicted image data as a result of the intra prediction output from the intra prediction unit 40 to the subtraction unit 13 and outputs information related to the intra prediction to the lossless encoding unit 16. . The selector 27 switches between the inter prediction mode and the intra prediction mode according to the size of the cost function value output from the motion search unit 30 and the intra prediction unit 40.

動き探索部30は、並び替えバッファ12から入力される符号化対象の画像データ(原画像データ)、及びセレクタ26を介して供給される復号画像データに基づいて、インター予測処理(フレーム間予測処理)を行う。例えば、動き探索部30は、各予測モードによる予測結果を所定のコスト関数を用いて評価する。次に、動き探索部30は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、動き探索部30は、当該最適な予測モードに従って予測画像データを生成する。そして、動き探索部30は、選択した最適な予測モードを表す予測モード情報、動きベクトル情報及び参照画像情報を含むインター予測に関する情報、コスト関数値、並びに予測画像データを、セレクタ27へ出力する。   The motion search unit 30 performs inter prediction processing (interframe prediction processing) based on the image data to be encoded (original image data) input from the rearrangement buffer 12 and the decoded image data supplied via the selector 26. )I do. For example, the motion search unit 30 evaluates the prediction result in each prediction mode using a predetermined cost function. Next, the motion search unit 30 selects the prediction mode with the smallest cost function value, that is, the prediction mode with the highest compression rate, as the optimum prediction mode. In addition, the motion search unit 30 generates predicted image data according to the optimal prediction mode. Then, the motion search unit 30 outputs prediction mode information indicating the selected optimal prediction mode, information on inter prediction including motion vector information and reference image information, a cost function value, and predicted image data to the selector 27.

イントラ予測部40は、並び替えバッファ12から入力される原画像データ、及びフレームメモリ25から供給される参照画像データとしての復号画像データに基づいて、画像内に設定されるブロックごとにイントラ予測処理を行う。そして、イントラ予測部40は、最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、並びに予測画像データを、セレクタ27へ出力する。イントラ予測部40により選択可能な予測モードは、既存のイントラ予測モードに加えて、色差成分についての線型モデル(LM)モードを含む。本実施形態におけるLMモードは、上記非特許文献2に記載されているLMモードとは異なり、輝度成分のダウンサンプリングに際して1次元フィルタを用いるという特徴を有する。このようなイントラ予測部40によるイントラ予測処理について、後により詳細に説明する。   The intra prediction unit 40 performs an intra prediction process for each block set in the image based on the original image data input from the rearrangement buffer 12 and the decoded image data as reference image data supplied from the frame memory 25. I do. Then, the intra prediction unit 40 outputs information related to intra prediction including prediction mode information representing the optimal prediction mode, a cost function value, and predicted image data to the selector 27. The prediction modes selectable by the intra prediction unit 40 include a linear model (LM) mode for color difference components in addition to the existing intra prediction modes. Unlike the LM mode described in Non-Patent Document 2, the LM mode in the present embodiment has a feature that a one-dimensional filter is used for downsampling of a luminance component. Such intra prediction processing by the intra prediction unit 40 will be described in detail later.

[1−2.イントラ予測部の構成例]
図2は、図1に示した画像符号化装置10のイントラ予測部40の詳細な構成の一例を示すブロック図である。図2を参照すると、イントラ予測部40は、予測制御部41、係数算出部42、輝度成分メモリ43、フィルタ44、予測部45及びモード判定部46を有する。
[1-2. Configuration example of intra prediction unit]
FIG. 2 is a block diagram illustrating an example of a detailed configuration of the intra prediction unit 40 of the image encoding device 10 illustrated in FIG. 1. Referring to FIG. 2, the intra prediction unit 40 includes a prediction control unit 41, a coefficient calculation unit 42, a luminance component memory 43, a filter 44, a prediction unit 45, and a mode determination unit 46.

予測制御部41は、イントラ予測部40におけるイントラ予測処理を制御する。例えば、予測制御部41は、符号化単位(Coding Unit:CU)ごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。輝度成分についてのイントラ予測処理において、予測制御部41は、複数の予測モードで予測部45に各画素の予測画素値を生成させ、モード判定部46に輝度成分の最適な予測モードを判定させる。CU内の予測単位(Prediction Unit:PU)の配置も決定される。色差成分についてのイントラ予測処理では、予測制御部41は、複数の予測モードで予測部45に各画素の予測画素値を生成させ、モード判定部46に色差成分の最適な予測モードを判定させる。   The prediction control unit 41 controls intra prediction processing in the intra prediction unit 40. For example, the prediction control unit 41 executes an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each coding unit (Coding Unit: CU). In the intra prediction process for the luminance component, the prediction control unit 41 causes the prediction unit 45 to generate a prediction pixel value of each pixel in a plurality of prediction modes, and causes the mode determination unit 46 to determine the optimal prediction mode of the luminance component. The arrangement of prediction units (PUs) in the CU is also determined. In the intra prediction process for the color difference component, the prediction control unit 41 causes the prediction unit 45 to generate a prediction pixel value of each pixel in a plurality of prediction modes, and causes the mode determination unit 46 to determine an optimal prediction mode for the color difference component.

輝度成分についての予測モードの候補は、様々な予測方向に関連付けられる予測モードを含み得る。HEVCでは、“Description of video coding technology proposal by Tandberg, Nokia, Ericsson”(Kemal Ugur, et al.,JCTVC-A119,2010年4月)において説明されている角度イントラ予測(Angular Intra Prediction)法が採用される。図3は、角度イントラ予測法に従って選択可能な予測方向の候補について説明するための説明図である。図3に示した画素P1は、予測対象画素である。画素P1が属するブロックの周囲の網掛けされた画素は、参照画素である。ブロックサイズが4×4画素である場合には、図中で実線(太線及び細線の双方)で示された、参照画素と予測対象画素とを結ぶ17種類の予測方向(に対応する予測モード)が、(DC予測に加えて)選択可能である。ブロックサイズが8×8画素、16×16画素又は32×32画素である場合には、図中で点線並びに実線(太線及び細線の双方)で示された33種類の予測方向(に対応する予測モード)が、(DC予測及び平面予測に加えて)選択可能である。ブロックサイズが64×64画素である場合には、図中で太線で示された2種類の予測方向(に対応する予測モード)が、(DC予測に加えて)選択可能である。なお、角度イントラ予測法では、予測方向の角度の分解能が高く、例えば8×8画素の場合の隣り合う予測方向の間の角度の差は、180度/32=5.625度である。従って、参照画素値として、図4に示すような1/8画素精度の参照画素値が計算され、予測画素値の計算のために使用され得る。   The prediction mode candidates for the luminance component may include prediction modes associated with various prediction directions. HEVC uses the Angular Intra Prediction method described in “Description of video coding technology proposal by Tandberg, Nokia, Ericsson” (Kemal Ugur, et al., JCTVC-A119, April 2010). Is done. FIG. 3 is an explanatory diagram for explaining prediction direction candidates that can be selected according to the angle intra prediction method. The pixel P1 illustrated in FIG. 3 is a prediction target pixel. The shaded pixels around the block to which the pixel P1 belongs are reference pixels. When the block size is 4 × 4 pixels, 17 types of prediction directions (corresponding to prediction modes) connecting the reference pixel and the prediction target pixel, which are indicated by solid lines (both thick and thin lines) in the figure, Can be selected (in addition to DC prediction). When the block size is 8 × 8 pixels, 16 × 16 pixels, or 32 × 32 pixels, prediction types corresponding to 33 types of prediction directions (shown by dotted lines and solid lines (both thick lines and thin lines)) are shown. Mode) can be selected (in addition to DC prediction and planar prediction). When the block size is 64 × 64 pixels, two types of prediction directions (corresponding to prediction modes) indicated by bold lines in the figure can be selected (in addition to DC prediction). In the angle intra prediction method, the angle resolution in the prediction direction is high. For example, in the case of 8 × 8 pixels, the angle difference between adjacent prediction directions is 180 degrees / 32 = 5.625 degrees. Therefore, a reference pixel value with 1/8 pixel accuracy as shown in FIG. 4 is calculated as the reference pixel value and can be used for calculation of the predicted pixel value.

色差成分についての予測モードの候補もまた、様々な予測方向に関連付けられる予測モードを含み得る。さらに、色差成分についての予測モードの候補は、上述したLMモードを含む。LMモードは、動的に構築される輝度成分の線型関数を予測関数として用いて色差成分の画素値を予測する予測モードである。LMモードにおいて使用される予測関数は、上記非特許文献1に記載されている次のような線型一次関数であってよい:   Prediction mode candidates for the color difference component may also include prediction modes associated with various prediction directions. Further, the prediction mode candidates for the color difference components include the LM mode described above. The LM mode is a prediction mode in which a pixel value of a color difference component is predicted using a linear function of a luminance component that is dynamically constructed as a prediction function. The prediction function used in the LM mode may be a linear linear function described in Non-Patent Document 1 as follows:

Figure 2013110502
Figure 2013110502

式(1)において、Re´(x,y)は、復号画像(いわゆるリコンストラクト画像)の輝度成分のダウンサンプリング後の値を表す。輝度成分のダウンサンプリングは、クロマフォーマットに依存して色差成分の密度が輝度成分の密度と異なる場合に行われ得る。 In Expression (1), Re L ′ (x, y) represents a value after down-sampling of the luminance component of the decoded image (so-called reconstructed image). The downsampling of the luminance component can be performed when the density of the color difference component is different from the density of the luminance component depending on the chroma format.

例えば、図5を参照すると、クロマフォーマットが4:2:0である場合の、16×16画素のサイズを有する1つのPU内の輝度成分(Luma)及び対応する色差成分(Chroma)が、丸印で概念的に示されている。輝度成分の密度は、水平方向及び垂直方向の各々について色差成分の密度の2倍である。PUの周囲に位置し、図中で塗りつぶされている丸印は、上記予測関数の係数α、βを算出する際に参照される参照画素を示す。図中右において斜線で網掛けされている丸印は、ダウンサンプリングされた輝度成分を示す。このようにダウンサンプリングされた輝度成分の値を上記予測関数の右辺のRe´(x,y)に代入することにより、共通する画素位置の色差成分の予測値が算出される。また、参照画素も同様にダウンサンプリングされ得る。 For example, referring to FIG. 5, when the chroma format is 4: 2: 0, the luminance component (Luma) and the corresponding color difference component (Chroma) in one PU having a size of 16 × 16 pixels are rounded. It is conceptually indicated by a sign. The density of the luminance component is twice the density of the color difference component in each of the horizontal direction and the vertical direction. Circles located around the PU and filled in the figure indicate reference pixels that are referred to when calculating the coefficients α and β of the prediction function. The circles shaded with diagonal lines on the right in the figure indicate the downsampled luminance components. By substituting the value of the luminance component down-sampled in this way into Re L ′ (x, y) on the right side of the prediction function, the predicted value of the color difference component at the common pixel position is calculated. Similarly, the reference pixels can be down-sampled.

クロマフォーマットが4:2:0である場合、図5の例のように、2×2個の輝度成分ごとに1つの輝度成分の入力値(予測関数へ代入される値)がダウンサンプリングにより生成される。上記非特許文献2によれば、ダウンサンプリングは、個々の色差成分と共通する画素位置の1つ以上の輝度成分と、当該色差成分とは共通しない画素位置の1つ以上の輝度成分とを含むフィルタタップの値を2次元フィルタを用いてフィルタリングすることにより行われる。ここで、ある色差成分と「共通する」画素位置の輝度成分とは、クロマフォーマットが4:2:0である場合、色差成分の画素位置(x,y)に対する輝度成分の画素位置(2x,2y)、(2x+1,2y)、(2x,2y+1)及び(2x+1,2y+1)を含むものとする。   When the chroma format is 4: 2: 0, one luminance component input value (a value substituted into the prediction function) is generated by downsampling for every 2 × 2 luminance components as in the example of FIG. Is done. According to Non-Patent Document 2, downsampling includes one or more luminance components at pixel positions that are common to individual color difference components, and one or more luminance components at pixel positions that are not common to the color difference components. This is done by filtering the value of the filter tap using a two-dimensional filter. Here, the luminance component at a pixel position “in common” with a certain color difference component is the pixel position (2x, y) of the luminance component with respect to the pixel position (x, y) of the color difference component when the chroma format is 4: 2: 0. 2y), (2x + 1, 2y), (2x, 2y + 1) and (2x + 1, 2y + 1).

図6Aは、上記非特許文献2に記載されているダウンサンプリングの既存の第1の手法について説明するための説明図である。図6Aの左上には、画素位置(1,1)の色差成分Cr1,1が示されている。色差成分Cr1,1の予測値は、輝度成分の入力値IL1,1を予測関数に代入することにより算出される。輝度成分の入力値IL1,1は、色差成分Cr1,1と共通する画素位置の輝度成分Lu2,2,Lu3,2,Lu2,3,Lu3,3及び色差成分Cr1,1とは共通しない画素位置の輝度成分Lu1,2,Lu1,3を含む3×2のフィルタタップの値をフィルタリングすることにより生成され得る。図中のフィルタタップの丸印の中に示されている数字は、各フィルタタップに乗算されるフィルタ係数である。このように、個々の色差成分と共通する画素位置の周囲の輝度成分をもダウンサンプリングの際のフィルタタップに含めることで、輝度成分のノイズの影響が低減され、LMモードでのイントラ予測の精度が高められる。 FIG. 6A is an explanatory diagram for explaining the existing first method of downsampling described in Non-Patent Document 2. In the upper left of FIG. 6A, the color difference component Cr 1,1 at the pixel position (1,1) is shown. The predicted value of the color difference component Cr 1,1 is calculated by substituting the luminance component input value IL 1,1 into the prediction function. The luminance component input value IL 1,1 includes luminance components Lu 2,2 , Lu 3,2 , Lu 2,3 , Lu 3,3 and color difference components Cr 1,3 at pixel positions common to the color difference components Cr 1,1 . It can be generated by filtering the value of a 3 × 2 filter tap including the luminance components Lu 1 , 2 , Lu 1 , 3 at pixel positions not common to 1 . The numbers shown in the circles of the filter taps in the figure are filter coefficients that are multiplied by each filter tap. Thus, by including the luminance component around the pixel position common to each color difference component in the filter tap at the time of downsampling, the influence of noise of the luminance component is reduced, and the accuracy of intra prediction in the LM mode is reduced. Is increased.

図6Bは、ダウンサンプリングの既存の第2の手法について説明するための説明図である。第2の手法では、輝度成分の入力値IL1,1は、色差成分Cr1,1と共通する画素位置の輝度成分Lu3,2,Lu3,3及び色差成分Cr1,1とは共通しない画素位置の輝度成分Lu1,2,Lu1,3を含む2×2のフィルタタップの値をフィルタリングすることにより生成され得る。フィルタ係数は、図中に示した通りである。 FIG. 6B is an explanatory diagram for describing an existing second method of downsampling. In the second method, the input value IL 1,1 of the luminance component is the same as the luminance components Lu 3,2 , Lu 3,3 and the color difference component Cr 1,1 at the same pixel position as the color difference component Cr 1,1. It can be generated by filtering the values of 2 × 2 filter taps including the luminance components Lu 1 , 2 , Lu 1 , 3 at the non-pixel positions. The filter coefficients are as shown in the figure.

ところで、上述したように、逆直交変換部22は、各ブロックについて、水平方向の1次元のIDCTを先に、垂直方向の1次元のIDCTを後にして、ラインごとに逆直交変換を実行する。例えば、図7に示した8×8画素のブロックについて、逆直交変換部22は、水平方向のラインR0〜R7について順に1次元のIDCTを実行した後、垂直方向のラインC0〜C7について順に1次元のIDCTを実行する。従って、復号画像データは、垂直方向のライン単位で加算部23を介してイントラ予測部40へ入力される。従って、図6A及び図6Bを用いて説明したような2次元フィルタを用いる手法では、複数のラインにわたって輝度成分の復号画像データ(リコンストラクト画素値)をメモリに記憶しておくことが求められる。しかし、色差成分のイントラ予測に際して、LMモード以外の予測モードでは輝度成分の値は参照されない。従って、LMモードだけのためにラインメモリを多く消費することは、メモリリソースの効率的な活用の観点で望ましくない。そこで、本実施形態では、LMモードでの輝度成分の入力値を生成する際のダウンサンプリングを、1次元フィルタを用いて行う。   By the way, as described above, the inverse orthogonal transform unit 22 performs the inverse orthogonal transform for each block after the one-dimensional IDCT in the horizontal direction and the one-dimensional IDCT in the vertical direction first. . For example, for the 8 × 8 pixel block shown in FIG. 7, the inverse orthogonal transform unit 22 sequentially performs one-dimensional IDCT for the horizontal lines R0 to R7, and then sequentially performs 1 for the vertical lines C0 to C7. Perform dimension IDCT. Accordingly, the decoded image data is input to the intra prediction unit 40 via the addition unit 23 in units of lines in the vertical direction. Therefore, in the method using the two-dimensional filter as described with reference to FIGS. 6A and 6B, it is required to store the decoded image data (reconstructed pixel value) of the luminance component in a memory over a plurality of lines. However, in the intra prediction of the color difference component, the value of the luminance component is not referred to in a prediction mode other than the LM mode. Therefore, consuming a large amount of line memory only for the LM mode is not desirable from the viewpoint of efficient use of memory resources. Therefore, in this embodiment, downsampling when generating an input value of a luminance component in the LM mode is performed using a one-dimensional filter.

図8Aは、本実施形態に係る輝度成分のダウンサンプリングの第1の手法について説明するための説明図である。図8Aの左上には、画素位置(1,1)の色差成分Cr1,1が示されている。色差成分Cr1,1の予測値は、輝度成分の入力値IL1,1を予測関数に代入することにより算出される。輝度成分の入力値IL1,1は、色差成分Cr1,1と共通する画素位置の輝度成分Lu2,2,Lu2,3及び色差成分Cr1,1とは共通しない画素位置の輝度成分Lu2,1,Lu2,4を含む4個のフィルタタップの値を1次元フィルタでフィルタリングすることにより生成され得る。図中のフィルタタップの丸印の中に示されている数字は、各フィルタタップに乗算されるフィルタ係数である。 FIG. 8A is an explanatory diagram for describing a first method of downsampling of luminance components according to the present embodiment. In the upper left of FIG. 8A, the color difference component Cr 1,1 at the pixel position (1,1) is shown. The predicted value of the color difference component Cr 1,1 is calculated by substituting the luminance component input value IL 1,1 into the prediction function. Luminance component of the input values IL 1, 1 of the luminance component, the luminance component Lu 2, 2 of the pixel positions in common with the color difference components Cr 1, 1, pixel position not common and Lu 2,3 and chrominance components Cr 1, 1 It can be generated by filtering the values of four filter taps including Lu 2,1 and Lu 2,4 with a one-dimensional filter. The numbers shown in the circles of the filter taps in the figure are filter coefficients that are multiplied by each filter tap.

図8Bは、本実施形態に係る輝度成分のダウンサンプリングの第2の手法について説明するための説明図である。図8Bの例では、フィルタタップは、6個に拡張されている。輝度成分の入力値IL1,1は、色差成分Cr1,1と共通する画素位置の輝度成分Lu2,2,Lu2,3及び色差成分Cr1,1とは共通しない画素位置の輝度成分Lu2,0,Lu2,1,Lu2,4,Lu2,5を含む6個のフィルタタップの値を1次元フィルタでフィルタリングすることにより生成され得る。 FIG. 8B is an explanatory diagram for explaining a second method of downsampling of the luminance component according to the present embodiment. In the example of FIG. 8B, the number of filter taps is expanded to six. Luminance component of the input values IL 1, 1 of the luminance component, the luminance component Lu 2, 2 of the pixel positions in common with the color difference components Cr 1, 1, pixel position not common and Lu 2,3 and chrominance components Cr 1, 1 It can be generated by filtering the values of six filter taps including Lu 2,0 , Lu 2,1 , Lu 2,4 , Lu 2,5 with a one-dimensional filter.

このように、輝度成分の入力値を1次元フィルタを用いて生成する構成を採用することで、1ライン分以下の輝度成分の復号画像データのみをメモリに記憶しておくのみでLMモードでの色差成分のイントラ予測が可能となる。なお、1次元フィルタのタップ数及びフィルタ係数の組合せは、図8A及び図8Bに示した例に限定されず、他のいかなる組合せであってもよい。   In this way, by adopting a configuration in which the input value of the luminance component is generated using a one-dimensional filter, only the decoded image data of the luminance component for one line or less is stored in the memory, and the LM mode can be used. Intra prediction of color difference components is possible. Note that the combination of the number of taps and the filter coefficient of the one-dimensional filter is not limited to the example illustrated in FIGS. 8A and 8B, and any other combination may be used.

図2に戻り、イントラ予測部40の構成の説明を継続する。   Returning to FIG. 2, the description of the configuration of the intra prediction unit 40 is continued.

係数算出部42、輝度成分メモリ43及びフィルタ44は、上述したような1次元フィルタを用いたLMモードの実現のために設けられる。   The coefficient calculation unit 42, the luminance component memory 43, and the filter 44 are provided for realizing the LM mode using the one-dimensional filter as described above.

係数算出部42は、LMモードにおいて予測部45により使用される予測関数の係数を、予測対象の画素が属するPUの周辺の画素、即ち参照画素を参照して算出する。式(1)に示した予測関数の係数αは、次の式(2)に従って算出される。また、係数βは、次の式(3)に従って算出される。   The coefficient calculation unit 42 calculates the coefficient of the prediction function used by the prediction unit 45 in the LM mode with reference to pixels around the PU to which the prediction target pixel belongs, that is, reference pixels. The coefficient α of the prediction function shown in the equation (1) is calculated according to the following equation (2). The coefficient β is calculated according to the following equation (3).

Figure 2013110502
Figure 2013110502

式(2)及び式(3)において、Iは参照画素数を表す。例えば、色差成分のブロックサイズが8×8画素であって、左の8つの参照画素及び上の8つの参照画素が共に利用可能であれば、I=8+8=16である。   In Expressions (2) and (3), I represents the number of reference pixels. For example, if the block size of the color difference component is 8 × 8 pixels and the left eight reference pixels and the upper eight reference pixels are both available, I = 8 + 8 = 16.

輝度成分メモリ43には、予測誤差データを用いて再構築される輝度成分の値を含む復号画像データが、ライン単位で加算部23から入力される。ここでのラインは、逆直交変換部22において水平方向及び垂直方向のIDCTのうち後に実行される方向に沿ったラインであり、本実施形態ではブロックの列に相当する。輝度成分メモリ43は、かかるライン単位の輝度成分の復号画像データを一時的に記憶する。   Decoded image data including luminance component values reconstructed using the prediction error data is input from the adding unit 23 to the luminance component memory 43 in units of lines. The line here is a line along a direction to be executed later in the IDCT in the horizontal direction and the vertical direction in the inverse orthogonal transform unit 22, and corresponds to a column of blocks in the present embodiment. The luminance component memory 43 temporarily stores the decoded image data of the luminance component in units of lines.

フィルタ44は、予測制御部41による制御の下、輝度成分メモリ43から図8A又は図8Bに例示したようなフィルタタップを抽出する。そして、フィルタ44は、抽出したフィルタタップの値をフィルタリングすることにより、色差成分の値を予測するための予測関数への入力値(例えば、図8A及び図8Bに例示した入力値IL1,1)を生成する。フィルタ44は、このように各画素位置(x,y)の入力値を順次生成し、生成した入力値を予測部45へ出力する。 The filter 44 extracts filter taps as illustrated in FIG. 8A or FIG. 8B from the luminance component memory 43 under the control of the prediction control unit 41. Then, the filter 44 filters the extracted filter tap value to input an input value to the prediction function for predicting the value of the color difference component (for example, the input value IL 1,1 illustrated in FIGS. 8A and 8B). ) Is generated. The filter 44 sequentially generates the input value of each pixel position (x, y) in this way, and outputs the generated input value to the prediction unit 45.

予測制御部41は、各色差成分と共通する画素位置の輝度成分について最適な予測モードとして選択されたイントラ予測の予測方向に応じて、フィルタ44のフィルタタップ数を切り替えてもよい。より具体的には、第1の例において、予測制御部41は、上記予測方向とフィルタタップに沿った方向(以下、タップ方向という)との間の角度がより小さい場合に、フィルタタップ数をより大きい数に設定し得る。また、第2の例において、予測制御部41は、上記予測方向がタップ方向に重なる場合にはフィルタタップ数を第1の数に設定し、上記予測方向がタップ方向に重ならない場合にはフィルタタップ数を第1の数よりも小さい第2の数に設定し得る。   The prediction control unit 41 may switch the number of filter taps of the filter 44 according to the prediction direction of the intra prediction selected as the optimal prediction mode for the luminance component at the pixel position common to each color difference component. More specifically, in the first example, the prediction control unit 41 determines the number of filter taps when the angle between the prediction direction and the direction along the filter tap (hereinafter referred to as tap direction) is smaller. It can be set to a larger number. In the second example, the prediction control unit 41 sets the number of filter taps to the first number when the prediction direction overlaps with the tap direction, and filters when the prediction direction does not overlap with the tap direction. The number of taps may be set to a second number that is smaller than the first number.

図9Aは、輝度成分の予測方向の角度に応じたフィルタタップ数の切り替えの第1の例について説明するための説明図である。ここでは、フィルタタップ数を切り替えるための角度閾値として、閾値Th1=45[度]が定義されているものとする。図9Aを参照すると、画素P1についての7種類の予測方向D1〜D7が例示されている。予測方向D2、D5及びD6の水平方向に対してなす角度は、45度であり、閾値Th1に等しい。予測方向D1及びD7の水平方向に対してなす角度は、閾値Th1を上回る。予測方向D3及びD4の水平方向に対してなす角度は、閾値Th1を下回る。この場合、例えば、予測制御部41は、予測方向D1、D2、D5、D6及びD7についてはフィルタタップ数を6個(又は4個)、予測方向D3及びD4についてはフィルタタップ数を4個(又は2個)に設定し得る。なお、ここでは、2種類のフィルタタップ数の候補の間でフィルタタップ数が切り替えられる例を説明した。しかしながら、かかる例に限定されず、2つ以上の角度閾値を用いて3種類以上のフィルタップ数の候補の間でフィルタタップ数が切り替えられてもよい。例えば、2つの角度閾値Th1=45[度]、Th2=67.5[度]を用いて、2個、4個及び6個の間でフィルタタップ数が切り替えられてもよい。   FIG. 9A is an explanatory diagram for describing a first example of switching the number of filter taps according to the angle of the prediction direction of the luminance component. Here, a threshold Th1 = 45 [degrees] is defined as an angle threshold for switching the number of filter taps. Referring to FIG. 9A, seven types of prediction directions D1 to D7 for the pixel P1 are illustrated. The angle formed with respect to the horizontal direction of the prediction directions D2, D5, and D6 is 45 degrees and is equal to the threshold value Th1. The angle formed with respect to the horizontal direction of the prediction directions D1 and D7 exceeds the threshold value Th1. The angle formed with respect to the horizontal direction of the prediction directions D3 and D4 is less than the threshold value Th1. In this case, for example, the prediction control unit 41 has six (or four) filter taps for the prediction directions D1, D2, D5, D6, and D7, and four filter taps for the prediction directions D3 and D4 ( Or two). Here, an example has been described in which the number of filter taps is switched between two types of filter tap number candidates. However, the present invention is not limited to this example, and the number of filter taps may be switched between three or more types of filter number candidates using two or more angle thresholds. For example, the number of filter taps may be switched between 2, 4, and 6 using two angle thresholds Th1 = 45 [degrees] and Th2 = 67.5 [degrees].

図9Bは、輝度成分の予測方向の角度に応じたフィルタタップ数の切り替えの第2の例について説明するための説明図である。ここでは、予測方向の水平方向に対してなす角度が90[度]であるか否かに応じて、フィルタタップ数が切り替えられるものとする。図9Bを参照すると、画素P1についての3種類の予測方向D0〜D2が例示されている。予測方向D0の水平方向に対してなす角度は90度である。この場合、予測制御部41は、画素P1のためのフィルタ44のフィルタタップ数を6個(又は4個)に設定し得る。一方、予測方向D1及びD2のように、上記角度が90度でない場合には、予測制御部41は、画素P1のためのフィルタ44のフィルタタップ数を4個(又は2個)に設定し得る。   FIG. 9B is an explanatory diagram for describing a second example of switching the number of filter taps according to the angle of the prediction direction of the luminance component. Here, it is assumed that the number of filter taps is switched depending on whether or not the angle formed with respect to the horizontal direction of the prediction direction is 90 degrees. Referring to FIG. 9B, three types of prediction directions D0 to D2 for the pixel P1 are illustrated. The angle formed with respect to the horizontal direction of the prediction direction D0 is 90 degrees. In this case, the prediction control unit 41 can set the number of filter taps of the filter 44 for the pixel P1 to 6 (or 4). On the other hand, when the angle is not 90 degrees as in the prediction directions D1 and D2, the prediction control unit 41 can set the number of filter taps of the filter 44 for the pixel P1 to four (or two). .

このような適応的なフィルタタップ数の切り替えによって、タップ方向に沿った画像の相関が強い場合にはタップ長を長くし、タップ方向に沿った画像の相関が弱い場合にはタップ長を短くすることができる。それにより、LMモードの予測関数への入力値を画像の相関に応じて変化させてノイズに対するロバスト性を高めることで、予測の精度を高めることができる。   By adaptively switching the number of filter taps, the tap length is increased when the correlation of the image along the tap direction is strong, and the tap length is shortened when the correlation of the image along the tap direction is weak. be able to. Thereby, the accuracy of prediction can be improved by changing the input value to the prediction function of the LM mode in accordance with the correlation of the images and enhancing the robustness against noise.

なお、フィルタ44のフィルタ係数は、動き探索部30における動き補償において使用される補間フィルタと同じフィルタ係数であってもよい。そのようにフィルタ係数を共通化させることで、フィルタ係数を記憶するために要するメモリリソースの量を削減することができる。   The filter coefficient of the filter 44 may be the same filter coefficient as the interpolation filter used in motion compensation in the motion search unit 30. By sharing the filter coefficient in this way, it is possible to reduce the amount of memory resources required to store the filter coefficient.

予測部45は、予測制御部41による制御の下、予測対象の画素の輝度成分の画素値及び色差成分の画素値を、様々な予測モードの候補に従って予測する。輝度成分の予測モードの候補は、上述した角度イントラ予測法における様々な予測方向に関連付けられる予測モードを含み得る。色差成分の予測モードの候補は、上述したLMモードを含む。LMモードにおいて、予測部45は、フィルタ44により生成される輝度成分の入力値を、係数算出部42により算出される係数を有する予測関数に代入することにより、各色差成分の値を予測する。他の予測モードにおける予測部45によるイントラ予測は、既存の手法と同様に行われてよい。予測部45は、予測モードごとに、予測の結果として生成される予測画像データをモード判定部46へ出力する。   The prediction unit 45 predicts the pixel value of the luminance component and the pixel value of the color difference component of the pixel to be predicted according to various prediction mode candidates under the control of the prediction control unit 41. The luminance component prediction mode candidates may include prediction modes associated with various prediction directions in the angle intra prediction method described above. The color difference component prediction mode candidates include the LM mode described above. In the LM mode, the prediction unit 45 predicts the value of each color difference component by substituting the input value of the luminance component generated by the filter 44 into a prediction function having a coefficient calculated by the coefficient calculation unit 42. Intra prediction by the prediction unit 45 in other prediction modes may be performed in the same manner as an existing method. The prediction unit 45 outputs predicted image data generated as a result of prediction to the mode determination unit 46 for each prediction mode.

モード判定部46は、並び替えバッファ12から入力される原画像データと予測部45から入力される予測画像データとに基づいて、各予測モードのコスト関数値を算出する。そして、モード判定部46は、算出したコスト関数値に基づき、各色成分についての最適な予測モードを決定する。そして、モード判定部46は、決定した最適な予測モードを表す予測モード情報を含むイントラ予測に関する情報、コスト関数値、並びに各色成分の予測画素値を含む予測画像データを、セレクタ27へ出力する。   The mode determination unit 46 calculates a cost function value for each prediction mode based on the original image data input from the rearrangement buffer 12 and the predicted image data input from the prediction unit 45. Then, the mode determination unit 46 determines an optimal prediction mode for each color component based on the calculated cost function value. Then, the mode determination unit 46 outputs information related to intra prediction including prediction mode information indicating the determined optimal prediction mode, cost function values, and predicted image data including predicted pixel values of each color component to the selector 27.

<2.一実施形態に係る符号化時の処理の流れ>
次に、図10〜図12を用いて、符号化時の処理の流れを説明する。
<2. Flow of processing during encoding according to one embodiment>
Next, the flow of processing during encoding will be described with reference to FIGS.

[2−1.イントラ予測処理]
図10は、図2に例示した構成を有するイントラ予測部40による符号化時のイントラ予測処理の流れの一例を示すフローチャートである。図10に示したイントラ予測処理は、画像内の各ブロックを処理対象として実行される。
[2-1. Intra prediction process]
FIG. 10 is a flowchart illustrating an example of the flow of an intra prediction process at the time of encoding by the intra prediction unit 40 having the configuration illustrated in FIG. The intra prediction process shown in FIG. 10 is executed for each block in the image as a processing target.

まず、予測制御部41は、処理対象の色成分が輝度成分であるか否かを判定する(ステップS110)。ここで、処理対象の色成分が輝度成分である場合には、処理はステップS120へ進む。一方、処理対象の色成分が色差成分である場合には、処理はステップS150へ進む。   First, the prediction control unit 41 determines whether or not the color component to be processed is a luminance component (step S110). If the color component to be processed is a luminance component, the process proceeds to step S120. On the other hand, if the color component to be processed is a color difference component, the process proceeds to step S150.

ステップS120において、予測制御部41は、複数の予測モードの候補に従って予測部45に輝度成分の予測画素値を生成させ、モード判定部46に輝度成分の最適な予測モードを判定させる(ステップS120)。その結果、各PUについての輝度成分の最適な予測モードが決定され、予測画像データが生成される。次に、予測制御部41は、輝度成分の予測画像データと逆直交変換部22から出力される予測誤差データとの和である復号画像データを、ライン単位で輝度成分メモリ43に記憶させる(ステップS130)。   In step S120, the prediction control unit 41 causes the prediction unit 45 to generate a prediction pixel value of the luminance component according to a plurality of prediction mode candidates, and causes the mode determination unit 46 to determine the optimal prediction mode of the luminance component (step S120). . As a result, the optimal prediction mode of the luminance component for each PU is determined, and predicted image data is generated. Next, the prediction control unit 41 stores decoded image data, which is the sum of the predicted image data of the luminance component and the prediction error data output from the inverse orthogonal transform unit 22, in the luminance component memory 43 in units of lines (step) S130).

このように輝度成分についてのイントラ予測が終了した後、同じブロックの色差成分についてのイントラ予測が行われる。   Thus, after the intra prediction about a luminance component is complete | finished, the intra prediction about the color difference component of the same block is performed.

ステップS150において、予測制御部41は、予測モードの候補の1つであるLMモードでの予測処理を予測部45に実行させる(ステップS150)。ここでの予測部45によるLMモード予測処理について、後にさらに説明する。次に、予測制御部41は、LMモード以外の複数の予測モードの候補に従って予測部45に色差成分の予測画素値を生成させる(ステップS170)。そして、予測制御部41は、モード判定部46に色差成分の最適な予測モードを判定させる(ステップS180)。その結果、各PUについての色差成分の最適な予測モードが決定される。   In step S150, the prediction control unit 41 causes the prediction unit 45 to perform prediction processing in the LM mode, which is one of prediction mode candidates (step S150). The LM mode prediction process by the prediction unit 45 here will be further described later. Next, the prediction control unit 41 causes the prediction unit 45 to generate a prediction pixel value of the color difference component according to a plurality of prediction mode candidates other than the LM mode (step S170). And the prediction control part 41 makes the mode determination part 46 determine the optimal prediction mode of a color difference component (step S180). As a result, the optimum prediction mode of the color difference component for each PU is determined.

そして、処理対象ブロックの全ての色成分についてイントラ予測が行われると、図10に示したイントラ予測処理は終了する(ステップS190)。   When the intra prediction is performed for all the color components of the processing target block, the intra prediction process illustrated in FIG. 10 ends (step S190).

[2−2.LMモード予測処理]
図11は、図10に示したLMモード予測処理の詳細な流れの一例を示すフローチャートである。図11に示したLMモード予測処理は、各ブロック内のラインごとに実行される。
[2-2. LM mode prediction process]
FIG. 11 is a flowchart illustrating an example of a detailed flow of the LM mode prediction process illustrated in FIG. 10. The LM mode prediction process shown in FIG. 11 is executed for each line in each block.

図11を参照すると、まず、係数算出部42は、LMモードにおいて予測部45により使用される予測関数の係数α、βを、フレームメモリ25から入力される参照画像データに含まれる参照画素の値に基づいて算出する(ステップS151)。   Referring to FIG. 11, first, the coefficient calculation unit 42 uses the coefficients α and β of the prediction function used by the prediction unit 45 in the LM mode as the reference pixel values included in the reference image data input from the frame memory 25. (Step S151).

また、フィルタ44は、輝度成分メモリ43により記憶されている複数の輝度成分の値を用いてダウンサンプリング処理を実行し、予測関数への入力値を生成する(ステップS152)。ここでのフィルタ44によるダウンサンプリング処理について、後にさらに説明する。   Further, the filter 44 performs a downsampling process using the values of the plurality of luminance components stored in the luminance component memory 43, and generates an input value to the prediction function (step S152). The downsampling process by the filter 44 here is further demonstrated later.

次に、予測部45は、ダウンサンプリング処理の結果として生成された輝度成分の入力値を、係数算出部42により算出された係数を有する予測関数に代入することにより、各色差成分の予測値を生成する(ステップS153)。   Next, the predicting unit 45 substitutes the input value of the luminance component generated as a result of the downsampling process into a prediction function having the coefficient calculated by the coefficient calculating unit 42, thereby calculating the predicted value of each color difference component. Generate (step S153).

これらステップS151〜S153の処理は、処理対象のライン内の全ての画素について予測が終了するまで繰り返され得る(ステップS154)。   The processes in steps S151 to S153 can be repeated until prediction is completed for all pixels in the processing target line (step S154).

[2−3.ダウンサンプリング処理]
図12Aは、図11に示したダウンサンプリング処理の詳細な流れの第1の例を示すフローチャートである。第1の例では、フィルタタップ数は固定的に設定される。
[2-3. Downsampling process]
FIG. 12A is a flowchart showing a first example of a detailed flow of the downsampling process shown in FIG. In the first example, the number of filter taps is fixedly set.

図12Aを参照すると、まず、フィルタ44は、輝度成分メモリ43から、図8A又は図8Bに例示したような1次元フィルタのフィルタタップを抽出する(ステップS161)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS162)。   Referring to FIG. 12A, first, the filter 44 extracts a filter tap of a one-dimensional filter as illustrated in FIG. 8A or FIG. 8B from the luminance component memory 43 (step S161). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S162).

図12Bは、図11に示したダウンサンプリング処理の詳細な流れの第2の例を示すフローチャートである。第2の例では、フィルタタップ数は、2つの値の間で適応的に切り替えられる。   FIG. 12B is a flowchart illustrating a second example of a detailed flow of the downsampling process illustrated in FIG. 11. In the second example, the number of filter taps is adaptively switched between two values.

図12Bを参照すると、まず、予測制御部41は、処理対象の色差成分と共通する画素位置の輝度成分について選択されたイントラ予測の予測方向の水平方向に対してなす角度を、所定の閾値と比較する(ステップS160)。ここで、例えば、上記角度が閾値以上である場合には、処理はステップS161へ進む。一方、上記角度が閾値を下回る場合には、処理はステップS164へ進む。   Referring to FIG. 12B, first, the prediction control unit 41 sets an angle formed with respect to the horizontal direction of the prediction direction of intra prediction selected for the luminance component at the pixel position common to the color difference component to be processed as a predetermined threshold value. Compare (step S160). Here, for example, if the angle is equal to or greater than the threshold, the process proceeds to step S161. On the other hand, if the angle is below the threshold, the process proceeds to step S164.

ステップS161において、フィルタ44は、輝度成分メモリ43から、タップ数N1の1次元フィルタのフィルタタップを抽出する(ステップS161)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS162)。   In step S161, the filter 44 extracts filter taps of the one-dimensional filter having the tap number N1 from the luminance component memory 43 (step S161). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S162).

ステップS164において、フィルタ44は、輝度成分メモリ43から、タップ数N2(N2<N1)の1次元フィルタのフィルタタップを抽出する(ステップS164)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS165)。   In step S164, the filter 44 extracts the filter taps of the one-dimensional filter having the tap number N2 (N2 <N1) from the luminance component memory 43 (step S164). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S165).

図12Cは、図11に示したダウンサンプリング処理の詳細な流れの第3の例を示すフローチャートである。第3の例では、フィルタタップ数は、3つの値の間で適応的に切り替えられる。   FIG. 12C is a flowchart illustrating a third example of a detailed flow of the downsampling process illustrated in FIG. 11. In the third example, the number of filter taps is adaptively switched between three values.

図12Cを参照すると、まず、予測制御部41は、処理対象の色差成分と共通する画素位置の輝度成分について選択されたイントラ予測の予測方向の水平方向に対してなす角度を、第1の閾値Th1と比較する(ステップS160)。ここで、例えば、上記角度が第1の閾値Th1以上である場合には、処理はステップS161へ進む。一方、上記角度が第1の閾値Th1を下回る場合には、処理はステップS163へ進む。   Referring to FIG. 12C, first, the prediction control unit 41 sets the angle formed with respect to the horizontal direction of the prediction direction of intra prediction selected for the luminance component at the pixel position common to the color difference component to be processed as the first threshold value. Compare with Th1 (step S160). Here, for example, when the angle is equal to or greater than the first threshold Th1, the process proceeds to step S161. On the other hand, if the angle is less than the first threshold Th1, the process proceeds to step S163.

ステップS161において、フィルタ44は、輝度成分メモリ43から、タップ数N1の1次元フィルタのフィルタタップを抽出する(ステップS161)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS162)。   In step S161, the filter 44 extracts filter taps of the one-dimensional filter having the tap number N1 from the luminance component memory 43 (step S161). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S162).

ステップS163において、予測制御部41は、上記角度を、第2の閾値Th2(Th2<Th1)とさらに比較する(ステップS163)。ここで、例えば、上記角度が第2の閾値Th2以上である場合には、処理はステップS164へ進む。一方、上記角度が第2の閾値Th2を下回る場合には、処理はステップS166へ進む。   In step S163, the prediction control unit 41 further compares the angle with a second threshold Th2 (Th2 <Th1) (step S163). Here, for example, when the angle is equal to or larger than the second threshold Th2, the process proceeds to step S164. On the other hand, if the angle is less than the second threshold Th2, the process proceeds to step S166.

ステップS164において、フィルタ44は、輝度成分メモリ43から、タップ数N2(N2<N1)の1次元フィルタのフィルタタップを抽出する(ステップS164)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS165)。   In step S164, the filter 44 extracts the filter taps of the one-dimensional filter having the tap number N2 (N2 <N1) from the luminance component memory 43 (step S164). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S165).

ステップS166において、フィルタ44は、輝度成分メモリ43から、タップ数N3(N3<N2)の1次元フィルタのフィルタタップを抽出する(ステップS166)。次に、フィルタ44は、抽出したフィルタタップを所定のフィルタ係数でフィルタリングして、予測関数への輝度成分の入力値を生成する(ステップS167)。   In step S166, the filter 44 extracts filter taps of the one-dimensional filter having the tap number N3 (N3 <N2) from the luminance component memory 43 (step S166). Next, the filter 44 filters the extracted filter tap with a predetermined filter coefficient to generate an input value of the luminance component to the prediction function (step S167).

本節で説明したような符号化時の処理によって、LMモードの導入のために設けられる輝度成分メモリ43のメモリサイズを減少させ、画像符号化装置10のメモリリソースを効率的に利用することが可能となる。このようなメモリリソースの節約は、次節以降で説明する画像復号装置60においても達成される。   By the encoding process as described in this section, the memory size of the luminance component memory 43 provided for the introduction of the LM mode can be reduced, and the memory resources of the image encoding device 10 can be efficiently used. It becomes. Such memory resource saving is also achieved in the image decoding device 60 described in the following sections.

<3.一実施形態に係る画像復号装置の構成例>
図13は、一実施形態に係る画像復号装置60の構成の一例を示すブロック図である。図13を参照すると、画像復号装置60は、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、加算部65、デブロックフィルタ66、並び替えバッファ67、D/A(Digital to Analogue)変換部68、フレームメモリ69、セレクタ70及び71、動き補償部80、並びにイントラ予測部90を備える。
<3. Configuration Example of Image Decoding Device According to One Embodiment>
FIG. 13 is a block diagram illustrating an example of the configuration of the image decoding device 60 according to an embodiment. Referring to FIG. 13, the image decoding device 60 includes an accumulation buffer 61, a lossless decoding unit 62, an inverse quantization unit 63, an inverse orthogonal transform unit 64, an addition unit 65, a deblock filter 66, a rearrangement buffer 67, a D / A A (Digital to Analogue) conversion unit 68, a frame memory 69, selectors 70 and 71, a motion compensation unit 80, and an intra prediction unit 90 are provided.

蓄積バッファ61は、伝送路を介して入力される符号化ストリームを記憶媒体を用いて一時的に蓄積する。   The accumulation buffer 61 temporarily accumulates the encoded stream input via the transmission path using a storage medium.

可逆復号部62は、蓄積バッファ61から入力される符号化ストリームを、符号化の際に使用された符号化方式に従って復号する。また、可逆復号部62は、符号化ストリームのヘッダ領域に多重化されている情報を復号する。符号化ストリームのヘッダ領域に多重化されている情報とは、上述したインター予測に関する情報及びイントラ予測に関する情報を含み得る。可逆復号部62は、インター予測に関する情報を動き補償部80へ出力する。また、可逆復号部62は、イントラ予測に関する情報をイントラ予測部90へ出力する。   The lossless decoding unit 62 decodes the encoded stream input from the accumulation buffer 61 according to the encoding method used at the time of encoding. In addition, the lossless decoding unit 62 decodes information multiplexed in the header area of the encoded stream. The information multiplexed in the header area of the encoded stream may include the above-described information related to inter prediction and information related to intra prediction. The lossless decoding unit 62 outputs information related to inter prediction to the motion compensation unit 80. Further, the lossless decoding unit 62 outputs information related to intra prediction to the intra prediction unit 90.

逆量子化部63は、可逆復号部62による復号後の量子化データを逆量子化する。逆直交変換部64は、符号化の際に使用された直交変換方式に従い、逆量子化部63から入力される変換係数データについて逆直交変換を行うことにより、予測誤差データを復元する。逆直交変換部64による逆直交変換は、TUごとの2次元のIDCTである。2次元のIDCTは、実質的には、垂直方向の1次元のIDCT及び水平方向の1次元のIDCTを、直交変換とは逆の順序で逐次的に実行する手法で、ラインごとに行われ得る。本実施形態では、水平方向の1次元のIDCTが先に行われるものとする。そして、逆直交変換部64は、生成した予測誤差データを加算部65へ出力する。   The inverse quantization unit 63 inversely quantizes the quantized data decoded by the lossless decoding unit 62. The inverse orthogonal transform unit 64 restores the prediction error data by performing inverse orthogonal transform on the transform coefficient data input from the inverse quantization unit 63 according to the orthogonal transform method used at the time of encoding. The inverse orthogonal transform by the inverse orthogonal transform unit 64 is a two-dimensional IDCT for each TU. The two-dimensional IDCT can be substantially performed for each line by a method of sequentially executing the one-dimensional IDCT in the vertical direction and the one-dimensional IDCT in the horizontal direction in the reverse order of the orthogonal transformation. . In the present embodiment, it is assumed that horizontal one-dimensional IDCT is performed first. Then, the inverse orthogonal transform unit 64 outputs the generated prediction error data to the addition unit 65.

加算部65は、逆直交変換部64から入力される予測誤差データと、セレクタ71から入力される予測画像データとを加算することにより、復号画像データを再構築する。そして、加算部65は、再構築した復号画像データをデブロックフィルタ66及びフレームメモリ69へ出力する。また、加算部65は、LMモードでの色差成分の予測の際に用いられる輝度成分の復号画像データをイントラ予測部90へ出力する。   The adding unit 65 reconstructs decoded image data by adding the prediction error data input from the inverse orthogonal transform unit 64 and the predicted image data input from the selector 71. Then, the adding unit 65 outputs the reconstructed decoded image data to the deblock filter 66 and the frame memory 69. Further, the adding unit 65 outputs the decoded image data of the luminance component used when predicting the color difference component in the LM mode to the intra prediction unit 90.

デブロックフィルタ66は、加算部65から入力される復号画像データをフィルタリングすることによりブロック歪みを除去し、フィルタリング後の復号画像データを並び替えバッファ67及びフレームメモリ69へ出力する。   The deblock filter 66 removes block distortion by filtering the decoded image data input from the adder 65 and outputs the decoded image data after filtering to the rearrangement buffer 67 and the frame memory 69.

並び替えバッファ67は、デブロックフィルタ66から入力される画像を並び替えることにより、時系列の一連の画像データを生成する。そして、並び替えバッファ67は、生成した画像データをD/A変換部68へ出力する。   The rearrangement buffer 67 generates a series of time-series image data by rearranging the images input from the deblocking filter 66. Then, the rearrangement buffer 67 outputs the generated image data to the D / A conversion unit 68.

D/A変換部68は、並び替えバッファ67から入力されるデジタル形式の画像データをアナログ形式の画像信号に変換する。そして、D/A変換部68は、例えば、画像復号装置60と接続されるディスプレイ(図示せず)にアナログ画像信号を出力することにより、画像を表示させる。   The D / A converter 68 converts the digital image data input from the rearrangement buffer 67 into an analog image signal. Then, the D / A conversion unit 68 displays an image by outputting an analog image signal to a display (not shown) connected to the image decoding device 60, for example.

フレームメモリ69は、加算部65から入力されるフィルタリング前の復号画像データ、及びデブロックフィルタ66から入力されるフィルタリング後の復号画像データを記憶媒体を用いて記憶する。   The frame memory 69 stores the decoded image data before filtering input from the adding unit 65 and the decoded image data after filtering input from the deblocking filter 66 using a storage medium.

セレクタ70は、可逆復号部62により取得されるモード情報に応じて、画像内のブロックごとに、フレームメモリ69からの画像データの出力先を動き補償部80とイントラ予測部90との間で切り替える。例えば、セレクタ70は、インター予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング後の復号画像データを参照画像データとして動き補償部80へ出力する。また、セレクタ70は、イントラ予測モードが指定された場合には、フレームメモリ69から供給されるフィルタリング前の復号画像データを参照画像データとしてイントラ予測部90へ出力する。   The selector 70 switches the output destination of the image data from the frame memory 69 between the motion compensation unit 80 and the intra prediction unit 90 for each block in the image according to the mode information acquired by the lossless decoding unit 62. . For example, when the inter prediction mode is designated, the selector 70 outputs the decoded image data after filtering supplied from the frame memory 69 to the motion compensation unit 80 as reference image data. Further, when the intra prediction mode is designated, the selector 70 outputs the decoded image data before filtering supplied from the frame memory 69 to the intra prediction unit 90 as reference image data.

セレクタ71は、可逆復号部62により取得されるモード情報に応じて、加算部65へ供給すべき予測画像データの出力元を動き補償部80とイントラ予測部90との間で切り替える。例えば、セレクタ71は、インター予測モードが指定された場合には、動き補償部80から出力される予測画像データを加算部65へ供給する。また、セレクタ71は、イントラ予測モードが指定された場合には、イントラ予測部90から出力される予測画像データを加算部65へ供給する。   The selector 71 switches the output source of the predicted image data to be supplied to the addition unit 65 between the motion compensation unit 80 and the intra prediction unit 90 according to the mode information acquired by the lossless decoding unit 62. For example, when the inter prediction mode is designated, the selector 71 supplies the predicted image data output from the motion compensation unit 80 to the adding unit 65. In addition, when the intra prediction mode is designated, the selector 71 supplies the predicted image data output from the intra prediction unit 90 to the adding unit 65.

動き補償部80は、可逆復号部62から入力されるインター予測に関する情報とフレームメモリ69からの参照画像データとに基づいて動き補償処理を行い、予測画像データを生成する。そして、動き補償部80は、生成した予測画像データをセレクタ71へ出力する。   The motion compensation unit 80 performs motion compensation processing based on the inter prediction information input from the lossless decoding unit 62 and the reference image data from the frame memory 69 to generate predicted image data. Then, the motion compensation unit 80 outputs the generated predicted image data to the selector 71.

イントラ予測部90は、可逆復号部62から入力されるイントラ予測に関する情報とフレームメモリ69からの参照画像データとに基づいてイントラ予測処理を行い、予測画像データを生成する。そして、イントラ予測部90は、生成した予測画像データをセレクタ71へ出力する。このようなイントラ予測部90によるイントラ予測処理について、後により詳細に説明する。   The intra prediction unit 90 performs intra prediction processing based on the information related to intra prediction input from the lossless decoding unit 62 and the reference image data from the frame memory 69, and generates predicted image data. Then, the intra prediction unit 90 outputs the generated predicted image data to the selector 71. Such intra prediction processing by the intra prediction unit 90 will be described in detail later.

[3−2.イントラ予測部の構成例]
図14は、図13に示した画像復号装置60のイントラ予測部90の詳細な構成の一例を示すブロック図である。図14を参照すると、イントラ予測部90は、予測制御部91、係数算出部92、輝度成分メモリ93、フィルタ94及び予測部95を有する。
[3-2. Configuration example of intra prediction unit]
FIG. 14 is a block diagram illustrating an example of a detailed configuration of the intra prediction unit 90 of the image decoding device 60 illustrated in FIG. 13. Referring to FIG. 14, the intra prediction unit 90 includes a prediction control unit 91, a coefficient calculation unit 92, a luminance component memory 93, a filter 94, and a prediction unit 95.

予測制御部91は、可逆復号部62から入力されるイントラ予測に関する情報に従って、イントラ予測部90におけるイントラ予測処理を制御する。例えば、予測制御部91は、CUごとに、輝度成分(Y)についてのイントラ予測処理及び色差成分(Cb、Cr)についてのイントラ予測処理を実行する。輝度成分についてのイントラ予測処理において、予測制御部91は、指定される輝度成分の予測モードに従って、予測部95に各輝度成分の予測画素値を生成させる。輝度成分についての予測モードは、図3を用いて説明した角度イントラ予測法における様々な予測方向に関連付けられる予測モードのいずれかであってよい。また、予測制御部91は、指定される色差成分の予測モードに従って、予測部95に各色差成分の予測画素値を生成させる。色差成分についての予測モードの候補は、上述したLMモードを含む。   The prediction control unit 91 controls the intra prediction process in the intra prediction unit 90 according to the information related to intra prediction input from the lossless decoding unit 62. For example, the prediction control unit 91 executes an intra prediction process for the luminance component (Y) and an intra prediction process for the color difference components (Cb, Cr) for each CU. In the intra prediction process for the luminance component, the prediction control unit 91 causes the prediction unit 95 to generate a predicted pixel value of each luminance component in accordance with the designated luminance component prediction mode. The prediction mode for the luminance component may be any one of prediction modes associated with various prediction directions in the angle intra prediction method described with reference to FIG. Further, the prediction control unit 91 causes the prediction unit 95 to generate a prediction pixel value of each color difference component in accordance with the designated color difference component prediction mode. The prediction mode candidates for the color difference component include the LM mode described above.

係数算出部92、輝度成分メモリ93及びフィルタ94は、上述したような1次元フィルタを用いたLMモードの実現のために設けられる。   The coefficient calculation unit 92, the luminance component memory 93, and the filter 94 are provided for realizing the LM mode using the one-dimensional filter as described above.

係数算出部92は、予測対象の画素が属するPUの周辺の参照画素を参照して、LMモードにおいて予測部95により使用される予測関数の係数α、βを、上述した式(2)及び式(3)に従って算出する。   The coefficient calculation unit 92 refers to the reference pixels around the PU to which the pixel to be predicted belongs, and calculates the coefficients α and β of the prediction function used by the prediction unit 95 in the LM mode using the above-described equations (2) and (2). Calculate according to (3).

輝度成分メモリ93には、予測誤差データを用いて再構築される輝度成分の値を含む復号画像データが、ライン単位で加算部65から入力される。ここでのラインは、逆直交変換部22において水平方向及び垂直方向のIDCTのうち後に実行される方向に沿ったラインであり、本実施形態ではブロックの列に相当する。輝度成分メモリ93は、かかるライン単位の輝度成分の復号画像データを一時的に記憶する。   Decoded image data including the value of the luminance component reconstructed using the prediction error data is input from the adding unit 65 to the luminance component memory 93 in units of lines. The line here is a line along a direction to be executed later in the IDCT in the horizontal direction and the vertical direction in the inverse orthogonal transform unit 22, and corresponds to a column of blocks in the present embodiment. The luminance component memory 93 temporarily stores the decoded image data of the luminance component in units of lines.

フィルタ94は、予測制御部91による制御の下、輝度成分メモリ93から図8A又は図8Bに例示したようなフィルタタップを抽出する。そして、フィルタ94は、抽出したフィルタタップの値をフィルタリングすることにより、色差成分の値を予測するための予測関数への入力値を生成し、生成した入力値を予測部95へ出力する。   The filter 94 extracts filter taps as illustrated in FIG. 8A or 8B from the luminance component memory 93 under the control of the prediction control unit 91. Then, the filter 94 filters the extracted filter tap value to generate an input value to a prediction function for predicting the value of the color difference component, and outputs the generated input value to the prediction unit 95.

予測制御部91は、各色差成分と共通する画素位置の輝度成分について指定された予測モードにより示される予測方向に応じて、フィルタ94のフィルタタップ数を切り替えてもよい。より具体的には、第1の例において、予測制御部91は、上記予測方向とタップ方向との間の角度がより小さい場合に、フィルタタップ数をより大きい数に設定し得る。また、第2の例において、予測制御部91は、上記予測方向がタップ方向に重なる場合にはフィルタタップ数を第1の数に設定し、上記予測方向がタップ方向に重ならない場合にはフィルタタップ数を第1の数よりも小さい第2の数に設定し得る。それにより、タップ方向に沿った画像の相関が強い場合にはタップ長を長くし、タップ方向に沿った画像の相関が弱い場合にはタップ長を短くすることができる。なお、フィルタ94のフィルタ係数は、動き補償部80における動き補償において使用される補間フィルタと同じフィルタ係数であってもよい。   The prediction control unit 91 may switch the number of filter taps of the filter 94 according to the prediction direction indicated by the prediction mode specified for the luminance component at the pixel position common to each color difference component. More specifically, in the first example, the prediction control unit 91 may set the number of filter taps to a larger number when the angle between the prediction direction and the tap direction is smaller. Further, in the second example, the prediction control unit 91 sets the number of filter taps to the first number when the prediction direction overlaps the tap direction, and filters when the prediction direction does not overlap the tap direction. The number of taps may be set to a second number that is smaller than the first number. Thereby, when the correlation of the image along the tap direction is strong, the tap length can be lengthened, and when the correlation of the image along the tap direction is weak, the tap length can be shortened. Note that the filter coefficient of the filter 94 may be the same filter coefficient as the interpolation filter used in the motion compensation in the motion compensation unit 80.

予測部95は、予測制御部91による制御の下、予測対象の画素の輝度成分の画素値及び色差成分の画素値を、指定された予測モードに従って予測する。色差成分の予測モードの候補は、上述したLMモードを含む。LMモードにおいて、予測部95は、フィルタ94により生成される輝度成分の入力値を、係数算出部92により算出される係数を有する予測関数に代入することにより、各色差成分の値を予測する。他の予測モードにおける予測部95によるイントラ予測は、既存の手法と同様に行われてよい。予測部95は、予測の結果として生成される予測画像データを加算部65へ出力する。   Under the control of the prediction control unit 91, the prediction unit 95 predicts the pixel value of the luminance component and the pixel value of the color difference component of the prediction target pixel according to the designated prediction mode. The color difference component prediction mode candidates include the LM mode described above. In the LM mode, the prediction unit 95 predicts the value of each color difference component by substituting the input value of the luminance component generated by the filter 94 into a prediction function having a coefficient calculated by the coefficient calculation unit 92. Intra prediction by the prediction unit 95 in other prediction modes may be performed in the same manner as the existing method. The prediction unit 95 outputs predicted image data generated as a result of prediction to the addition unit 65.

<4.一実施形態に係る復号時の処理の流れ>
次に、図15を用いて、復号時の処理の流れを説明する。
<4. Flow of processing at the time of decoding according to an embodiment>
Next, the flow of processing during decoding will be described with reference to FIG.

図15は、図14に例示した構成を有するイントラ予測部90による復号時のイントラ予測処理の流れの一例を示すフローチャートである。図15に示したイントラ予測処理は、画像内の各ブロックを処理対象として実行される。   FIG. 15 is a flowchart illustrating an example of the flow of intra prediction processing at the time of decoding by the intra prediction unit 90 having the configuration illustrated in FIG. 14. The intra prediction process shown in FIG. 15 is executed for each block in the image as a processing target.

まず、予測制御部91は、処理対象の色成分が輝度成分であるか否かを判定する(ステップS210)。ここで、処理対象の色成分が輝度成分である場合には、処理はステップS220へ進む。一方、処理対象の色成分が色差成分である場合には、処理はステップS250へ進む。   First, the prediction control unit 91 determines whether or not the color component to be processed is a luminance component (step S210). If the color component to be processed is a luminance component, the process proceeds to step S220. On the other hand, if the color component to be processed is a color difference component, the process proceeds to step S250.

ステップS220において、予測制御部91は、指定された予測モードに従って予測部95に輝度成分のイントラ予測を実行させ、予測画像データを生成させる(ステップS220)。次に、予測制御部91は、輝度成分の予測画像データと逆直交変換部64から出力される予測誤差データとの和である復号画像データを、ライン単位で輝度成分メモリ93に記憶させる(ステップS230)。   In step S220, the prediction control unit 91 causes the prediction unit 95 to perform intra prediction of the luminance component according to the designated prediction mode, and generate predicted image data (step S220). Next, the prediction control unit 91 stores decoded image data that is the sum of the predicted image data of the luminance component and the prediction error data output from the inverse orthogonal transform unit 64 in the luminance component memory 93 in units of lines (step) S230).

このように輝度成分についてのイントラ予測が終了した後、同じブロックの色差成分についてのイントラ予測が行われる。   Thus, after the intra prediction about a luminance component is complete | finished, the intra prediction about the color difference component of the same block is performed.

ステップS250において、予測制御部91は、色差成分についてLMモードが指定されているか否かを判定する(ステップS250)。ここで、LMモードが指定されている場合には、予測制御部91は、LMモードに従って予測部95に色差成分のイントラ予測を実行させる(ステップS260)。ここでの予測部95によるLMモード予測処理は、図11〜図12Cを用いて説明した符号化時の処理と同様であってよい。また、LMモード以外の予測モードが指定されている場合には、予測制御部91は、指定された予測モードに従って予測部95に色差成分のイントラ予測を実行させる(ステップS270)。その結果、色差成分の予測画像データが生成される。   In step S250, the prediction control unit 91 determines whether or not the LM mode is specified for the color difference component (step S250). Here, when the LM mode is designated, the prediction control unit 91 causes the prediction unit 95 to perform intra prediction of the color difference component according to the LM mode (step S260). The LM mode prediction processing by the prediction unit 95 here may be the same as the processing at the time of encoding described with reference to FIGS. When a prediction mode other than the LM mode is designated, the prediction control unit 91 causes the prediction unit 95 to perform intra prediction of the color difference component according to the designated prediction mode (step S270). As a result, predicted image data of the color difference component is generated.

そして、処理対象ブロックの全ての色成分についてイントラ予測が行われると、図15に示したイントラ予測処理は終了する(ステップS280)。   When the intra prediction is performed for all the color components of the processing target block, the intra prediction process illustrated in FIG. 15 ends (step S280).

<5.変形例>
[5−1.第1の変形例]
上述した実施形態では、輝度成分の復号画像データがライン単位で一時的にメモリに格納される。そして、LMモードでのイントラ予測の際に、メモリから読み出されるフィルタタップを用いて、輝度成分のダウンサンプリングが実行される。これに対し、本項で説明する第1の変形例のように、輝度成分のダウンサンプリングをより早い段階で行い、ダウンサンプリングの結果として得られる予測関数への入力値をメモリに格納しておくことも可能である。
<5. Modification>
[5-1. First Modification]
In the embodiment described above, the decoded image data of the luminance component is temporarily stored in the memory in units of lines. Then, at the time of intra prediction in the LM mode, downsampling of the luminance component is executed using a filter tap read from the memory. On the other hand, as in the first modification described in this section, the luminance component is down-sampled at an earlier stage, and the input value to the prediction function obtained as a result of the down-sampling is stored in the memory. It is also possible.

図16は、第1の変形例に係るイントラ予測部90の詳細な構成の一例を示すブロック図である。図16を参照すると、イントラ予測部90は、予測制御部91、係数算出部92、予測部95、フィルタ96及び輝度成分メモリ97を有する。   FIG. 16 is a block diagram illustrating an example of a detailed configuration of the intra prediction unit 90 according to the first modification. Referring to FIG. 16, the intra prediction unit 90 includes a prediction control unit 91, a coefficient calculation unit 92, a prediction unit 95, a filter 96, and a luminance component memory 97.

フィルタ96及び輝度成分メモリ97は、1次元フィルタを用いたLMモードの実現のために設けられる。   The filter 96 and the luminance component memory 97 are provided for realizing an LM mode using a one-dimensional filter.

フィルタ96は、予測誤差データを用いて再構築される輝度成分の値を含む復号画像データをライン単位で加算部65から取得し、図8A又は図8Bに例示したようなフィルタタップを形成する。そして、フィルタ96は、形成したフィルタタップの値をフィルタリングすることにより、予測関数への輝度成分の入力値を生成する。   The filter 96 acquires decoded image data including luminance component values reconstructed using the prediction error data from the adding unit 65 in units of lines, and forms filter taps as illustrated in FIG. 8A or 8B. And the filter 96 produces | generates the input value of the luminance component to a prediction function by filtering the value of the formed filter tap.

輝度成分メモリ97は、フィルタ96により生成される、ダウンサンプリング後の輝度成分の入力値をライン単位で一時的に記憶する。輝度成分メモリ97により記憶される予測関数への輝度成分の入力値は、色差成分についてLMモードが指定された場合に、予測部95により読み出される。   The luminance component memory 97 temporarily stores the input value of the luminance component after downsampling generated by the filter 96 in units of lines. The input value of the luminance component to the prediction function stored in the luminance component memory 97 is read out by the prediction unit 95 when the LM mode is designated for the color difference component.

予測制御部91は、各色差成分と共通する画素位置の輝度成分について指定された予測モードにより示される予測方向に応じて、フィルタ96のフィルタタップ数を切り替えてもよい。   The prediction control unit 91 may switch the number of filter taps of the filter 96 according to the prediction direction indicated by the prediction mode designated for the luminance component at the pixel position common to each color difference component.

[5−2.第2の変形例]
上述した実施形態では、主にクロマフォーマットが4:2:0である場合について説明した。クロマフォーマットが4:2:2である場合にも、色差成分の密度は輝度成分の密度よりも低いことから、LMモードでの色差成分の予測の際に、輝度成分の値が一次元フィルタを用いてダウンサンプリングされてよい。また、クロマフォーマットが4:4:4である場合にも、LMモードでの色差成分の予測の際に、輝度成分の値が一次元フィルタを用いてフィルタリングされてよい(この場合には、色差成分の密度は輝度成分の密度と等しいことから、“ダウンサンプリング”ではない)。但し、クロマフォーマットが4:2:2又は4:4:4である場合、個々の色差成分と画素位置が一致する輝度成分が存在する。従って、クロマフォーマットが4:2:2又は4:4:4である場合には、画像符号化装置10の予測部45及び画像復号装置60の予測部95は、各色差成分と一致する画素位置の輝度成分の値を予測関数に代入してもよい。この場合には、1次元フィルタは無効化され得る。
[5-2. Second Modification]
In the above-described embodiment, the case where the chroma format is 4: 2: 0 is mainly described. Even when the chroma format is 4: 2: 2, the density of the chrominance component is lower than the density of the luminance component. Therefore, when the chrominance component is predicted in the LM mode, May be downsampled. Even when the chroma format is 4: 4: 4, the luminance component value may be filtered using a one-dimensional filter when predicting the color difference component in the LM mode (in this case, the color difference). This is not "downsampling" because the density of the component is equal to the density of the luminance component However, when the chroma format is 4: 2: 2 or 4: 4: 4, there is a luminance component whose pixel position matches each color difference component. Therefore, when the chroma format is 4: 2: 2 or 4: 4: 4, the prediction unit 45 of the image encoding device 10 and the prediction unit 95 of the image decoding device 60 perform pixel positions that match each color difference component. May be substituted into the prediction function. In this case, the one-dimensional filter can be disabled.

例えば、図17を参照すると、クロマフォーマットが4:2:2である場合の、16×16画素のサイズを有する1つのPU内の輝度成分(Luma)及び対応する色差成分(Chroma)が、丸印で概念的に示されている。輝度成分の密度は、水平方向についてのみ色差成分の密度の2倍である。図中右において斜線で網掛けされている丸印は、対応する色差成分の予測の際に予測関数へ代入される輝度成分を示す。   For example, referring to FIG. 17, when the chroma format is 4: 2: 2, the luminance component (Luma) and the corresponding color difference component (Chroma) in one PU having a size of 16 × 16 pixels are rounded. It is conceptually indicated by a sign. The density of the luminance component is twice the density of the color difference component only in the horizontal direction. The circles shaded with diagonal lines on the right in the figure indicate the luminance components that are substituted into the prediction function when the corresponding color difference components are predicted.

また、図18を参照すると、クロマフォーマットが4:4:4である場合の、16×16画素のサイズを有する1つのPU内の輝度成分(Luma)及び対応する色差成分(Chroma)が、丸印で概念的に示されている。輝度成分の密度は、色差成分の密度と等しい。図中右において斜線で網掛けされている丸印は、対応する色差成分の予測の際に予測関数へ代入される輝度成分を示す。   Referring to FIG. 18, when the chroma format is 4: 4: 4, the luminance component (Luma) and the corresponding color difference component (Chroma) in one PU having a size of 16 × 16 pixels are circled. It is conceptually indicated by a sign. The density of the luminance component is equal to the density of the color difference component. The circles shaded with diagonal lines on the right in the figure indicate the luminance components that are substituted into the prediction function when the corresponding color difference components are predicted.

このように、クロマフォーマットが4:2:0である場合にのみ輝度成分のフィルタリングを行うことで、処理の複雑さを低減し、LMモードの導入に伴う実装のコストを低減することができる。   As described above, by filtering the luminance component only when the chroma format is 4: 2: 0, it is possible to reduce the complexity of processing and to reduce the cost of the implementation accompanying the introduction of the LM mode.

<6.応用例>
上述した実施形態に係る画像符号化装置10及び画像復号装置60は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
<6. Application example>
The image encoding device 10 and the image decoding device 60 according to the above-described embodiments are a transmitter or a receiver in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication, The present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory, or a playback device that reproduces an image from these storage media. Hereinafter, four application examples will be described.

[6−1.第1の応用例]
図19は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
[6-1. First application example]
FIG. 19 shows an example of a schematic configuration of a television apparatus to which the above-described embodiment is applied. The television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.

チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。   The tuner 902 extracts a signal of a desired channel from a broadcast signal received via the antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.

デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。   The demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. Further, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.

デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。   The decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.

映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。   The video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video. In addition, the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network. Further, the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting. Further, the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.

表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。   The display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays a video or an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OLED).

音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。   The audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904 and outputs audio from the speaker 908. The audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.

外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。   The external interface 909 is an interface for connecting the television device 900 to an external device or a network. For example, a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.

制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。   The control unit 910 includes a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like. The program stored in the memory is read and executed by the CPU when the television device 900 is activated, for example. The CPU controls the operation of the television device 900 according to an operation signal input from the user interface 911, for example, by executing the program.

ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。   The user interface 911 is connected to the control unit 910. The user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like. The user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.

バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。   The bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.

このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、テレビジョン装置900での画像の復号に際して、メモリリソースをより効率的に使用することができる。   In the television device 900 configured as described above, the decoder 904 has the function of the image decoding device 60 according to the above-described embodiment. Thus, memory resources can be used more efficiently when the television device 900 decodes an image.

[6−2.第2の応用例]
図20は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
[6-2. Second application example]
FIG. 20 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied. A cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.

アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。   The antenna 921 is connected to the communication unit 922. The speaker 924 and the microphone 925 are connected to the audio codec 923. The operation unit 932 is connected to the control unit 931. The bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.

携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。   The mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.

音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。   In the voice call mode, an analog voice signal generated by the microphone 925 is supplied to the voice codec 923. The audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922. The communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923. The audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.

また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを再構築し、再構築した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。   Further, in the data communication mode, for example, the control unit 931 generates character data that constitutes an e-mail in response to an operation by the user via the operation unit 932. In addition, the control unit 931 causes the display unit 930 to display characters. In addition, the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922. The communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. Then, the communication unit 922 demodulates and decodes the received signal to reconstruct email data, and outputs the reconstructed email data to the control unit 931. The control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.

記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。   The recording / reproducing unit 929 has an arbitrary readable / writable storage medium. For example, the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.

また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。   In the shooting mode, for example, the camera unit 926 captures an image of a subject, generates image data, and outputs the generated image data to the image processing unit 927. The image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.

また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを再構築し、再構築したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。   Further, in the videophone mode, for example, the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to. The communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal. These transmission signal and reception signal may include an encoded bit stream. Then, the communication unit 922 demodulates and decodes the received signal to reconstruct the stream, and outputs the reconstructed stream to the demultiplexing unit 928. The demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923. The image processing unit 927 decodes the video stream and generates video data. The video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930. The audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.

このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、携帯電話機920での画像の符号化及び復号に際して、メモリリソースをより効率的に使用することができる。   In the mobile phone 920 configured as described above, the image processing unit 927 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Accordingly, memory resources can be used more efficiently when the mobile phone 920 encodes and decodes images.

[6−3.第3の応用例]
図21は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
[6-3. Third application example]
FIG. 21 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied. For example, the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium. In addition, the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example. In addition, the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.

記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。   The recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.

チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。   The tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.

外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。   The external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network. The external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface. For example, video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.

エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。   The encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.

HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。   The HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.

ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)又はBlu−ray(登録商標)ディスクなどであってよい。   The disk drive 945 performs recording and reading of data with respect to the mounted recording medium. The recording medium mounted on the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .

セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。   The selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.

デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。   The decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.

OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。   The OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.

制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。   The control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example. The CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.

ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。   The user interface 950 is connected to the control unit 949. The user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like. The user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.

このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置60の機能を有する。それにより、記録再生装置940での画像の符号化及び復号に際して、メモリリソースをより効率的に使用することができる。   In the recording / reproducing apparatus 940 configured as described above, the encoder 943 has the function of the image encoding apparatus 10 according to the above-described embodiment. The decoder 947 has the function of the image decoding device 60 according to the above-described embodiment. Thereby, the memory resource can be used more efficiently when the recording / reproducing apparatus 940 encodes and decodes an image.

[6−4.第4の応用例]
図22は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
[6-4. Fourth application example]
FIG. 22 shows an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied. The imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.

撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。   The imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.

光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。   The optical block 961 is connected to the imaging unit 962. The imaging unit 962 is connected to the signal processing unit 963. The display unit 965 is connected to the image processing unit 964. The user interface 971 is connected to the control unit 970. The bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.

光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。   The optical block 961 includes a focus lens and a diaphragm mechanism. The optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962. The imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.

信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。   The signal processing unit 963 performs various camera signal processes such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962. The signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.

画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。   The image processing unit 964 encodes the image data input from the signal processing unit 963, and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.

OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。   The OSD 969 generates a GUI image such as a menu, a button, or a cursor, and outputs the generated image to the image processing unit 964.

外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。   The external interface 966 is configured as a USB input / output terminal, for example. The external interface 966 connects the imaging device 960 and a printer, for example, when printing an image. Further, a drive is connected to the external interface 966 as necessary. For example, a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960. Further, the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.

メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。   The recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as a built-in hard disk drive or an SSD (Solid State Drive) may be configured.

制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。   The control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM. The memory stores a program executed by the CPU, program data, and the like. The program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example. The CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.

ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。   The user interface 971 is connected to the control unit 970. The user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960. The user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.

このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置60の機能を有する。それにより、撮像装置960での画像の符号化及び復号に際して、メモリリソースをより効率的に使用することができる。   In the imaging device 960 configured as described above, the image processing unit 964 has the functions of the image encoding device 10 and the image decoding device 60 according to the above-described embodiment. Accordingly, memory resources can be used more efficiently when the image capturing apparatus 960 encodes and decodes an image.

<7.まとめ>
ここまで、図1〜図22を用いて、一実施形態に係る画像符号化装置10及び画像復号装置60について詳しく説明した。上述した実施形態によれば、画像の符号化及び復号における色差成分のイントラ予測にあたり、輝度成分の値の関数を用いるLMモードが採用される場合に、1次元フィルタを用いた輝度成分のダウンサンプリングにより予測関数への入力値が生成される。それにより、ノイズの影響を低減しながら、ライン単位での逐次処理を採用してメモリリソースをより効率的に使用することが可能となる。
<7. Summary>
So far, the image encoding device 10 and the image decoding device 60 according to an embodiment have been described in detail with reference to FIGS. According to the above-described embodiment, when the LM mode using the function of the value of the luminance component is adopted for intra prediction of the color difference component in the encoding and decoding of the image, the luminance component is down-sampled using the one-dimensional filter. Generates an input value to the prediction function. Thereby, it is possible to use memory resources more efficiently by adopting sequential processing in units of lines while reducing the influence of noise.

また、上述した実施形態によれば、1次元フィルタのフィルタタップは、復号画像を再構築する際の水平方向及び垂直方向の逆直交変換のうち後に実行される方向に沿って配置される。それにより、逆直交変換の出力とイントラ予測の入力との間に設けられる、輝度成分の復号画像を格納するためのメモリのサイズを縮小することができる。   Further, according to the above-described embodiment, the filter taps of the one-dimensional filter are arranged along the direction to be executed later among the inverse orthogonal transforms in the horizontal direction and the vertical direction when the decoded image is reconstructed. Thereby, the size of the memory for storing the decoded image of the luminance component, which is provided between the output of the inverse orthogonal transform and the input of the intra prediction, can be reduced.

また、上述した実施形態によれば、各色差成分と共通する画素位置の輝度成分についてのイントラ予測の予測方向に応じて、1次元フィルタのフィルタタップのタップ数が適応的に制御されてもよい。それにより、フィルタタップに沿った画像の相関が強い場合にはタップ長を長くして、ノイズに対するロバスト性を高めることができる。   Further, according to the above-described embodiment, the number of taps of the filter taps of the one-dimensional filter may be adaptively controlled according to the prediction direction of the intra prediction for the luminance component at the pixel position common to each color difference component. . Thereby, when the correlation of the image along a filter tap is strong, tap length can be lengthened and the robustness with respect to noise can be improved.

なお、本明細書では、イントラ予測に関する情報及びインター予測に関する情報が、符号化ストリームのヘッダに多重化されて、符号化側から復号側へ伝送される例について主に説明した。しかしながら、これら情報を伝送する手法はかかる例に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。   In the present specification, an example in which information related to intra prediction and information related to inter prediction is multiplexed on the header of the encoded stream and transmitted from the encoding side to the decoding side has been mainly described. However, the method for transmitting such information is not limited to such an example. For example, these pieces of information may be transmitted or recorded as separate data associated with the encoded bitstream without being multiplexed into the encoded bitstream. Here, the term “associate” means that an image (which may be a part of an image such as a slice or a block) included in the bitstream and information corresponding to the image can be linked at the time of decoding. Means. That is, information may be transmitted on a transmission path different from that of the image (or bit stream). Information may be recorded on a recording medium (or another recording area of the same recording medium) different from the image (or bit stream). Furthermore, the information and the image (or bit stream) may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part of the frame.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値をフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成するフィルタと、
前記フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測する予測部と、
を備え、
前記フィルタは、1次元フィルタである、
画像処理装置。
(2)
前記フィルタの前記フィルタタップは、画像を再構築する際の水平方向及び垂直方向の逆直交変換のうち後に実行される第1の方向に沿って配置される、前記(1)に記載の画像処理装置。
(3)
前記画像処理装置は、前記第1の色差成分と共通する画素位置の輝度成分について選択されたイントラ予測の予測方向に応じて、前記フィルタタップのタップ数を制御する制御部、をさらに備える、前記(2)に記載の画像処理装置。
(4)
前記制御部は、前記予測方向と前記第1の方向との間の角度がより小さい場合に、前記タップ数をより大きい数に設定する、前記(3)に記載の画像処理装置。
(5)
前記制御部は、前記予測方向が前記第1の方向に重なる場合には前記タップ数を第1の数に設定し、前記予測方向が前記第1の方向に重ならない場合には前記タップ数を前記第1の数よりも小さい第2の数に設定する、前記(3)に記載の画像処理装置。
(6)
前記予測部は、クロマフォーマットが4:2:0でない場合には、前記第1の色差成分と一致する画素位置の輝度成分の値を前記予測関数に代入する、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記フィルタは、動き補償において使用される補間フィルタと同じフィルタ係数を有する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値を1次元フィルタでフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成することと、
前記1次元フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測することと、
を含む画像処理方法。
The following configurations also belong to the technical scope of the present disclosure.
(1)
Filtering the value of a filter tap including one or more luminance components at a pixel position common to the first chrominance component and one or more luminance components at a pixel position not common to the first chrominance component; A filter that generates an input value of a luminance component to be substituted into a prediction function for predicting a value of the first color difference component;
A prediction unit that predicts the value of the first color difference component by substituting the input value of the luminance component generated by the filter into the prediction function;
With
The filter is a one-dimensional filter;
Image processing device.
(2)
The image processing according to (1), wherein the filter tap of the filter is arranged along a first direction that is executed later among inverse orthogonal transforms in a horizontal direction and a vertical direction when an image is reconstructed. apparatus.
(3)
The image processing apparatus further includes a control unit that controls the number of taps of the filter tap according to a prediction direction of intra prediction selected for a luminance component at a pixel position common to the first color difference component, The image processing apparatus according to (2).
(4)
The said control part is an image processing apparatus as described in said (3) which sets the said tap number to a larger number, when the angle between the said prediction direction and the said 1st direction is smaller.
(5)
The control unit sets the number of taps to a first number when the prediction direction overlaps the first direction, and sets the number of taps when the prediction direction does not overlap the first direction. The image processing apparatus according to (3), wherein the second number is set to be a second number smaller than the first number.
(6)
When the chroma format is not 4: 2: 0, the prediction unit substitutes a value of a luminance component at a pixel position that matches the first chrominance component into the prediction function, (1) to (5) The image processing apparatus according to any one of the above.
(7)
The image processing apparatus according to any one of (1) to (6), wherein the filter has the same filter coefficient as an interpolation filter used in motion compensation.
(8)
The filter tap value including one or more luminance components at a pixel position common to the first color difference component and one or more luminance components at a pixel position not common to the first color difference component is filtered by a one-dimensional filter. Generating an input value of a luminance component to be substituted into a prediction function for predicting a value of the first color difference component;
Predicting a value of the first color difference component by substituting the input value of the luminance component generated by the one-dimensional filter into the prediction function;
An image processing method including:

10 画像符号化装置(画像処理装置)
41 予測制御部
42 係数算出部
43 輝度成分メモリ
44 フィルタ
45 予測部
60 画像復号装置(画像処理装置)
91 予測制御部
92 係数算出部
93 輝度成分メモリ
94 フィルタ
95 予測部
10 Image encoding device (image processing device)
DESCRIPTION OF SYMBOLS 41 Prediction control part 42 Coefficient calculation part 43 Luminance component memory 44 Filter 45 Prediction part 60 Image decoding apparatus (image processing apparatus)
91 Prediction control unit 92 Coefficient calculation unit 93 Luminance component memory 94 Filter 95 Prediction unit

Claims (8)

第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値をフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成するフィルタと、
前記フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測する予測部と、
を備え、
前記フィルタは、1次元フィルタである、
画像処理装置。
Filtering the value of a filter tap including one or more luminance components at a pixel position common to the first chrominance component and one or more luminance components at a pixel position not common to the first chrominance component; A filter that generates an input value of a luminance component to be substituted into a prediction function for predicting a value of the first color difference component;
A prediction unit that predicts the value of the first color difference component by substituting the input value of the luminance component generated by the filter into the prediction function;
With
The filter is a one-dimensional filter;
Image processing device.
前記フィルタの前記フィルタタップは、画像を再構築する際の水平方向及び垂直方向の逆直交変換のうち後に実行される第1の方向に沿って配置される、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter tap of the filter is arranged along a first direction that is executed later among inverse orthogonal transforms in a horizontal direction and a vertical direction when an image is reconstructed. . 前記画像処理装置は、前記第1の色差成分と共通する画素位置の輝度成分について選択されたイントラ予測の予測方向に応じて、前記フィルタタップのタップ数を制御する制御部、をさらに備える、請求項2に記載の画像処理装置。   The image processing apparatus further includes a control unit that controls the number of taps of the filter tap according to a prediction direction of intra prediction selected for a luminance component at a pixel position common to the first color difference component. Item 3. The image processing apparatus according to Item 2. 前記制御部は、前記予測方向と前記第1の方向との間の角度がより小さい場合に、前記タップ数をより大きい数に設定する、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the control unit sets the number of taps to a larger number when an angle between the predicted direction and the first direction is smaller. 前記制御部は、前記予測方向が前記第1の方向に重なる場合には前記タップ数を第1の数に設定し、前記予測方向が前記第1の方向に重ならない場合には前記タップ数を前記第1の数よりも小さい第2の数に設定する、請求項3に記載の画像処理装置。   The control unit sets the number of taps to a first number when the prediction direction overlaps the first direction, and sets the number of taps when the prediction direction does not overlap the first direction. The image processing apparatus according to claim 3, wherein the image processing apparatus is set to a second number smaller than the first number. 前記予測部は、クロマフォーマットが4:2:0でない場合には、前記第1の色差成分と一致する画素位置の輝度成分の値を前記予測関数に代入する、請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein when the chroma format is not 4: 2: 0, the prediction unit substitutes a value of a luminance component at a pixel position that matches the first chrominance component into the prediction function. apparatus. 前記フィルタは、動き補償において使用される補間フィルタと同じフィルタ係数を有する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter has the same filter coefficient as an interpolation filter used in motion compensation. 第1の色差成分と共通する画素位置の1つ以上の輝度成分及び前記第1の色差成分とは共通しない画素位置の1つ以上の輝度成分を含むフィルタタップの値を1次元フィルタでフィルタリングすることにより、前記第1の色差成分の値を予測するための予測関数に代入されるべき輝度成分の入力値を生成することと、
前記1次元フィルタにより生成される輝度成分の前記入力値を前記予測関数に代入することにより、前記第1の色差成分の値を予測することと、
を含む画像処理方法。
The filter tap value including one or more luminance components at a pixel position common to the first color difference component and one or more luminance components at a pixel position not common to the first color difference component is filtered by a one-dimensional filter. Generating an input value of a luminance component to be substituted into a prediction function for predicting a value of the first color difference component;
Predicting a value of the first color difference component by substituting the input value of the luminance component generated by the one-dimensional filter into the prediction function;
An image processing method including:
JP2011252513A 2011-11-18 2011-11-18 Image processing apparatus and image processing method Pending JP2013110502A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011252513A JP2013110502A (en) 2011-11-18 2011-11-18 Image processing apparatus and image processing method
PCT/JP2012/076840 WO2013073328A1 (en) 2011-11-18 2012-10-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011252513A JP2013110502A (en) 2011-11-18 2011-11-18 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013110502A true JP2013110502A (en) 2013-06-06

Family

ID=48429398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011252513A Pending JP2013110502A (en) 2011-11-18 2011-11-18 Image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP2013110502A (en)
WO (1) WO2013073328A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177295A (en) * 2014-03-14 2015-10-05 三菱電機株式会社 Terminal apparatus and data management apparatus
JP2016005235A (en) * 2014-06-19 2016-01-12 三菱電機株式会社 Image encoder, image decoder, image coding method and image decoding method
JP2016526854A (en) * 2013-07-12 2016-09-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Parallel processing of horizontal and vertical conversion
JP2018514119A (en) * 2015-03-20 2018-05-31 クアルコム,インコーポレイテッド Downsampling process for linear model prediction mode
JP2021528919A (en) * 2018-06-29 2021-10-21 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Devices and methods for intra-prediction

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3799691A1 (en) 2018-06-29 2021-04-07 Huawei Technologies Co., Ltd. Device and method for intra-prediction of a prediction block of a video image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016526854A (en) * 2013-07-12 2016-09-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated Parallel processing of horizontal and vertical conversion
JP2018078572A (en) * 2013-07-12 2018-05-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Concurrent processing of horizontal and vertical transforms
JP2015177295A (en) * 2014-03-14 2015-10-05 三菱電機株式会社 Terminal apparatus and data management apparatus
JP2016005235A (en) * 2014-06-19 2016-01-12 三菱電機株式会社 Image encoder, image decoder, image coding method and image decoding method
JP2018514119A (en) * 2015-03-20 2018-05-31 クアルコム,インコーポレイテッド Downsampling process for linear model prediction mode
JP2021528919A (en) * 2018-06-29 2021-10-21 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Devices and methods for intra-prediction
US11563939B2 (en) 2018-06-29 2023-01-24 Huawei Technologies Co., Ltd. Device and method for intra-prediction

Also Published As

Publication number Publication date
WO2013073328A1 (en) 2013-05-23

Similar Documents

Publication Publication Date Title
US20200204796A1 (en) Image processing device and image processing method
US11196995B2 (en) Image processing device and image processing method
US10666945B2 (en) Image processing device and image processing method for decoding a block of an image
JP2018014742A (en) Image processing device and image processing method
JP2013141187A (en) Image processing apparatus and image processing method
US10743023B2 (en) Image processing apparatus and image processing method
WO2013164922A1 (en) Image processing device and image processing method
JP2012238927A (en) Image processing device and image processing method
JP5741730B2 (en) Image processing apparatus and image processing method
WO2013073328A1 (en) Image processing apparatus and image processing method
JP2012165354A (en) Image processing device and image processing method
JP2013126157A (en) Image processing apparatus and image processing method
WO2012043166A1 (en) Image processing device and image processing method
JP2017076983A (en) Image processor and image processing method
JP2013012815A (en) Image processing apparatus and image processing method
WO2012124406A1 (en) Image processing device and image processing method