WO2014007514A1 - Method for decoding image and apparatus using same - Google Patents

Method for decoding image and apparatus using same Download PDF

Info

Publication number
WO2014007514A1
WO2014007514A1 PCT/KR2013/005857 KR2013005857W WO2014007514A1 WO 2014007514 A1 WO2014007514 A1 WO 2014007514A1 KR 2013005857 W KR2013005857 W KR 2013005857W WO 2014007514 A1 WO2014007514 A1 WO 2014007514A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
unit
intra prediction
value
mode
Prior art date
Application number
PCT/KR2013/005857
Other languages
French (fr)
Korean (ko)
Inventor
김정선
박준영
김철근
전병문
헨드리헨드리
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2014007514A1 publication Critical patent/WO2014007514A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component

Definitions

  • the present invention relates to video compression techniques, and more particularly, to an intra prediction method of a color difference block using luminance samples, and an apparatus using the method.
  • video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
  • the quality of the image for example, the image quality, the resolution of the image, the size of the image. It is necessary to provide scalability in the frame rate of video and the like. In addition, various image processing methods associated with such scalability should be discussed.
  • An object of the present invention is to provide an intra prediction method of a chrominance block and an apparatus using the same that can increase image coding and decoding efficiency.
  • One embodiment of the present invention is to provide a method for predicting a sample value of a color difference signal for each transform unit in intra prediction and an apparatus using the same.
  • Another object of the present invention is to provide a method for predicting a sample value of a color difference signal for each coding unit in intra prediction, and an apparatus using the same.
  • Another object of the present invention is to provide a method for predicting a sample value of a color difference signal for each coding tree block in intra prediction, and an apparatus using the same.
  • An image decoding method includes generating a reconstruction value for a luminance component of a current block, and predicting a color difference component of the current block based on the reconstruction value of the luminance component,
  • the predicted value of the color difference component may be derived by a reconstruction value of the luminance component and an arithmetic operation of a predetermined parameter, and the parameter may be set for each division unit of an image.
  • the parameter may be set for each coding unit.
  • the predicted value of the color difference component may be calculated as follows.
  • An image decoding apparatus includes a prediction unit that predicts a color difference component of the current block based on a reconstruction value of a luminance component of the current block, wherein the predicted value of the color difference component is a reconstruction of the luminance component. Derived by arithmetic operation of a value and a predetermined parameter, the parameter may be set for each division unit of an image.
  • an intra prediction method of a chrominance block capable of increasing image coding and decoding efficiency and an apparatus using the same are provided.
  • An embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each transform unit in intra prediction, and an apparatus using the same.
  • Another embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each coding unit in intra prediction, and an apparatus using the same.
  • Another embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each coding tree block in intra prediction, and an apparatus using the same.
  • FIG. 4 is a diagram for describing a prediction value when a current block is predicted in a planar mode.
  • FIG. 5 is a diagram illustrating sample values of luminance components existing in and around a current block according to an exemplary embodiment of the present invention.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • the video encoding / decoding method or apparatus may be implemented by an extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is based on a scalable video encoding apparatus.
  • An embodiment of a video encoding apparatus that may be represented.
  • the encoding apparatus 100 may include a picture divider 105, a predictor 110, a transformer 115, a quantizer 120, a reordering unit 125, an entropy encoding unit 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150 are provided.
  • the predictor 110 includes an inter predictor for performing inter prediction and an intra predictor for performing intra prediction, as described below.
  • the prediction unit 110 generates a prediction block by performing prediction on the processing unit of the picture in the picture division unit 105.
  • the processing unit of the picture in the prediction unit 110 may be a CU, a TU, or a PU.
  • the prediction unit 110 may determine whether the prediction performed on the processing unit is inter prediction or intra prediction, and determine specific contents (eg, prediction mode, etc.) of each prediction method.
  • the processing unit in which the prediction is performed may differ from the processing unit in which specific contents of the prediction method and the prediction method are determined.
  • the method of prediction and the prediction mode may be determined in units of PUs, and the prediction may be performed in units of TUs.
  • the prediction block may be generated in integer sample units, or may be generated in sub-pixel units such as 1/2 pixel unit or 1/4 pixel unit.
  • the motion vector may also be expressed in units of integer pixels or less.
  • the residual may be used as the reconstructed block, and thus the residual may not be generated, transformed, quantized, or transmitted.
  • a prediction mode When performing intra prediction, a prediction mode may be determined in units of PUs, and prediction may be performed in units of PUs. In addition, a prediction mode may be determined in units of PUs, and intra prediction may be performed in units of TUs.
  • the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
  • a prediction block may be generated after applying a filter to a reference sample.
  • whether to apply the filter to the reference sample may be determined according to the intra prediction mode and / or the size of the current block.
  • the transform unit 115 performs transform on the residual block in units of transform blocks and generates transform coefficients.
  • the transform block is a rectangular block of samples to which the same transform is applied.
  • the transform block can be a transform unit (TU) and can have a quad tree structure.
  • the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
  • DST discrete sine transform
  • DCT discrete cosine transform
  • the quantization unit 120 may generate quantized transform coefficients by quantizing the residual values transformed by the transform unit 115, that is, the transform coefficients.
  • the value calculated by the quantization unit 120 is provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 may rearrange the quantized transform coefficients in the form of a 2D block into a 1D vector form through a coefficient scanning method.
  • the entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients rearranged by the reordering unit 125.
  • Entropy encoding may include, for example, encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • the entropy encoding unit 130 may include quantized transform coefficient information, block type information, prediction mode information, partition unit information, PU information, transmission unit information, and motion vector of the CUs received from the reordering unit 125 and the prediction unit 110.
  • Various information such as information, reference picture information, interpolation information of a block, and filtering information may be encoded.
  • the inverse quantizer 135 inversely quantizes the quantized values (quantized transform coefficients) in the quantizer 120, and the inverse transformer 140 inversely transforms the inverse quantized values in the inverse quantizer 135.
  • the reconstructed block may be generated by combining the residual values generated by the inverse quantizer 135 and the inverse transform unit 140 and the prediction blocks predicted by the prediction unit 110.
  • a reconstructed block is generated by adding a residual block and a prediction block through an adder.
  • the adder may be viewed as a separate unit (restore block generation unit) for generating a reconstruction block.
  • the filter unit 145 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
  • ALF adaptive loop filter
  • SAO sample adaptive offset
  • the deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. ALF may be performed only when high efficiency is applied.
  • the SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
  • the filter unit 145 may not apply filtering to the reconstructed block used for inter prediction.
  • FIG. 2 is a block diagram schematically illustrating a video decoding apparatus according to an embodiment of the present invention.
  • the scalable video encoding / decoding method or apparatus may be implemented by extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 2 shows scalable video decoding.
  • FIG. 2 shows scalable video decoding.
  • the video decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, and a filter unit 235.
  • Memory 240 may be included.
  • VLC variable length coding
  • 'VLC' variable length coding
  • CABAC CABAC
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
  • the inverse transform unit 225 may perform inverse DCT and / or inverse DST on the DCT and the DST performed by the transform unit of the encoding apparatus with respect to the quantization result performed by the video encoding apparatus.
  • the inverse transformation may be performed based on a transmission unit determined by the encoding apparatus or a division unit of an image.
  • the DCT and / or DST in the encoding unit of the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 225 of the decoding apparatus may be Inverse transformation may be performed based on the performed transformation information.
  • the prediction unit 230 may generate the prediction block based on the prediction block generation related information provided by the entropy decoding unit 210 and the previously decoded block and / or picture information provided by the memory 240.
  • inter prediction on the current PU may be performed based on information included in at least one of a previous picture or a subsequent picture of the current picture.
  • motion information required for inter prediction of the current PU provided by the video encoding apparatus for example, a motion vector, a reference picture index, and the like, may be derived by checking a skip flag, a merge flag, and the like received from the encoding apparatus.
  • the residual is not transmitted and the prediction block may be a reconstruction block.
  • the memory 240 may store the reconstructed picture or block to use as a reference picture or reference block and provide the reconstructed picture to the output unit.
  • the decoding apparatus 200 may further include a parsing unit (not shown) which parses information related to an encoded image included in the bitstream.
  • the parsing unit may include the entropy decoding unit 210 or may be included in the entropy decoding unit 210. Such a parser may also be implemented as one component of the decoder.
  • a block composed of a luminance component of the current block may be expressed as a luminance block and a block composed of a color difference component as a color difference component.
  • the intra prediction mode may include 33 directional prediction modes and two non-directional modes. As shown in FIG. 3, the directional mode includes the intra prediction mode 34 in the clockwise direction starting from the second intra prediction mode in the lower left direction.
  • the prediction mode 35 may represent an intra mode for the color difference component.
  • Planar mode Intra_Planar and DC mode Intra_DC which are non-directional modes, may be allocated to intra prediction modes 0 and 1, respectively.
  • DC mode a single fixed value, for example, the average value of surrounding reconstructed pixel values is used as a prediction value, and in Planer mode, vertical interpolation and horizontal use are performed using vertically adjacent pixel values of the current block and horizontally adjacent pixel values. Directional interpolation is performed, and their average value is used as the predicted value.
  • the directional mode Intra_Angular refers to modes indicating a corresponding direction at an angle between a reference pixel located in a predetermined direction and a current pixel, and may include a horizontal mode and a vertical mode.
  • a horizontal mode vertically adjacent pixel values of the current block may be used as prediction values of the current block
  • horizontally adjacent pixel values may be used as prediction values of the current block.
  • the intra prediction mode for the current block may be transmitted with a value indicating the mode itself, but may be derived from information about candidate intra prediction modes that are likely to be the intra prediction mode of the current block.
  • the reference sample may be replaced with a predetermined value, for example, a median value of sample values that the image may have.
  • the sample value of the adjacent sample which is immediately below the sample that is not available, is replaced with a reference sample value, and the available sample among the above adjacent samples is available. If a sample that has not been found is found, the sample value of the sample existing on the right side of the sample that is not available can be replaced with the reference sample value.
  • Sample values adjacent to the current block may be filtered. Whether to filter and the filtering coefficient may be set differently according to the size of the transform block and the intra prediction mode. When the step difference existing in the predicted value generated after the reference sample value and the intra prediction is applied through filtering, discontinuity that may occur at the block boundary may be reduced.
  • the prediction value for the current block may be obtained as a linear interpolation value of a plurality of reference sample values.
  • NxN N is an integer
  • N is an integer
  • the position of the upper left sample of the block is (0,0)
  • the position of the lower left sample is (0, N-1)
  • the position of the upper right sample may be expressed as (N-1, 0)
  • the position of the lower right sample may be expressed as (N-1, N-1).
  • the prediction value for the current block may be generated using the average value of the reference sample values.
  • the boundary region of the prediction block, that is, the left boundary and the right boundary of the prediction block may be filtered.
  • the prediction value may be generated using the reference sample value present in the direction of the prediction mode. Reference samples may be stretched according to the direction of the prediction mode.
  • the prediction mode is a horizontal or vertical mode
  • the prediction value of the current block located at a boundary adjacent to the reference sample may be generated through arithmetic operation of specific sample values existing at a predetermined position with the reference sample. The arithmetic operation has an effect of applying filtering to the boundary region adjacent to the reference sample, thereby reducing the discontinuity between the current block and the neighboring block.
  • a predicted value of the luminance block including the luminance component is generated, and when the residual is added to the generated predicted value, a restored value for the luminance block of the current block is derived.
  • Intra prediction for the chrominance component includes diagonal intra prediction mode (intra prediction mode No. 34), vertical intra prediction mode (intra prediction mode No. 26), horizontal intra prediction mode (intra prediction mode No. 10), and DC intra prediction mode.
  • LM Large Estimated Mode
  • DM Luma Directed Mode
  • Table 2 shows the mapping between intra prediction mode and intra prediction mode numbers when LM, vertical intra prediction mode (VER), horizontal intra prediction mode (HOR), DC intra prediction mode, and DM are used as intra prediction methods of the chrominance block. This table shows the relationship.
  • intra_chroma_pred_type 0 is Luma Estimated Mode (LM)
  • intra_chroma_pred_type 1 is vertical intra prediction mode (VER)
  • intra_chroma_pred_type 2 is horizontal intra prediction mode (HOR)
  • intra_chroma_pred_type is 3 DC intra prediction mode
  • intra_chroma_pred_type May perform intra prediction on a chrominance block in a DM (Luma Directed Mode).
  • the intra prediction mode of the chrominance block can be represented by DM
  • the intra prediction number is mapped to one of the intra prediction modes of the above five chrominance blocks. There is no need to do it.
  • intra_chroma_pred_type 1 because the intra prediction mode of the chrominance block may be represented by DM having intra_chroma_pred_type 4. There is no need to map intra prediction modes.
  • intra prediction mode of the luminance block is the vertical intra prediction mode, the horizontal intra prediction mode, or the remaining directional intra prediction mode other than the DC mode
  • the intra prediction mode of the DM mode and the luminance block is not overlapped since the DM mode and the intra prediction mode of the luminance block do not overlap.
  • intra prediction may be performed on the color difference block using five intra_chroma_pred_types.
  • the intra prediction mode used to perform intra prediction of the chrominance block and the mapping relationship between the intra prediction mode and the intra prediction mode number may be changed to arbitrary.
  • the color difference block may determine whether to use the LM in the encoding and decoding steps, and Table 2 may vary depending on whether the LM is used.
  • an oblique intra prediction mode (intra prediction mode 34) and a planar mode may be used for the intra prediction mode of the chrominance block.
  • the intra prediction mode of the luminance block is the planar mode, the vertical mode, the horizontal mode, or the DC mode
  • the intra prediction mode that can be represented by the DM among intra_chroma_pred_mode can be represented by the intra prediction mode of the chrominance block.
  • a diagonal intra mode intra prediction mode 34 may be included instead.
  • an unnecessary intra prediction mode is set to an oblique intra prediction mode (intra prediction mode 34).
  • intra prediction mode 34 oblique intra prediction mode
  • other intra prediction modes instead of intra prediction mode 34, for example, intra prediction mode 18 or intra prediction mode 2 may also be used as the intra prediction mode 34 and such embodiments are also included in the scope of the present invention. .
  • an intra prediction mode to substitute the intra prediction mode of the same chrominance block as the intra prediction mode of the luminance block is referred to as substitute_mode.
  • Intra prediction may be performed on the chrominance block.
  • LM when LM is used to predict a chrominance component, that is, a restored value of a luminance component may be used, and a predicted value of a chrominance sample may be generated using a linear equation such as Equation 2.
  • (x, y) may indicate a location in one TU.
  • the current block may be a TU.
  • Cpred means a predicted value of the sample
  • Lrecon indicates a reconstructed value of the luma sample.
  • [alpha] and [beta] are constant parameters obtained by using the restored value of the luma sample around the current block and the restored value of the chrominance sample.
  • the decoding process in the case of obtaining ⁇ and ⁇ in units of TU is as follows.
  • the variable nS is the size of the prediction block.
  • the current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
  • new first variables k3 and pY ' may be calculated using linear interpolation.
  • Equation 4 the second variables L, C, LL, LC, and k2 for calculating ⁇ and ⁇ as shown in Equation 4 below may be calculated.
  • ⁇ and ⁇ may be calculated using the method of Equation 5 based on the second variable calculated through Equation 4.
  • a color difference block sample using LM may be calculated based on Equation 6 below using ⁇ and ⁇ calculated based on Equation 5 above.
  • FIG. 5 illustrates luminance sample values present in and around a current block according to an embodiment of the present invention.
  • the first sample 500 represents a subsampled luminance sample used to calculate the parameters ⁇ and ⁇ .
  • the second sample 510 represents a sample of linear interpolation of the subsampled luminance samples used to calculate the parameters ⁇ and ⁇ .
  • the parameters ⁇ and ⁇ may be set for each unit in which color difference samples are predicted, that is, for each TU, or the same ⁇ and ⁇ may be used in all TUs calculated for each CU and included in one CU.
  • Computing ⁇ and ⁇ in one CU can reduce the number of times of access to the memory storing luminance samples and chrominance samples, compared to calculating ⁇ and ⁇ for each TU. Can be reduced.
  • the decoding process for obtaining ⁇ and ⁇ in CU units is as follows.
  • the variable nS is the size of the coding block.
  • the current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
  • a new first variable (k3, pY ′) may be calculated by using linear interpolation as described above.
  • Equation 8 the second variables L, C, LL, LC, and k2 for calculating ⁇ and ⁇ as shown in Equation 8 below may be calculated.
  • ⁇ and ⁇ may be calculated using the method of Equation 9 based on the second variable calculated through Equation 8.
  • Color difference block samples using LM may be calculated based on Equation 10 below using ⁇ and ⁇ calculated based on Equation 9 above.
  • ⁇ and ⁇ can be obtained using the LCU (largest coding unit) surrounding. That is, if the largest coding block is expressed differently, ⁇ and ⁇ may be calculated for each coding tree block (CTB) unit. In this case, ⁇ and ⁇ need to be calculated only once for each LCU unit, which is more effective for hardware implementation.
  • the decoding process for this is as follows.
  • the current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
  • new first variables k3 and pY ' may be calculated using linear interpolation.
  • Equation 12 the second variables L, C, LL, LC, and k2 for calculating ⁇ and ⁇ as shown in Equation 12 below may be calculated.
  • ⁇ and ⁇ may be calculated using the method of Equation 13 based on the second variable calculated through Equation 12.
  • Color difference block samples using LM may be calculated based on Equation 14 below using ⁇ and ⁇ calculated based on Equation 13 above.
  • FIG. 6 is a diagram for explaining another image decoding method according to an embodiment of the present invention, specifically, a prediction method when LM is applied to a color difference component.
  • the prediction unit generates a reconstruction value for the luminance component of the current block (S610).
  • a prediction value is derived using a mode most suitable for prediction of the luminance block among intra prediction modes including a directional mode and a non-directional mode, and the prediction value is added to the residual to restore the luminance component.
  • the color difference component is predicted based on an arithmetic operation of a parameter set for each division unit of the image based on the restored value of the luminance component of the current block (S620).
  • the division unit of the image may be a coding unit, a transformation unit, or may be set for each coding tree block.
  • the parameters ⁇ and ⁇ may be calculated for each prediction unit.
  • the amount of image information to be coded and decoded decreases, thereby increasing coding and decoding efficiency of the image.

Abstract

A method for decoding an image, according to the present invention, comprises the steps of: generating a reconstructed value with respect to a luminance component of a current block; and predicting the color difference of the current block on the basis of the reconstructed value of the luminance component, wherein a prediction value of the color difference is derived from arithmetic calculation of the reconstructed value of the luminance component and predetermined parameters, and wherein the parameters can be set for each image division unit. As a result, provided are an intra-prediction method of a color difference block, which can increase image coding and decoding efficiency, and an apparatus using same.

Description

영상 디코딩 방법 및 이를 이용하는 장치Image decoding method and apparatus using same
본 발명은 비디오 압축 기술에 관한 것으로서 더 구체적으로는 휘도 샘플을 이용한 색차 블록의 인트라 예측 방법 및 이러한 방법을 사용하는 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to video compression techniques, and more particularly, to an intra prediction method of a color difference block using luminance samples, and an apparatus using the method.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가하고 있다. Recently, the demand for high resolution and high quality images is increasing in various applications. As an image has a high resolution and high quality, the amount of information on the image also increases.
정보량의 증가로 인해 다양한 성능의 장치와 다양한 환경의 네트워크가 등장하고 있다. 다양한 성능의 장치와 다양한 환경의 네트워크가 등장함에 따라서, 동일한 콘텐츠를 다양한 품질로 이용할 수 있게 되었다.As information volume increases, devices with various performances and networks with various environments are emerging. With the emergence of devices of varying performance and networks of different environments, the same content is available in different qualities.
구체적으로, 단말 장치가 지원할 수 있는 품질의 영상이 다양해지고, 구축된 네트워크 환경이 다양해짐으로써, 어떤 환경에서는 일반적인 품질의 영상을 이용하지만, 또 다른 환경에서는 더 높은 품질의 영상을 이용할 수 있게 된다.In detail, as the video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
예를 들어, 휴대 단말에서 비디오 콘텐츠를 구매한 소비자가 가정 내 대화면의 디스플레이를 통해 동일한 비디오 콘텐츠를 더 큰 화면과 더 높은 해상도로 감상할 수 있게 되는 것이다.For example, a consumer who purchases video content on a mobile terminal can view the same video content on a larger screen and at a higher resolution through a large display in the home.
최근에는 HD(High Definition) 해상도를 가지는 방송이 서비스되면서 많은 사용자들은 이미 고해상도, 고화질의 영상에 익숙해지고 있고, 서비스 제공자와 사용자들은 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)의 서비스에도 관심을 기울이고 있다.In recent years, as broadcasts with high definition (HD) resolution have been serviced, many users are already accustomed to high-definition and high-definition video.Ultra High Definition (UHD) has more than four times the resolution of HDTV with HDTV. I am also interested in the services of the company.
따라서, 다양한 환경에서 사용자가 요구하는 영상 서비스를 품질에 따라서 다양하게 제공하기 위해 고용량 비디오에 대한 고효율의 인코딩/디코딩 방법을 기반으로 영상의 품질, 예컨대 영상의 화질, 영상의 해상도, 영상의 크기, 비디오의 프레임 레이트 등에 스케일러빌러티를 제공하는 것이 필요하다. 또한, 이러한 스케일러빌러티에 수반되는 다양한 영상 처리 방법이 논의되어야 한다.Therefore, in order to provide various video services required by users in various environments according to the quality, based on a high-efficiency encoding / decoding method for high-capacity video, the quality of the image, for example, the image quality, the resolution of the image, the size of the image, It is necessary to provide scalability in the frame rate of video and the like. In addition, various image processing methods associated with such scalability should be discussed.
본 발명은 영상 코딩 및 디코딩 효율을 증가시킬 수 있는 색차 블록의 인트라 예측 방법 및 이를 이용하는 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an intra prediction method of a chrominance block and an apparatus using the same that can increase image coding and decoding efficiency.
본 발명의 일 실시예는 인트라 예측에 있어서 변환 유닛 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치를 제공하는 것을 목적으로 한다.One embodiment of the present invention is to provide a method for predicting a sample value of a color difference signal for each transform unit in intra prediction and an apparatus using the same.
또한, 본 발명의 다른 실시예는 인트라 예측에 있어서 코딩 유닛 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a method for predicting a sample value of a color difference signal for each coding unit in intra prediction, and an apparatus using the same.
또한, 본 발명의 또 다른 실시예는 인트라 예측에 있어서 코딩 트리 블록 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a method for predicting a sample value of a color difference signal for each coding tree block in intra prediction, and an apparatus using the same.
본 발명의 일 실시형태에 따른 영상 디코딩 방법은 현재 블록의 휘도 성분에 대한 복원값을 생성하는 단계와, 상기 휘도 성분의 복원값에 기초하여 상기 현재 블록의 색차 성분을 예측하는 단계를 포함하고, 상기 색차 성분의 예측값은 상기 휘도 성분의 복원값과 기설정된 파라미터의 산술 연산으로 도출되며, 상기 파라미터는 영상의 분할 단위 별로 설정될 수 있다.An image decoding method according to an embodiment of the present invention includes generating a reconstruction value for a luminance component of a current block, and predicting a color difference component of the current block based on the reconstruction value of the luminance component, The predicted value of the color difference component may be derived by a reconstruction value of the luminance component and an arithmetic operation of a predetermined parameter, and the parameter may be set for each division unit of an image.
이 때, 상기 파라미터는 코딩 유닛 별로 설정될 수 있다.In this case, the parameter may be set for each coding unit.
한편, 상기 파라미터는 변환 유닛 별로 설정될 수도 있고, 상기 파라미터는 코딩 트리 블록 별로 설정될 수도 있다. Meanwhile, the parameter may be set for each transform unit, and the parameter may be set for each coding tree block.
상기 색차 성분의 예측값은 다음식과 같이 연산될 수 있다. The predicted value of the color difference component may be calculated as follows.
Figure PCTKR2013005857-appb-I000001
Figure PCTKR2013005857-appb-I000001
(Lrecon: 루마 성분의 복원값, α, β: 파라미터)(Lrecon: restored value of luma component, α, β: parameter)
본 발명의 다른 실시 형태에 따른 하는 영상 디코딩 장치는 현재 블록의 휘도 성분에 대한 복원값에 기초하여 상기 현재 블록의 색차 성분을 예측하는 예측부를 포함하고, 상기 색차 성분의 예측값은 상기 휘도 성분의 복원값과 기설정된 파라미터의 산술 연산으로 도출되며, 상기 파라미터는 영상의 분할 단위 별로 설정될 수 있다.An image decoding apparatus according to another embodiment of the present invention includes a prediction unit that predicts a color difference component of the current block based on a reconstruction value of a luminance component of the current block, wherein the predicted value of the color difference component is a reconstruction of the luminance component. Derived by arithmetic operation of a value and a predetermined parameter, the parameter may be set for each division unit of an image.
본 발명의 일 실시예에 따르면, 영상 코딩 및 디코딩 효율을 증가시킬 수 있는 색차 블록의 인트라 예측 방법 및 이를 이용하는 장치가 제공된다. According to an embodiment of the present invention, an intra prediction method of a chrominance block capable of increasing image coding and decoding efficiency and an apparatus using the same are provided.
본 발명의 일 실시예는 인트라 예측에 있어서 변환 유닛 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치가 제공된다.An embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each transform unit in intra prediction, and an apparatus using the same.
또한, 본 발명의 다른 실시예는 인트라 예측에 있어서 코딩 유닛 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치가 제공된다.Another embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each coding unit in intra prediction, and an apparatus using the same.
또한, 본 발명의 또 다른 실시예는 인트라 예측에 있어서 코딩 트리 블록 별로 색차 신호의 샘플값을 예측하는 방법 및 이를 이용하는 장치가 제공된다.Another embodiment of the present invention provides a method for predicting a sample value of a color difference signal for each coding tree block in intra prediction, and an apparatus using the same.
도 1은 본 발명의 일 실시예에 따른 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a video decoding apparatus according to an embodiment of the present invention.
도 3은 인트라 예측 모드의 일 예를 도시한 도면이다. 3 is a diagram illustrating an example of an intra prediction mode.
도 4는 현재 블록이 Planar 모드로 예측된 경우 예측값을 설명하기 위한 도면이다.4 is a diagram for describing a prediction value when a current block is predicted in a planar mode.
도 5는 본 발명의 실시예에 따른 현재 블록의 주변 및 내부에 존재하는 휘도 성분의 샘플값을 나타낸 도면이다.5 is a diagram illustrating sample values of luminance components existing in and around a current block according to an exemplary embodiment of the present invention.
도 6은 본 발명에 따른 영상 디코딩 방법을 설명하기 위한 제어흐름도이다.6 is a control flowchart for explaining an image decoding method according to the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the invention to the specific embodiments. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the spirit of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 비디오 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.On the other hand, each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented. For example, two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and redundant description of the same components is omitted.
도 1은 본 발명의 일 실시예에 따른 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 비디오 인코딩/ 디코딩 방법 또는 장치는 스케일러빌리티(scalability)를 제공하지 않는 일반적인 비디오 인코딩/ 디코딩 방법 또는 장치의 확장(extension)에 의해 구현될 수 있으며, 도 1의 블록도는 스케일러블 비디오 인코딩 장치의 기초가 될 수 있는 비디오 인코딩 장치의 일 실시예를 나타낸다.1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention. The video encoding / decoding method or apparatus may be implemented by an extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is based on a scalable video encoding apparatus. An embodiment of a video encoding apparatus that may be represented.
도 1을 참조하면, 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 인코딩부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 구비한다.Referring to FIG. 1, the encoding apparatus 100 may include a picture divider 105, a predictor 110, a transformer 115, a quantizer 120, a reordering unit 125, an entropy encoding unit 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150 are provided.
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 단위 블록으로 분할할 수 있다. 이때, 처리 단위로서의 블록은 예측 유닛(Prediction Unit, 이하 ‘PU’라 함)일 수도 있고, 변환 유닛(Transform Unit, 이하 ‘TU’라 함)일 수도 있으며, 코딩 유닛(Coding Unit, 이하 ‘CU’라 함)일 수도 있다.The picture dividing unit 105 may divide the input picture into at least one processing unit block. In this case, the block as the processing unit may be a prediction unit (hereinafter referred to as a PU), a transform unit (hereinafter referred to as a TU), or a coding unit (hereinafter referred to as "CU"). It may be called.
픽처 분할부(105)에서 분할되는 처리 단위 블록들은 쿼드 트리(quad-tree) 구조를 가질 수 있다. The processing unit blocks divided by the picture divider 105 may have a quad-tree structure.
예측부(110)는 후술하는 바와 같이, 인터 예측을 수행하는 인터 예측부와 인트라 예측을 수행하는 인트라 예측부를 포함한다. 예측부(110)는, 픽처 분할부(105)에서 픽처의 처리 단위에 대하여 예측을 수행하여 예측 블록을 생성한다. 예측부(110)에서 픽처의 처리 단위는 CU일 수도 있고, TU일 수도 있고, PU일 수도 있다. 또한, 예측부(110)는 해당 처리 단위에 대하여 실시되는 예측이 인터 예측인지 인트라 예측인지를 결정하고, 각 예측 방법의 구체적인 내용(예컨대, 예측 모드 등)을 정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 예측 방법의 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 PU 단위로 결정되고, 예측의 수행은 TU 단위로 수행될 수도 있다. The predictor 110 includes an inter predictor for performing inter prediction and an intra predictor for performing intra prediction, as described below. The prediction unit 110 generates a prediction block by performing prediction on the processing unit of the picture in the picture division unit 105. The processing unit of the picture in the prediction unit 110 may be a CU, a TU, or a PU. In addition, the prediction unit 110 may determine whether the prediction performed on the processing unit is inter prediction or intra prediction, and determine specific contents (eg, prediction mode, etc.) of each prediction method. In this case, the processing unit in which the prediction is performed may differ from the processing unit in which specific contents of the prediction method and the prediction method are determined. For example, the method of prediction and the prediction mode may be determined in units of PUs, and the prediction may be performed in units of TUs.
인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 또한, 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. Through inter prediction, a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture. In addition, through intra prediction, a prediction block may be generated by performing prediction based on pixel information in a current picture.
인터 예측의 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predtiction) 등을 이용할 수 있다. 인터 예측에서는 PU에 대하여, 참조 픽처를 선택하고 PU에 대응하는 참조 블록을 선택할 수 있다. 참조 블록은 정수 픽셀 단위로 선택될 수 있다. 이어서, 현재 PU와의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되는 예측 블록이 생성된다.As a method of inter prediction, a skip mode, a merge mode, a motion vector prediction (MVP), and the like can be used. In inter prediction, a reference picture may be selected for a PU and a reference block corresponding to the PU may be selected. The reference block may be selected in integer pixel units. Subsequently, a prediction block is generated in which a residual signal with the current PU is minimized and the size of the motion vector is also minimized.
예측 블록은 정수 샘플 단위로 생성될 수도 있고, 1/2 픽셀 단위 또는 1/4 픽셀 단위와 같이 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 이하의 단위로 표현될 수 있다. The prediction block may be generated in integer sample units, or may be generated in sub-pixel units such as 1/2 pixel unit or 1/4 pixel unit. In this case, the motion vector may also be expressed in units of integer pixels or less.
인터 예측을 통해 선택된 참조 픽처의 인덱스, 움직임 벡터(ex. Motion Vector Predictor), 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 예측 블록을 복원 블록으로 할 수 있으므로, 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다. Information such as an index, a motion vector predictor, and a residual signal of a reference picture selected through inter prediction is entropy encoded and delivered to the decoding apparatus. When the skip mode is applied, the residual may be used as the reconstructed block, and thus the residual may not be generated, transformed, quantized, or transmitted.
인트라 예측을 수행하는 경우에는, PU 단위로 예측 모드가 정해져서 PU 단위로 예측이 수행될 수 있다. 또한, PU 단위로 예측 모드가 정해지고 TU 단위로 인트라 예측이 수행될 수도 있다. When performing intra prediction, a prediction mode may be determined in units of PUs, and prediction may be performed in units of PUs. In addition, a prediction mode may be determined in units of PUs, and intra prediction may be performed in units of TUs.
인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다. In intra prediction, the prediction mode may have 33 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수 있다. 이때, 참조 샘플에 필터를 적용할 것인지는 현재 블록의 인트라 예측 모드 및/또는 사이즈에 따라 결정될 수 있다.In intra prediction, a prediction block may be generated after applying a filter to a reference sample. In this case, whether to apply the filter to the reference sample may be determined according to the intra prediction mode and / or the size of the current block.
PU는 다양한 사이즈/형태의 블록일 수 있으며, 예컨대 인터 예측의 경우에 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 인트라 예측의 경우에 PU는 2N×2N 블록 또는 N×N 블록 (N은 정수) 등일 수 있다. 이때, N×N 블록 크기의 PU는 특정한 경우에만 적용하도록 설정할 수 있다. 예컨대 최소 크기 CU에 대해서만 NxN 블록 크기의 PU를 이용하도록 정하거나 인트라 예측에 대해서만 이용하도록 정할 수도 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.The PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N × 2N block, a 2N × N block, an N × 2N block, an N × N block (N is an integer), or the like. In the case of intra prediction, the PU may be a 2N × 2N block or an N × N block (where N is an integer). In this case, the PU of the N × N block size may be set to apply only in a specific case. For example, the NxN block size PU may be used only for the minimum size CU or only for intra prediction. In addition to the above-described PUs, PUs such as N × mN blocks, mN × N blocks, 2N × mN blocks, or mN × 2N blocks (m <1) may be further defined and used.
생성된 예측 블록과 원본 블록 사이의 레지듀얼 값(레지듀얼 블록 또는 레지듀얼 신호)은 변환부(115)로 입력된다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 레지듀얼 값과 함께 엔트로피 인코딩부(130)에서 인코딩되어 디코딩 장치에 전달된다. The residual value (the residual block or the residual signal) between the generated prediction block and the original block is input to the converter 115. In addition, the prediction mode information, the motion vector information, etc. used for the prediction are encoded by the entropy encoding unit 130 together with the residual value and transmitted to the decoding apparatus.
변환부(115)는 변환 블록 단위로 레지듀얼 블록에 대한 변환을 수행하고 변환 계수를 생성한다. The transform unit 115 performs transform on the residual block in units of transform blocks and generates transform coefficients.
변환 블록은 샘플들의 직사각형 블록으로서 동일한 변환이 적용되는 블록이다. 변환 블록은 변환 유닛(TU)일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. The transform block is a rectangular block of samples to which the same transform is applied. The transform block can be a transform unit (TU) and can have a quad tree structure.
변환부(115)는 레지듀얼 블록에 적용된 예측 모드와 블록의 크기에 따라서 변환을 수행할 수 있다. The transformer 115 may perform the transformation according to the prediction mode applied to the residual block and the size of the block.
예컨대, 레지듀얼 블록에 인트라 예측이 적용되었고 블록이 4x4의 레지듀얼 배열이라면, 레지듀얼 블록을 DST(Discrete Sine Transform)를 이용하여 변환하고, 그 외의 경우라면 레지듀얼 블록을 DCT(Discrete Cosine Transform)를 이용하여 변환할 수 있다. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
변환부(115)는 변환에 의해 변환 계수들의 변환 블록을 생성할 수 있다. The transform unit 115 may generate a transform block of transform coefficients by the transform.
양자화부(120)는 변환부(115)에서 변환된 레지듀얼 값들, 즉 변환 계수들을 양자화하여 양자화된 변환 계수를 생성할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공된다. The quantization unit 120 may generate quantized transform coefficients by quantizing the residual values transformed by the transform unit 115, that is, the transform coefficients. The value calculated by the quantization unit 120 is provided to the inverse quantization unit 135 and the reordering unit 125.
재정렬부(125)는 양자화부(120)로부터 제공된 양자화된 변환 계수를 재정렬한다. 양자화된 변환 계수를 재정렬함으로써 엔트로피 인코딩부(130)에서의 인코딩 효율을 높일 수 있다. The reordering unit 125 rearranges the quantized transform coefficients provided from the quantization unit 120. By rearranging the quantized transform coefficients, the encoding efficiency of the entropy encoding unit 130 may be increased.
재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원 블록 형태의 양자화된 변환 계수들을 1차원의 벡터 형태로 재정렬할 수 있다. The reordering unit 125 may rearrange the quantized transform coefficients in the form of a 2D block into a 1D vector form through a coefficient scanning method.
엔트로피 인코딩부(130)는 재정렬부(125)에 의해 재정렬된 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. 엔트로피 인코딩부(130)는 재정렬부(125) 및 예측부(110)로부터 전달받은 CU의 양자화된 변환 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, PU 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 픽처 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 인코딩할 수 있다. The entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients rearranged by the reordering unit 125. Entropy encoding may include, for example, encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC). The entropy encoding unit 130 may include quantized transform coefficient information, block type information, prediction mode information, partition unit information, PU information, transmission unit information, and motion vector of the CUs received from the reordering unit 125 and the prediction unit 110. Various information such as information, reference picture information, interpolation information of a block, and filtering information may be encoded.
또한, 엔트로피 인코딩부(130)는 필요한 경우에, 전송하는 파라미터 셋(parameter set) 또는 신택스에 일정한 변경을 가할 수도 있다. In addition, if necessary, the entropy encoding unit 130 may apply a constant change to a parameter set or syntax to be transmitted.
역양자화부(135)는 양자화부(120)에서 양자화된 값(양자화된 변환 계수)들을 역양자화하고, 역변환부(140)는 역양자화부(135)에서 역양자화된 값들을 역변환한다. The inverse quantizer 135 inversely quantizes the quantized values (quantized transform coefficients) in the quantizer 120, and the inverse transformer 140 inversely transforms the inverse quantized values in the inverse quantizer 135.
역양자화부(135) 및 역변환부(140)에서 생성된 레지듀얼 값과 예측부(110)에서 예측된 예측 블록이 합쳐져 복원 블록(Reconstructed Block)이 생성될 수 있다. The reconstructed block may be generated by combining the residual values generated by the inverse quantizer 135 and the inverse transform unit 140 and the prediction blocks predicted by the prediction unit 110.
도 1에서는 가산기를 통해서, 레지듀얼 블록과 예측 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수도 있다. In FIG. 1, it is described that a reconstructed block is generated by adding a residual block and a prediction block through an adder. In this case, the adder may be viewed as a separate unit (restore block generation unit) for generating a reconstruction block.
필터부(145)는 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)를 복원된 픽처에 적용할 수 있다. The filter unit 145 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. ALF는 고효율을 적용하는 경우에만 수행될 수도 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다. The deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture. The adaptive loop filter (ALF) may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. ALF may be performed only when high efficiency is applied. The SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
한편, 인터 예측에 사용되는 복원 블록에 대해서 필터부(145)는 필터링을 적용하지 않을 수도 있다. Meanwhile, the filter unit 145 may not apply filtering to the reconstructed block used for inter prediction.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽처를 저장할 수 있다. 메모리(150)에 저장된 복원 블록 또는 픽처는 인터 예측을 수행하는 예측부(110)에 제공될 수 있다. The memory 150 may store the reconstructed block or the picture calculated by the filter unit 145. The reconstructed block or picture stored in the memory 150 may be provided to the predictor 110 that performs inter prediction.
도 2는 본 발명의 일 실시예에 따른 비디오 디코딩 장치를 개략적으로 나타낸 블록도이다. 도 1에서 상술한 바와 같이 스케일러블 비디오 인코딩/디코딩 방법 또는 장치는 스케일러빌리티를 제공하지 않는 일반적인 비디오 인코딩/디코딩 방법 또는 장치의 확장에 의해 구현될 수 있으며, 도 2의 블록도는 스케일러블 비디오 디코딩 장치의 기초가 될 수 있는 비디오 디코딩 장치의 일 실시예를 나타낸다2 is a block diagram schematically illustrating a video decoding apparatus according to an embodiment of the present invention. As described above with reference to FIG. 1, the scalable video encoding / decoding method or apparatus may be implemented by extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 2 shows scalable video decoding. Represents an embodiment of a video decoding apparatus that may be the basis of the apparatus
도 2를 참조하면, 비디오 디코딩 장치(200)는 엔트로피 디코딩부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)를 포함할 수 있다. Referring to FIG. 2, the video decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, and a filter unit 235. Memory 240 may be included.
비디오 인코딩 장치에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 비디오 인코딩 장치에서 영상 정보가 처리된 절차에 따라서 디코딩될 수 있다.When an image bitstream is input in the video encoding apparatus, the input bitstream may be decoded according to a procedure in which image information is processed in the video encoding apparatus.
예컨대, 비디오 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CAVLC 등의 가변 길이 부호화(Variable Length Coding: VLC, 이하 ‘VLC’ 라 함)가 사용된 경우에, 엔트로피 디코딩부(210)도 인코딩 장치에서 사용한 VLC 테이블과 동일한 VLC 테이블로 구현하여 엔트로피 디코딩을 수행할 수 있다. 또한, 비디오 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CABAC을 이용한 경우에, 엔트로피 디코딩부(210)는 이에 대응하여 CABAC을 이용한 엔트로피 디코딩을 수행할 수 있다.For example, when variable length coding (VLC, hereinafter called 'VLC') is used to perform entropy encoding in the video encoding apparatus, the entropy decoding unit 210 also uses the VLC. Entropy decoding may be performed by implementing the same VLC table as the table. In addition, when CABAC is used to perform entropy encoding in the video encoding apparatus, the entropy decoding unit 210 may correspondingly perform entropy decoding using CABAC.
엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(230)로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(215)로 입력될 수 있다. Information for generating the prediction block among the information decoded by the entropy decoding unit 210 is provided to the predictor 230, and a residual value where entropy decoding is performed by the entropy decoding unit 210, that is, a quantized transform coefficient It may be input to the reordering unit 215.
재정렬부(215)는 엔트로피 디코딩부(210)에서 엔트로피 디코딩된 비트스트림의 정보, 즉 양자화된 변환 계수를 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다. The reordering unit 215 may reorder the information of the bitstream entropy decoded by the entropy decoding unit 210, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
재정렬부(215)는 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(215)는 현재 블록(변환 블록)에 적용된 예측 모드와 변환 블록의 크기를 기반으로 계수에 대한 스캐닝을 수행하여 2 차원 블록 형태의 계수(양자화된 변환 계수) 배열을 생성할 수 있다. The reordering unit 215 may reorder the coefficients expressed in the form of a one-dimensional vector by restoring the coefficients in the form of a two-dimensional block. The reordering unit 215 may generate an array of coefficients (quantized transform coefficients) in the form of a 2D block by scanning coefficients based on the prediction mode applied to the current block (transform block) and the size of the transform block.
역양자화부(220)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다. The inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
역변환부(225)는 비디오 인코딩 장치에서 수행된 양자화 결과에 대해, 인코딩 장치의 변환부가 수행한 DCT 및 DST에 대해 역DCT 및/또는 역DST를 수행할 수 있다. The inverse transform unit 225 may perform inverse DCT and / or inverse DST on the DCT and the DST performed by the transform unit of the encoding apparatus with respect to the quantization result performed by the video encoding apparatus.
역변환은 인코딩 장치에서 결정된 전송 단위 또는 영상의 분할 단위를 기초로 수행될 수 있다. 인코딩 장치의 변환부에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(225)는 인코딩 장치의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다. The inverse transformation may be performed based on a transmission unit determined by the encoding apparatus or a division unit of an image. The DCT and / or DST in the encoding unit of the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size and a prediction direction of the current block, and the inverse transformer 225 of the decoding apparatus may be Inverse transformation may be performed based on the performed transformation information.
예측부(230)는 엔트로피 디코딩부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(240)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 예측 블록을 생성할 수 있다. The prediction unit 230 may generate the prediction block based on the prediction block generation related information provided by the entropy decoding unit 210 and the previously decoded block and / or picture information provided by the memory 240.
현재 PU에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 현재 픽처 내의 픽셀 정보를 기초로 예측 블록을 생성하는 인트라 예측을 수행할 수 있다.When the prediction mode for the current PU is an intra prediction mode, intra prediction for generating a prediction block based on pixel information in the current picture may be performed.
현재 PU에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 PU에 대한 인터 예측을 수행할 수 있다. 이때, 비디오 인코딩 장치에서 제공된 현재 PU의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 인코딩 장치로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도될 수 있다. When the prediction mode for the current PU is an inter prediction mode, inter prediction on the current PU may be performed based on information included in at least one of a previous picture or a subsequent picture of the current picture. In this case, motion information required for inter prediction of the current PU provided by the video encoding apparatus, for example, a motion vector, a reference picture index, and the like, may be derived by checking a skip flag, a merge flag, and the like received from the encoding apparatus.
복원 블록은 예측부(230)에서 생성된 예측 블록과 역변환부(225)에서 제공된 레지듀얼 블록을 이용해 생성될 수 있다. 도 2에서는 가산기에서 예측 블록과 레지듀얼 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다. The reconstruction block may be generated using the prediction block generated by the predictor 230 and the residual block provided by the inverse transform unit 225. In FIG. 2, it is described that the reconstructed block is generated by combining the prediction block and the residual block in the adder. In this case, the adder may be viewed as a separate unit (restore block generation unit) for generating a reconstruction block.
스킵 모드가 적용되는 경우에는 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.When the skip mode is applied, the residual is not transmitted and the prediction block may be a reconstruction block.
복원된 블록 및/또는 픽처는 필터부(235)로 제공될 수 있다. 필터부(235)는 복원된 블록 및/또는 픽처에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 ALF 등을 적용할 수 있다. The reconstructed block and / or picture may be provided to the filter unit 235. The filter unit 235 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed block and / or picture.
메모리(240)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽처를 출력부로 제공할 수 있다.The memory 240 may store the reconstructed picture or block to use as a reference picture or reference block and provide the reconstructed picture to the output unit.
디코딩 장치(200)에 포함되어 있는 엔트로피 디코딩부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 및 메모리(240) 중 영상의 디코딩에 직접적으로 관련된 구성요소들, 예컨대, 엔트로피 디코딩부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 등을 다른 구성요소와 구분하여 디코더 또는 디코딩부로 표현할 수 있다. Entropy decoding unit 210, reordering unit 215, inverse quantization unit 220, inverse transform unit 225, predictor 230, filter unit 235, and memory 240 included in the decoding device 200. ) Components directly related to the decoding of an image, for example, an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, and a filter unit ( 235) and the like may be distinguished from other components by a decoder or a decoder.
또한, 디코딩 장치(200)는 비트스트림에 포함되어 있는 인코딩된 영상에 관련된 정보를 파싱하는 도시하지 않은 파싱부를 더 포함할 수 있다. 파싱부는 엔트로피 디코딩부(210)를 포함할 수도 있고, 엔트로피 디코딩부(210)에 포함될 수도 있다. 이러한 파싱부는 또한 디코딩부의 하나의 구성요소로 구현될 수도 있다.In addition, the decoding apparatus 200 may further include a parsing unit (not shown) which parses information related to an encoded image included in the bitstream. The parsing unit may include the entropy decoding unit 210 or may be included in the entropy decoding unit 210. Such a parser may also be implemented as one component of the decoder.
도 3은 인트라 예측 모드의 일 예를 도시한 도면이고, 표 1은 35개의 인트라 예측 모드 번호에 대한 인트라 예측 모드 사이의 매핑 관계를 나타낸 것이다. 이하에서는 설명의 편의 상, 현재 블록의 휘도 성분으로 구성된 블록을 휘도 블록, 색차 성분으로 구성된 블록을 색차 성분이라 표현할 수 있다. 3 is a diagram illustrating an example of an intra prediction mode, and Table 1 shows a mapping relationship between intra prediction modes for 35 intra prediction mode numbers. Hereinafter, for convenience of description, a block composed of a luminance component of the current block may be expressed as a luminance block and a block composed of a color difference component as a color difference component.
인트라 예측 모드는 33개의 방향성 예측 모드와 두 개의 비방향성 모드를 포함할 수 있다. 도 3에 도시된 바와 같이, 방향성 모드는 좌측 하단 방향의 2번 인트라 예측 모드를 시작으로 시계 방향으로 34번 인트라 예측 모드를 포함한다. 35번 예측 모드는 색차 성분에 대한 인트라 모드를 나타낼 수 있다. The intra prediction mode may include 33 directional prediction modes and two non-directional modes. As shown in FIG. 3, the directional mode includes the intra prediction mode 34 in the clockwise direction starting from the second intra prediction mode in the lower left direction. The prediction mode 35 may represent an intra mode for the color difference component.
표 1
Figure PCTKR2013005857-appb-T000001
Table 1
Figure PCTKR2013005857-appb-T000001
비방향성 모드인 Planer 모드(Intra_Planar)와 DC 모드(Intra_DC)는 각각 인트라 예측 모드 0번과 1번에 할당 될 수 있다. Planar mode Intra_Planar and DC mode Intra_DC, which are non-directional modes, may be allocated to intra prediction modes 0 and 1, respectively.
DC 모드에서는 고정된 하나의 값, 예를 들어 주위의 복원된 픽셀값의 평균값을 예측값으로 이용하고, Planer 모드에서는 현재 블록의 수직으로 인접한 픽셀값와 수평으로 인접한 픽셀값들을 이용하여 수직 방향 보간 및 수평 방향 보간을 수행하고, 이들의 평균값을 예측값으로 이용한다.In DC mode, a single fixed value, for example, the average value of surrounding reconstructed pixel values is used as a prediction value, and in Planer mode, vertical interpolation and horizontal use are performed using vertically adjacent pixel values of the current block and horizontally adjacent pixel values. Directional interpolation is performed, and their average value is used as the predicted value.
방향성 모드(Intra_Angular)는 기설정된 방향에 위치한 참조 픽셀과 현재 픽셀 간의 각도로 해당 방향을 나타내는 모드들을 의미하며, 수평 모드 및 수직 모드를 포함할 수 있다. 수직 모드는 현재 블록의 수직으로 인접한 픽셀값을 현재 블록의 예측값으로, 수평 모드는 수평으로 인접한 픽셀값을 현재 블록의 예측값으로 이용할 수 있다.The directional mode Intra_Angular refers to modes indicating a corresponding direction at an angle between a reference pixel located in a predetermined direction and a current pixel, and may include a horizontal mode and a vertical mode. In the vertical mode, vertically adjacent pixel values of the current block may be used as prediction values of the current block, and in the horizontal mode, horizontally adjacent pixel values may be used as prediction values of the current block.
현재 블록에 대한 인트라 예측 모드는 그 모드를 나타내는 값 자체로 전송될 수도 있으나, 현재 블록의 인트라 예측 모드가 될 가능성이 높은 후보 인트라 예측 모드들에 대한 정보로부터 유도될 수도 있다. The intra prediction mode for the current block may be transmitted with a value indicating the mode itself, but may be derived from information about candidate intra prediction modes that are likely to be the intra prediction mode of the current block.
예측부는 상술한 바와 같이 유도된 현재 블록에 대한 인트라 예측 모드를 이용하여 현재 블록의 루마 성분에 대한 예측값을 생성한다. 이하 루마 성분에 대한 예측값 생성에 대하여 간략히 설명하면 다음과 같다.The prediction unit generates a prediction value for the luma component of the current block by using the intra prediction mode for the current block derived as described above. Hereinafter, the generation of the predicted value for the luma component will be briefly described.
인트라 예측 모드로 예측된 현재 블록의 예측값은 TU 또는 PU 별로 생성될 수 있다. 현재 블록의 좌측에 인접한 샘플 및 현재 블록의 상측에 인접한 샘플들을 참조 샘플이라고 칭하고, 참조 샘플들을 이용하여 현재 블록의 예측값을 생성한다. 현재 블록의 좌측으로 인접한 샘플 또는 현재 블록의 상측으로 인접한 샘플이 가용하지 않다면, 가용하지 않은 샘플들은 기설정된 샘플의 값으로 대체될 수 있다. The prediction value of the current block predicted in the intra prediction mode may be generated for each TU or PU. The samples adjacent to the left side of the current block and the samples adjacent to the upper side of the current block are called reference samples, and reference values are used to generate prediction values of the current block. If a sample adjacent to the left of the current block or a sample adjacent to the upper side of the current block is not available, the samples that are not available may be replaced with the value of the predetermined sample.
만약, 모든 참조 샘플들이 가용하지 않다면 참조 샘플은 기설정된 하나의 값, 예를 들어 영상이 가질 수 있는 샘플값의 중간값으로 대체될 수 있다. If all reference samples are not available, the reference sample may be replaced with a predetermined value, for example, a median value of sample values that the image may have.
한편, 현재 블록의 좌측 최하단의 샘플이 가용하지 않으면 참조 샘플들을 일정 방향에 따라 검색하여 가용한 것으로 검색된 샘플의 샘플값을 좌측 최하단의 샘플값으로 대체한다. On the other hand, if the lower leftmost sample of the current block is not available, the reference samples are searched in a predetermined direction, and the sample value of the retrieved sample that is available is replaced with the left lowermost sample value.
또한, 현재 블록의 좌측에 인접한 샘플 중 가용하지 않은 샘플이 검색되면 가용하지 않은 샘플의 인접한, 예를 들어 바로 아래에 존재하는 샘플의 샘플값을 참조 샘플값으로 대체하고, 상측으로 인접한 샘플 중 가용하지 않은 샘플이 검색되면 가용하지 않은 샘플의 오른쪽에 존재하는 샘플의 샘플값을 참조 샘플값으로 대체할 수 있다.In addition, if a sample that is not available among the samples adjacent to the left of the current block is found, the sample value of the adjacent sample, which is immediately below the sample that is not available, is replaced with a reference sample value, and the available sample among the above adjacent samples is available. If a sample that has not been found is found, the sample value of the sample existing on the right side of the sample that is not available can be replaced with the reference sample value.
현재 블록에 인접한 샘플값들은 필터링을 거칠 수 있다. 필터링 여부 및 필터링 계수는 변환 블록의 크기 및 인트라 예측 모드에 따라 상이하게 설정될 수 있다. 필터링을 통하여 참조 샘플값과 인트라 예측이 적용된 후 생성된 예측값에 존재하는 단차가 스무딩되면 블록 경계에서 발생할 수 있는 불연속성이 감소될 수 있다.Sample values adjacent to the current block may be filtered. Whether to filter and the filtering coefficient may be set differently according to the size of the transform block and the intra prediction mode. When the step difference existing in the predicted value generated after the reference sample value and the intra prediction is applied through filtering, discontinuity that may occur at the block boundary may be reduced.
현재 블록의 인트라 예측 모드가 비방향성 모드인 Planar 모드이면, 현재 블록에 대한 예측값은 복 수개의 참조 샘플값들의 선형 보간값으로 구해질 수 있다.  If the intra prediction mode of the current block is a planar mode that is a non-directional mode, the prediction value for the current block may be obtained as a linear interpolation value of a plurality of reference sample values.
도 4는 현재 블록이 Planar 모드로 예측된 경우 예측값을 설명하기 위한 도면이다. 현재 블록(400)의 크기를 NxN (N은 정수)이라고 할 경우, 설명의 편의 상, 블록의 좌상단 샘플의 위치를 (0,0), 좌하단 샘플의 위치를 (0, N-1), 우상단 샘플의 위치를 (N-1, 0), 우하단 샘플의 위치를 (N-1, N-1)로 표현할 수 있다.4 is a diagram for describing a prediction value when a current block is predicted in a planar mode. When the size of the current block 400 is NxN (N is an integer), for convenience of explanation, the position of the upper left sample of the block is (0,0), the position of the lower left sample is (0, N-1), The position of the upper right sample may be expressed as (N-1, 0), and the position of the lower right sample may be expressed as (N-1, N-1).
생성하고자 하는 예측 샘플의 위치를 (x, y)라고 하면, 예측 샘플과 수직 방향으로 인접한 참조 샘플 a의 위치는 (x, -1)이고, 예측 샘플과 수평 방향으로 인접한 참조 샘플 b의 위치는 (-1, y)이다. 추가적으로 (N, -1)에 위치한 참조 샘플 c와 (-1, N)에 위치한 참조 샘플 d를 이용하여 예측 샘플의 예측값(P(x, y))은 수식 1에 의하여 연산될 수 있다. 참조 샘플 a의 샘플값은 a(x, -1), 참조 샘플 b의 샘플값은 b(-1, y), 참조 샘플 c의 샘플값은 c(N, -1), 참조 샘플 d의 샘플값은 d(-1, N)로 나타낸다.If the position of the prediction sample to be generated is (x, y), the position of the reference sample a adjacent to the prediction sample in the vertical direction is (x, -1), and the position of the reference sample b adjacent to the prediction sample in the horizontal direction is (-1, y). In addition, the prediction value P (x, y) of the prediction sample may be calculated by Equation 1 using the reference sample c located at (N, -1) and the reference sample d located at (-1, N). The sample value of reference sample a is a (x, -1), the sample value of reference sample b is b (-1, y), the sample value of reference sample c is c (N, -1), the sample value of reference sample d The value is represented by d (-1, N).
<수식 1><Equation 1>
Figure PCTKR2013005857-appb-I000002
Figure PCTKR2013005857-appb-I000002
현재 블록의 인트라 예측 모드가 DC 모드이면, 현재 블록에 대한 예측값은 참조 샘플값들의 평균값을 이용하여 생성될 수 있다. 예측 블록의 경계 영역, 즉 예측 블록의 좌측 경계와 우측 경계는 필터링될 수 있다.If the intra prediction mode of the current block is the DC mode, the prediction value for the current block may be generated using the average value of the reference sample values. The boundary region of the prediction block, that is, the left boundary and the right boundary of the prediction block may be filtered.
현재 블록의 인트라 예측 모드가 방향성 모드이면, 예측 모드의 방향에 존재하는 참조 샘플값을 이용하여 예측값을 생성할 수 있다. 예측 모드의 방향에 따라 참조 샘플들이 늘어날 수 있다. 또한 예측 모드가 수평 또는 수직 모드인 경우 참조 샘플과 인접한 경계에 위치하는 현재 블록의 예측값은 참조 샘플과 기설정된 위치에 존재하는 특정 샘플값들의 산술적 연산을 통하여 생성될 수 있다. 상기 산술적 연산은 참조 샘플과 인접한 경계 영역에 필터링을 적용하는 효과가 있으며, 이로 인하여 현재 블록과 이웃한 블록 간의 불연속성을 감소시킬 수 있다. If the intra prediction mode of the current block is the directional mode, the prediction value may be generated using the reference sample value present in the direction of the prediction mode. Reference samples may be stretched according to the direction of the prediction mode. In addition, when the prediction mode is a horizontal or vertical mode, the prediction value of the current block located at a boundary adjacent to the reference sample may be generated through arithmetic operation of specific sample values existing at a predetermined position with the reference sample. The arithmetic operation has an effect of applying filtering to the boundary region adjacent to the reference sample, thereby reducing the discontinuity between the current block and the neighboring block.
상기와 같이 휘도 성분으로 구성된 휘도 블록의 예측값이 생성되고, 생성된 예측값에 레지듀얼을 가산하면 현재 블록의 휘도 블록에 대한 복원값이 도출된다. As described above, a predicted value of the luminance block including the luminance component is generated, and when the residual is added to the generated predicted value, a restored value for the luminance block of the current block is derived.
휘도 성분에 대한 인트라 예측을 수행 시는 도 3의 방향성 인트라 예측 모드를 다 사용할 수 있지만 색차 성분에 대한 인트라 예측 모드를 수행 시는 방향성 인트라 예측 모드를 모두 사용하지 않고 일부의 방향성 인트라 예측 모드만으로 인트라 예측을 수행할 수 있다.When performing intra prediction on the luminance component, all of the directional intra prediction modes of FIG. 3 can be used. However, when performing intra prediction mode on the chrominance component, intra directional intra prediction mode is used only in some directional intra prediction modes without using all of the directional intra prediction modes. You can make predictions.
색차 성분에 대한 인트라 예측은 사선 방향 인트라 예측 모드(34번 인트라 예측 모드), 수직 방향 인트라 예측 모드(26번 인트라 예측 모드), 수평 방향 인트라 예측 모드(10번 인트라 예측 모드), DC 인트라 예측 모드 등을 사용할 수 있고 추가적으로 휘도 성분과 다른 인트라 예측 모드인 복원된 휘도 성분의 복원값을 기초로 색차 성분을 예측하는 LM(Luma Estimated Mode), 휘도 성분과 동일한 인트라 예측 모드인 DM(Luma Directed Mode)을 색차 성분의 인트라 예측에 사용할 수 있다.Intra prediction for the chrominance component includes diagonal intra prediction mode (intra prediction mode No. 34), vertical intra prediction mode (intra prediction mode No. 26), horizontal intra prediction mode (intra prediction mode No. 10), and DC intra prediction mode. And LM (Luma Estimated Mode) for predicting the color difference component based on the restored value of the restored luminance component, which is an intra prediction mode that is different from the luminance component, and the Luma Directed Mode (DM) which is the same intra prediction mode as the luminance component. Can be used for intra prediction of the chrominance component.
아래의 표 2는 LM, 수직 인트라 예측 모드(VER), 수평 인트라 예측 모드(HOR), DC 인트라 예측 모드, DM을 색차 블록의 인트라 예측 방법으로 사용한 경우 인트라 예측 모드와 인트라 예측 모드 번호 사이의 매핑 관계를 나타낸 표이다. Table 2 below shows the mapping between intra prediction mode and intra prediction mode numbers when LM, vertical intra prediction mode (VER), horizontal intra prediction mode (HOR), DC intra prediction mode, and DM are used as intra prediction methods of the chrominance block. This table shows the relationship.
표 2
Figure PCTKR2013005857-appb-T000002
TABLE 2
Figure PCTKR2013005857-appb-T000002
표 2를 참조하면, intra_chroma_pred_type 0은 LM(Luma Estimated Mode), intra_chroma_pred_type 1은 수직 인트라 예측 모드(VER), intra_chroma_pred_type 2는 수평 인트라 예측 모드(HOR), intra_chroma_pred_type이 3은 DC 인트라 예측 모드, intra_chroma_pred_type이 4는 DM(Luma Directed Mode)로 색차 블록에 대한 인트라 예측을 수행할 수 있다.Referring to Table 2, intra_chroma_pred_type 0 is Luma Estimated Mode (LM), intra_chroma_pred_type 1 is vertical intra prediction mode (VER), intra_chroma_pred_type 2 is horizontal intra prediction mode (HOR), intra_chroma_pred_type is 3 DC intra prediction mode, and intra_chroma_pred_type May perform intra prediction on a chrominance block in a DM (Luma Directed Mode).
휘도 블록과 색차 블록이 동일한 인트라 예측 모드를 가질 경우, DM으로 색차 블록의 인트라 예측 모드를 나타낼 수 있기 때문에 전술한 5 개의 색차 블록의 인트라 예측 모드 중 하나의 인트라 예측 모드에 대해 인트라 예측 번호를 매핑할 필요가 없다. 예를 들어, 휘도 블록의 인트라 예측 모드가 수직 인트라 예측 모드(Ver)이고 색차 블록이 수직 인트라 예측 모드(Ver)인 경우, intra_chroma_pred_type 4인 DM으로 색차 블록의 인트라 예측 모드를 나타낼 수 있기 때문에 intra_chroma_pred_type 1에 따로 인트라 예측 모드를 매핑할 필요성이 없다. 동일한 방법으로 휘도 블록의 인트라 예측 모드가 수직 인트라 예측 모드(VER), 수평 인트라 예측 모드(HOR), DC 인트라 예측 모드(DC)인 경우 4개의 intra_chroma_pred_type로 색차 블록의 인트라 예측 모드를 나타낼 수 있다.When the luminance block and the chrominance block have the same intra prediction mode, since the intra prediction mode of the chrominance block can be represented by DM, the intra prediction number is mapped to one of the intra prediction modes of the above five chrominance blocks. There is no need to do it. For example, if the intra prediction mode of the luminance block is the vertical intra prediction mode (Ver) and the chrominance block is the vertical intra prediction mode (Ver), intra_chroma_pred_type 1 because the intra prediction mode of the chrominance block may be represented by DM having intra_chroma_pred_type 4. There is no need to map intra prediction modes. In the same manner, when the intra prediction mode of the luminance block is the vertical intra prediction mode VER, the horizontal intra prediction mode HOR, or the DC intra prediction mode DC, four intra_chroma_pred_types may indicate the intra prediction mode of the chrominance block.
휘도 블록의 인트라 예측 모드가 수직 인트라 예측 모드, 수평 인트라 예측 모드, DC 모드가 아닌 나머지 방향성 인트라 예측 모드인 경우에는 DM 모드와 휘도 블록의 인트라 예측 모드가 중복되지 않으므로 DM 모드와 휘도 블록의 인트라 예측 모드가 중복될 경우와 다르게 5개의 intra_chroma_pred_type을 사용하여 색차 블록에 대한 인트라 예측을 수행할 수 있다.If the intra prediction mode of the luminance block is the vertical intra prediction mode, the horizontal intra prediction mode, or the remaining directional intra prediction mode other than the DC mode, the intra prediction mode of the DM mode and the luminance block is not overlapped since the DM mode and the intra prediction mode of the luminance block do not overlap. Unlike when the modes overlap, intra prediction may be performed on the color difference block using five intra_chroma_pred_types.
색차 블록의 인트라 예측을 수행하기 위해 사용되는 인트라 예측 모드 및 인트라 예측 모드와 인트라 예측 모드 번호 사이의 매핑 관계는 임의적인 것으로 변할 수 있다. 또한, 색차 블록은 LM을 사용할지 여부를 부호화 및 복호화 단계에서 결정할 수 있고 LM의 사용 여부에 따라 표 2는 달라질 수 있다. The intra prediction mode used to perform intra prediction of the chrominance block and the mapping relationship between the intra prediction mode and the intra prediction mode number may be changed to arbitrary. In addition, the color difference block may determine whether to use the LM in the encoding and decoding steps, and Table 2 may vary depending on whether the LM is used.
예를 들어, 아래의 표 3과 같이 추가적으로 사선 인트라 예측 모드(34번 인트라 예측 모드)와 플레이너 모드가 색차 블록의 인트라 예측 모드에 사용되는 것도 가능하다.For example, as shown in Table 3 below, an oblique intra prediction mode (intra prediction mode 34) and a planar mode may be used for the intra prediction mode of the chrominance block.
아래의 표 3은ㅇ LM 모드를 사용하여 색차 블록에 대한 인트라 예측을 수행할 경우 휘도 블록의 인트라 예측 모드와 색차 블록의 인트라 예측 모드 사이의 관계를 나타낸 것이다.Table 3 below shows the relationship between the intra prediction mode of the luminance block and the intra prediction mode of the chrominance block when performing intra prediction on the chrominance block using the LM mode.
표 3
Figure PCTKR2013005857-appb-T000003
TABLE 3
Figure PCTKR2013005857-appb-T000003
표 3을 참조하면, intra_chroma_pred_mode가 0이면 플레이너 모드, intra_chroma_pred_mode가 1이면 수직 인트라 예측 모드, intra_chroma_pred_mode가 2이면 수평 인트라 예측 모드, intra_chroma_pred_mode가 3이면 DC 모드, intra_chroma_pred_mode가 4이면 LM, intra_chroma_pred_mode가 5이면 DM으로 색차 블록의 인트라 예측 모드가 매핑될 수 있다.Referring to Table 3, planar mode if intra_chroma_pred_mode is 0, vertical intra prediction mode if intra_chroma_pred_mode is 1, horizontal intra prediction mode if intra_chroma_pred_mode is 2, DC mode if intra_chroma_pred_mode is 3, LM if intra_chroma_pred_mode is 4, and LM if intra_chroma_pred_mode is 4 Intra prediction modes of the chrominance block may be mapped.
표 3과 마찬가지로 만약, 휘도 블록의 인트라 예측 모드가 플레이너 모드, 수직 모드, 수평 모드, DC 모드인 경우 DM으로 색차 블록의 인트라 예측 모드로 표현할 수 있기 때문에 intra_chroma_pred_mode 중 DM으로 표현이 가능한 인트라 예측 모드에 대신 사선 인트라 모드(34번 인트라 예측 모드)를 포함시켜 사용할 수 있다.As shown in Table 3, if the intra prediction mode of the luminance block is the planar mode, the vertical mode, the horizontal mode, or the DC mode, the intra prediction mode that can be represented by the DM among intra_chroma_pred_mode can be represented by the intra prediction mode of the chrominance block. Instead, a diagonal intra mode (intra prediction mode 34) may be included instead.
DM으로 인해 불필요한 인트라 예측 모드의 경우 사선 인트라 예측 모드(34번 인트라 예측 모드)로 설정이 되었다. 하지만, 34번 인트라 예측 모드 대신 다른 인트라 예측 모드, 예를 들어, 18번 인트라 예측 모드 또는 2번 인트라 예측 모드도 34번 인트라 예측 모드로 사용될 수 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함된다. Due to the DM, an unnecessary intra prediction mode is set to an oblique intra prediction mode (intra prediction mode 34). However, other intra prediction modes instead of intra prediction mode 34, for example, intra prediction mode 18 or intra prediction mode 2 may also be used as the intra prediction mode 34 and such embodiments are also included in the scope of the present invention. .
어떠한 인트라 예측 모드를 대체 인트라 예측 모드로 사용할 지 여부에 대한 정보는 아래의 표와 같이 schedo code로 표현할 수 있다.Information about which intra prediction mode is used as an alternative intra prediction mode can be expressed by a schedo code as shown in the table below.
표 4
Figure PCTKR2013005857-appb-T000004
Table 4
Figure PCTKR2013005857-appb-T000004
표 4를 참조하면, 색차 블록의 인트라 예측 모드와 휘도 블록의 인트라 예측 모드가 동일할 경우, 휘도 블록의 인트라 예측 모드와 동일한 색차 블록의 인트라 예측 모드를 대체할 인트라 예측 모드를 substitute_mode라는 구문 요소 정보로 표현하여 색차 블록에 대한 인트라 예측을 수행할 수 있다.Referring to Table 4, when the intra prediction mode of the chrominance block and the intra prediction mode of the luminance block are the same, an intra prediction mode to substitute the intra prediction mode of the same chrominance block as the intra prediction mode of the luminance block is referred to as substitute_mode. Intra prediction may be performed on the chrominance block.
본 발명의 일 실시예에 따르면 색차 성분을 예측하기 위하여 LM를 이용할 경우, 즉 휘도 성분의 복원값을 이용할 수 있고, 색차 샘플의 예측값은 수식 2과 같은 선형식을 이용하여 생성될 수 있다. According to an embodiment of the present invention, when LM is used to predict a chrominance component, that is, a restored value of a luminance component may be used, and a predicted value of a chrominance sample may be generated using a linear equation such as Equation 2.
<수식 2><Formula 2>
Figure PCTKR2013005857-appb-I000003
Figure PCTKR2013005857-appb-I000003
이때, (x,y)는 하나의 TU 내의 위치를 지시할 수 있다. 즉, 현재 블록은 TU일 수 있다. Cpred는 샘플의 예측값을 의미하고, Lrecon은 루마 샘플의 복원값을 나타낸다. In this case, (x, y) may indicate a location in one TU. In other words, the current block may be a TU. Cpred means a predicted value of the sample, and Lrecon indicates a reconstructed value of the luma sample.
α와 β는 현재 블록 주변의 루마 샘플의 복원값과 색차 샘플의 복원값을 이용하여 구해지는 상수 파라미터이다. [alpha] and [beta] are constant parameters obtained by using the restored value of the luma sample around the current block and the restored value of the chrominance sample.
TU 단위로 α와 β를 구하는 경우의 디코딩 과정은 아래와 같다. The decoding process in the case of obtaining α and β in units of TU is as follows.
우선, 현재 픽처의 좌상단 샘플에 대한 현재 예측 블록의 좌상단 샘플에 위치하는 ( xB, yB )과 x, y = ?1..2*nS?1인 주변 샘플 p[ x, y ]이 입력값이 되며, 이때 변수 nS는 예측 블록의 크기가 된다. First, (xB, yB) located at the top left sample of the current prediction block for the top left sample of the current picture and the neighboring samples p [x, y] where x, y =? 1..2 * nS? 1 are input values. In this case, the variable nS is the size of the prediction block.
상기 입력값에 대하여 x, y =0..nS?1에 대한 예측값 predSamples[ x, y ]이 출력값으로 출력된 된다. The predicted value predSamples [x, y] for x, y = 0..nS? 1 is output as the output value with respect to the input value.
현재의 디코딩 과정은 인트라 예측 모드가 도 3의 35인 경우에 적용되며, 색차 성분의 예측값 predSamples[ x, y ]은 아래와 같이 도출된다.The current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
변수 k3과 샘플 어레이 pY’이 수식 3에 의하여 도출된다. The variable k3 and the sample array pY 'are derived by Equation 3.
<수식 3><Equation 3>
Figure PCTKR2013005857-appb-I000004
Figure PCTKR2013005857-appb-I000004
위의 수식 3을 통하여 전술한 바와 같이 선형 보간을 이용하여 새로운 제1 변수(k3, pY’)를 산출할 수 있다. As described above, through Equation 3, new first variables k3 and pY 'may be calculated using linear interpolation.
위의 수식 3에서 산출된 제1 변수를 이용하여 아래의 수식 4와 같은 α와 β를 산출하기 위한 제2 변수(L, C, LL, LC 및 k2)를 산출할 수 있다. By using the first variable calculated in Equation 3 above, the second variables L, C, LL, LC, and k2 for calculating α and β as shown in Equation 4 below may be calculated.
<수식 4><Equation 4>
Figure PCTKR2013005857-appb-I000005
Figure PCTKR2013005857-appb-I000005
수식 4를 통해 산출된 제2 변수를 기초로 수식 5의 방법을 이용하여 α와 β을 산출할 수 있다. Α and β may be calculated using the method of Equation 5 based on the second variable calculated through Equation 4.
<수식 5><Equation 5>
Figure PCTKR2013005857-appb-I000006
Figure PCTKR2013005857-appb-I000006
위의 수식 5을 기초로 산출된 α와 β를 이용해 아래의 수식 6를 기초로 LM을 이용한 색차 블록 샘플을 산출할 수 있다. A color difference block sample using LM may be calculated based on Equation 6 below using α and β calculated based on Equation 5 above.
<수식 6><Equation 6>
Figure PCTKR2013005857-appb-I000007
Figure PCTKR2013005857-appb-I000007
도 5는 본 발명의 실시예에 따른 현재 블록의 주변 및 내부에 존재하는 휘도 샘플값을 나타낸 것이다.5 illustrates luminance sample values present in and around a current block according to an embodiment of the present invention.
도 5를 참조하면, 제1 샘플(500)은 파라미터 α와 β를 산출하기 위해 사용되는 서브 샘플링된 휘도 샘플을 나타낸다. 제2 샘플(510)은 파라미터 α와 β를 산출하기 위해 사용되는 서브 샘플링된 휘도 샘플을 선형 보간한 샘플을 나타낸다.Referring to FIG. 5, the first sample 500 represents a subsampled luminance sample used to calculate the parameters α and β. The second sample 510 represents a sample of linear interpolation of the subsampled luminance samples used to calculate the parameters α and β.
제3 샘플(520)은 색차 샘플을 계산하기 위해 사용되는 서브 샘플링된 휘도 샘플을 나타낸다. 제4 샘플(530)은 색차 샘플을 계산하기 위해 사용되는 선형 보간을 수행한 서브샘플링된 휘도 샘플을 나타낸다. Third sample 520 represents the subsampled luminance sample used to calculate the chrominance sample. Fourth sample 530 represents a subsampled luminance sample with linear interpolation used to calculate the chrominance sample.
즉, 본 발명의 일 실시예에 따른 휘도 샘플을 이용한 색차 샘플 예측 방법에서는 색차 샘플을 예측할 때 휘도 샘플을 바로 사용하는 것이 아니라, 휘도 샘플과 색차 샘플의 거리의 차이를 고려한 선형 보간을 수행하여 선형 보간된 휘도 샘플값을 산출하여 사용할 수 있다. That is, in the method of predicting color difference samples using luminance samples according to an embodiment of the present invention, the linear color interpolation is performed by considering the difference between the distance between the luminance samples and the color difference samples, rather than using the luminance samples when predicting the color difference samples. The interpolated luminance sample value can be calculated and used.
이러한 선형 보간 방법을 사용함으로써 색차 신호와 휘도 신호의 위치가 다른 영상 포멧에서 색차 신호를 예측시 더욱 정확한 예측을 수행할 수 있다. 휘도 샘플과 색차 샘플의 위상 및 샘플링 레이트 차이를 기초로 선형 보간을 수행하여 휘도 샘플값을 산출할 수 있고 이러한 실시예 또한 본 발명의 권리 범위에 포함될 수 있다. By using this linear interpolation method, more accurate prediction can be performed when the color difference signal is predicted in an image format having different positions of the color difference signal and the luminance signal. The luminance sample value may be calculated by performing linear interpolation based on the phase and sampling rate difference between the luminance sample and the chrominance sample, and this embodiment may also be included in the scope of the present invention.
한편, 파라미터 α와 β는 색차 샘플이 예측되는 단위, 즉, TU마다 설정될 수도 있고, CU 별로 산출해서 하나의 CU에 포함되는 모든 TU에서 같은 α와 β를 사용할 수도 있다. On the other hand, the parameters α and β may be set for each unit in which color difference samples are predicted, that is, for each TU, or the same α and β may be used in all TUs calculated for each CU and included in one CU.
하나의 CU에서 α와 β를 산출하게 되면, 각 TU마다 α와 β를 산출하는 것에 비하여 휘도 샘플과 색차 샘플을 저장하고 있는 메모리에 억세스하는 횟수를 줄일 수 있으며, 메모리에 값을 저장하고 불러오는 과정을 줄일 수 있다. Computing α and β in one CU can reduce the number of times of access to the memory storing luminance samples and chrominance samples, compared to calculating α and β for each TU. Can be reduced.
뿐만 아니라 억세스하는 메모리의 크기 변화가 한정적이므로 하드웨어 구현 측면에서도 로드가 감소하는 효과가 있다. 또한 α와 β를 구할 때 사용되는 샘플의 개수가 TU 별로 α와 β를 산출하는 것에 비하여 증가하기 때문에 보다 일반적인 의미의 α와 β를 구할 수 있다. 따라서 CU 별로 α와 β를 구하는 경우 TU 별로 구하는 것에 비하여 표 5에 나타난 정도의 비트 디퍼런스 레이트(the average difference in the bit rate)의 차이가 있다.In addition, since the size of the accessed memory is limited, the load can be reduced in terms of hardware implementation. In addition, since the number of samples used when calculating α and β increases compared to calculating α and β for each TU, α and β of a more general meaning can be obtained. Therefore, in the case of obtaining α and β for each CU, there is a difference in the average difference in the bit rate as shown in Table 5 compared to obtaining for each TU.
표 5
Figure PCTKR2013005857-appb-T000005
Table 5
Figure PCTKR2013005857-appb-T000005
CU 단위로 α와 β를 구하는 경우의 디코딩 과정은 아래와 같다. The decoding process for obtaining α and β in CU units is as follows.
우선, 현재 픽처의 좌상단 샘플에 대한 현재 코딩 블록의 좌상단 샘플에 위치하는 ( xB, yB )과 x, y = ?1..2*nS?1인 주변 샘플 p[ x, y ]이 입력값이 되며, 이때 변수 nS는 코딩 블록의 크기가 된다. First, (xB, yB) located at the top left sample of the current coding block for the top left sample of the current picture and the surrounding sample p [x, y] where x, y =? 1..2 * nS? 1 are input values. In this case, the variable nS is the size of the coding block.
상기 입력값에 대하여 x, y =0..nS?1에 대한 예측값 predSamples[ x, y ]이 출력값으로 출력된 된다. The predicted value predSamples [x, y] for x, y = 0..nS? 1 is output as the output value with respect to the input value.
현재의 디코딩 과정은 인트라 예측 모드가 도 3의 35인 경우에 적용되며, 색차 성분의 예측값 predSamples[ x, y ]은 아래와 같이 도출된다.The current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
변수 k3과 샘플 어레이 pY’이 수식 7에 의하여 도출된다. The variable k3 and the sample array pY 'are derived by Equation 7.
<수식 7><Formula 7>
Figure PCTKR2013005857-appb-I000008
Figure PCTKR2013005857-appb-I000008
위의 수식 7을 통하여 전술한 바와 같이 선형 보간을 이용하여 새로운 제1 변수(k3, pY’)를 산출할 수 있다. As described above, a new first variable (k3, pY ′) may be calculated by using linear interpolation as described above.
위의 수식 7에서 산출된 제1 변수를 이용하여 아래의 수식 8와 같은 α와 β를 산출하기 위한 제2 변수(L, C, LL, LC 및 k2)를 산출할 수 있다. By using the first variable calculated in Equation 7 above, the second variables L, C, LL, LC, and k2 for calculating α and β as shown in Equation 8 below may be calculated.
<수식 8><Equation 8>
Figure PCTKR2013005857-appb-I000009
Figure PCTKR2013005857-appb-I000009
수식 8을 통해 산출된 제2 변수를 기초로 수식 9의 방법을 이용하여 α와 β을 산출할 수 있다. Α and β may be calculated using the method of Equation 9 based on the second variable calculated through Equation 8.
<수식 9><Equation 9>
Figure PCTKR2013005857-appb-I000010
Figure PCTKR2013005857-appb-I000010
위의 수식 9를 기초로 산출된 α와 β를 이용해 아래의 수식 10을 기초로 LM을 이용한 색차 블록 샘플을 산출할 수 있다. Color difference block samples using LM may be calculated based on Equation 10 below using α and β calculated based on Equation 9 above.
<수식 10><Equation 10>
Figure PCTKR2013005857-appb-I000011
Figure PCTKR2013005857-appb-I000011
한편, 본 발명의 다른 실시예에 따르면, α와 β는 LCU(largest coding unit) 주변을 이용하여 구할 수 있다. 즉 가장 큰 코딩 블록 다르게 표현하면 코딩 트리 블록(coding tree block, CTB) 단위 별로 α와 β가 산출될 수도 있다. 이 경우, 각 LCU 단위로 한 번만 α와 β을 산출하면 되므로 하드웨어 구현에 더 효과적이다. 이에 대한 디코딩 과정은 다음과 같다.On the other hand, according to another embodiment of the present invention, α and β can be obtained using the LCU (largest coding unit) surrounding. That is, if the largest coding block is expressed differently, α and β may be calculated for each coding tree block (CTB) unit. In this case, α and β need to be calculated only once for each LCU unit, which is more effective for hardware implementation. The decoding process for this is as follows.
우선, 현재 픽처의 좌상단 샘플에 대한 현재 코딩 트리 블록의 좌상단 샘플에 위치하는 ( xB, yB )과 x, y = ?1..2*nS?1인 주변 샘플 p[ x, y ]이 입력값이 되며, 이때 변수 nS는 코딩 트리 블록의 크기가 된다. First, (xB, yB) located at the top left sample of the current coding tree block for the top left sample of the current picture and the surrounding samples p [x, y] where x, y =? 1..2 * nS? 1 are input values. In this case, the variable nS is the size of the coding tree block.
상기 입력값에 대하여 x, y =0..nS?1에 대한 예측값 predSamples[ x, y ]이 출력값으로 출력된 된다. The predicted value predSamples [x, y] for x, y = 0..nS? 1 is output as the output value with respect to the input value.
현재의 디코딩 과정은 인트라 예측 모드가 도 3의 35인 경우에 적용되며, 색차 성분의 예측값 predSamples[ x, y ]은 아래와 같이 도출된다.The current decoding process is applied when the intra prediction mode is 35 in FIG. 3, and the predicted value predSamples [x, y] of the color difference component is derived as follows.
변수 k3과 샘플 어레이 pY’이 수식 11에 의하여 도출된다. The variable k3 and the sample array pY 'are derived by Equation 11.
<수식 11><Equation 11>
Figure PCTKR2013005857-appb-I000012
Figure PCTKR2013005857-appb-I000012
위의 수식 11을 통하여 전술한 바와 같이 선형 보간을 이용하여 새로운 제1 변수(k3, pY’)를 산출할 수 있다. As described above, through Equation 11, new first variables k3 and pY 'may be calculated using linear interpolation.
위의 수식 11에서 산출된 제1 변수를 이용하여 아래의 수식 12와 같은 α와 β를 산출하기 위한 제2 변수(L, C, LL, LC 및 k2)를 산출할 수 있다.By using the first variable calculated in Equation 11 above, the second variables L, C, LL, LC, and k2 for calculating α and β as shown in Equation 12 below may be calculated.
<수식 12><Equation 12>
Figure PCTKR2013005857-appb-I000013
Figure PCTKR2013005857-appb-I000013
수식 12을 통해 산출된 제2 변수를 기초로 수식 13의 방법을 이용하여 α와 β을 산출할 수 있다. Α and β may be calculated using the method of Equation 13 based on the second variable calculated through Equation 12.
<수식 13><Equation 13>
Figure PCTKR2013005857-appb-I000014
Figure PCTKR2013005857-appb-I000014
위의 수식 13를 기초로 산출된 α와 β를 이용해 아래의 수식 14을 기초로 LM을 이용한 색차 블록 샘플을 산출할 수 있다. Color difference block samples using LM may be calculated based on Equation 14 below using α and β calculated based on Equation 13 above.
<수식 14><Equation 14>
Figure PCTKR2013005857-appb-I000015
Figure PCTKR2013005857-appb-I000015
도 6은 본 발명의 일 실시예에 다른 영상 디코딩 방법, 구체적으로 색차 성분에 LM를 적용할 때의 예측 방법을 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining another image decoding method according to an embodiment of the present invention, specifically, a prediction method when LM is applied to a color difference component.
우선, 예측부는 현재 블록의 휘도 성분에 대한 복원값을 생성한다(S610).First, the prediction unit generates a reconstruction value for the luminance component of the current block (S610).
휘도 성분으로 구성된 휘도 블록은 방향성 모드 및 비방향성 모드를 포함하는 인트라 예측 모드 중 휘도 블록의 예측에 가장 적합한 모드를 이용하여 예측값이 유도되고, 예측값이 레지듀얼과 더해져 휘도 성분이 복원될 수 있다. In the luminance block including the luminance component, a prediction value is derived using a mode most suitable for prediction of the luminance block among intra prediction modes including a directional mode and a non-directional mode, and the prediction value is added to the residual to restore the luminance component.
그런 후, 현재 블록의 휘도 성분의 복원값에 기초하여 영상의 분할 단위 별로 설정된 파라미터의 산술 연산에 기초하여 색차 성분을 예측한다(S620). Then, the color difference component is predicted based on an arithmetic operation of a parameter set for each division unit of the image based on the restored value of the luminance component of the current block (S620).
이 때 영상의 분할 단위는 코딩 유닛일 수도 있고, 변환 유닛일 수도 있으며 코딩 트리 블록 별로 설정될 수도 있다. 또는 에측 유닛 별로 파라미터 α와 β가 산출될 수도 있다. In this case, the division unit of the image may be a coding unit, a transformation unit, or may be set for each coding tree block. Alternatively, the parameters α and β may be calculated for each prediction unit.
파라미터 α와 β가 산출되는 블록의 단위가 커질수록 코딩 및 디코딩해야 하는 영상 정보량이 감소하게 되어 영상의 코딩 및 디코딩 효율이 증가할 수 있다. As the unit of the block in which the parameters α and β are calculated increases, the amount of image information to be coded and decoded decreases, thereby increasing coding and decoding efficiency of the image.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함할 수 있으므로 각 실시예의 조합 역시 본 발명의 일 실시예로서 이해되어야 할 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.In the exemplary system described above, the methods are described based on a flowchart as a series of steps or blocks, but the invention is not limited to the order of steps, and certain steps may occur in a different order or concurrently with other steps than those described above. Can be. In addition, since the above-described embodiments may include examples of various aspects, a combination of each embodiment should also be understood as an embodiment of the present invention. Accordingly, the invention is intended to embrace all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (10)

  1. 현재 블록의 휘도 성분에 대한 복원값을 생성하는 단계와;Generating a reconstruction value for the luminance component of the current block;
    상기 휘도 성분의 복원값에 기초하여 상기 현재 블록의 색차 성분을 예측하는 단계를 포함하고, Predicting a color difference component of the current block based on a reconstruction value of the luminance component,
    상기 색차 성분의 예측값은 상기 휘도 성분의 복원값과 기설정된 파라미터의 산술 연산으로 도출되며,The predicted value of the color difference component is derived by an arithmetic operation of the restored value of the luminance component and a predetermined parameter,
    상기 파라미터는 영상의 분할 단위 별로 설정되는 것을 특징으로 하는 영상 디코딩 방법.And the parameter is set for each division unit of an image.
  2. 제1항에 있어서,The method of claim 1,
    상기 파라미터는 코딩 유닛 별로 설정되는 것을 특징으로 하는 영상 디코딩 방법.And the parameter is set for each coding unit.
  3. 제1항에 있어서,The method of claim 1,
    상기 파라미터는 변환 유닛 별로 설정되는 것을 특징으로 하는 영상 디코딩 방법.And the parameter is set for each transform unit.
  4. 제1항에 있어서, The method of claim 1,
    상기 파라미터는 코딩 트리 블록 별로 설정되는 것을 특징으로 하는 영상 디코딩 방법.And the parameter is set for each coding tree block.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4,
    상기 색차 성분의 예측값은 다음식과 같이 연산되는 것을 특징으로 하는 영상 디코딩 방법.The prediction value of the chrominance component is calculated as in the following equation.
    Figure PCTKR2013005857-appb-I000016
    Figure PCTKR2013005857-appb-I000016
    (Lrecon: 루마 성분의 복원값, α, β: 파라미터)(Lrecon: restored value of luma component, α, β: parameter)
  6. 현재 블록의 휘도 성분에 대한 복원값에 기초하여 상기 현재 블록의 색차 성분을 예측하는 예측부를 포함하고, A predicting unit predicting a color difference component of the current block based on a reconstruction value of the luminance component of the current block;
    상기 색차 성분의 예측값은 상기 휘도 성분의 복원값과 기설정된 파라미터의 산술 연산으로 도출되며,The predicted value of the color difference component is derived by an arithmetic operation of the restored value of the luminance component and a predetermined parameter,
    상기 파라미터는 영상의 분할 단위 별로 설정되는 것을 특징으로 하는 영상 디코딩 장치.And the parameter is set for each division unit of an image.
  7. 제6항에 있어서,The method of claim 6,
    상기 파라미터는 코딩 유닛 별로 설정되는 것을 특징으로 하는 영상 디코딩 장치.And the parameter is set for each coding unit.
  8. 제6항에 있어서,The method of claim 6,
    상기 파라미터는 변환 유닛 별로 설정되는 것을 특징으로 하는 영상 디코딩 장치.And the parameter is set for each conversion unit.
  9. 제6항에 있어서, The method of claim 6,
    상기 파라미터는 코딩 트리 블록 별로 설정되는 것을 특징으로 하는 영상 디코딩 장치.And the parameter is set for each coding tree block.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,The method according to any one of claims 6 to 9,
    상기 색차 성분의 예측값은 다음식과 같이 연산되는 것을 특징으로 하는 영상 디코딩 장치.The prediction value of the chrominance component is calculated as follows.
    Figure PCTKR2013005857-appb-I000017
    Figure PCTKR2013005857-appb-I000017
    (Lrecon: 루마 성분의 복원값, α, β: 파라미터)(Lrecon: restored value of luma component, α, β: parameter)
PCT/KR2013/005857 2012-07-02 2013-07-02 Method for decoding image and apparatus using same WO2014007514A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261666927P 2012-07-02 2012-07-02
US201261666926P 2012-07-02 2012-07-02
US61/666,926 2012-07-02
US61/666,927 2012-07-02

Publications (1)

Publication Number Publication Date
WO2014007514A1 true WO2014007514A1 (en) 2014-01-09

Family

ID=49882221

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/005857 WO2014007514A1 (en) 2012-07-02 2013-07-02 Method for decoding image and apparatus using same

Country Status (1)

Country Link
WO (1) WO2014007514A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019059640A1 (en) * 2017-09-19 2019-03-28 엘지전자 주식회사 Intra prediction mode-based image processing method and apparatus therefor
US10757427B2 (en) 2015-06-10 2020-08-25 Interdigital Vc Holdings, Inc. Method and device for obtaining color difference components for color picture data
CN114128272A (en) * 2019-06-20 2022-03-01 Lg电子株式会社 Video or image coding based on mapping of luma samples and scaling of chroma samples

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080004013A (en) * 2006-07-04 2008-01-09 삼성전자주식회사 An video encoding/decoding method and apparatus
KR20100095914A (en) * 2009-02-23 2010-09-01 에스케이 텔레콤주식회사 Video encoding/decoding method and apparatus using channel correlation and computer readable recording medium therefor
JP2011030271A (en) * 2002-04-18 2011-02-10 Toshiba Corp Method and apparatus for generating predicted image
US20110255591A1 (en) * 2010-04-09 2011-10-20 Lg Electronics Inc. Method and apparatus for processing video data
WO2012081879A1 (en) * 2010-12-14 2012-06-21 Oh Soo Mi Method for decoding inter predictive encoded motion pictures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030271A (en) * 2002-04-18 2011-02-10 Toshiba Corp Method and apparatus for generating predicted image
KR20080004013A (en) * 2006-07-04 2008-01-09 삼성전자주식회사 An video encoding/decoding method and apparatus
KR20100095914A (en) * 2009-02-23 2010-09-01 에스케이 텔레콤주식회사 Video encoding/decoding method and apparatus using channel correlation and computer readable recording medium therefor
US20110255591A1 (en) * 2010-04-09 2011-10-20 Lg Electronics Inc. Method and apparatus for processing video data
WO2012081879A1 (en) * 2010-12-14 2012-06-21 Oh Soo Mi Method for decoding inter predictive encoded motion pictures

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM ET AL.: "New intra chroma prediction using inter-channel correlation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG1 2ND MEETING, 21 July 2010 (2010-07-21), GENEVA, CH *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757427B2 (en) 2015-06-10 2020-08-25 Interdigital Vc Holdings, Inc. Method and device for obtaining color difference components for color picture data
WO2019059640A1 (en) * 2017-09-19 2019-03-28 엘지전자 주식회사 Intra prediction mode-based image processing method and apparatus therefor
CN114128272A (en) * 2019-06-20 2022-03-01 Lg电子株式会社 Video or image coding based on mapping of luma samples and scaling of chroma samples
US11902527B2 (en) 2019-06-20 2024-02-13 Lg Electronics Inc. Video or image coding based on mapping of luma samples and scaling of chroma samples
CN114128272B (en) * 2019-06-20 2024-03-26 Lg电子株式会社 Video or image coding based on mapping of luma samples and scaling of chroma samples

Similar Documents

Publication Publication Date Title
WO2012148138A2 (en) Intra-prediction method, and encoder and decoder using same
WO2020071830A1 (en) Image coding method using history-based motion information, and device therefor
WO2017052081A1 (en) Inter prediction method and apparatus in image coding system
WO2017034331A1 (en) Method and device for chroma sample intra prediction in video coding system
WO2017082443A1 (en) Method and apparatus for adaptively predicting image using threshold value in image coding system
WO2013154366A1 (en) Transform method based on block information, and apparatus using said method
WO2017014412A1 (en) Intra prediction method and device in video coding system
WO2016052977A1 (en) Method and apparatus for processing video signal
WO2014098456A2 (en) Method for encoding/decoding image, and device using same
WO2017057877A1 (en) Method and apparatus of filtering image in image coding system
WO2017061671A1 (en) Method and device for coding image on basis of adaptive transformation in image coding system
WO2014084656A1 (en) Method and device for encoding/ decoding image supporting plurality of layers
WO2016204374A1 (en) Image filtering method and device in image coding system
WO2016114583A1 (en) Method and device for processing video signal
WO2013162249A1 (en) Video-encoding method, video-decoding method, and apparatus implementing same
WO2020242145A1 (en) Video coding method and apparatus using adaptive parameter set
WO2020167097A1 (en) Derivation of inter-prediction type for inter prediction in image coding system
WO2020071879A1 (en) Transform coefficient coding method and device therefor
WO2016122253A1 (en) Method and apparatus for processing video signals
WO2016122251A1 (en) Method and apparatus for processing video signals
WO2017052272A1 (en) Method and apparatus for intra prediction in video coding system
WO2014038905A2 (en) Image decoding method and apparatus using same
WO2016178485A1 (en) Method and device for processing coding unit in image coding system
WO2014051372A1 (en) Image decoding method and apparatus using same
WO2013147495A1 (en) Scalable video encoding/decoding method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13813914

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13813914

Country of ref document: EP

Kind code of ref document: A1