WO2020139039A1 - 영상 부/복호화 방법 및 장치 - Google Patents

영상 부/복호화 방법 및 장치 Download PDF

Info

Publication number
WO2020139039A1
WO2020139039A1 PCT/KR2019/018643 KR2019018643W WO2020139039A1 WO 2020139039 A1 WO2020139039 A1 WO 2020139039A1 KR 2019018643 W KR2019018643 W KR 2019018643W WO 2020139039 A1 WO2020139039 A1 WO 2020139039A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
prediction
luminance
pixel
intra
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2019/018643
Other languages
English (en)
French (fr)
Inventor
이배근
전동산
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellectual Discovery Co Ltd
Original Assignee
Intellectual Discovery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intellectual Discovery Co Ltd filed Critical Intellectual Discovery Co Ltd
Priority to CN202410315329.0A priority Critical patent/CN118200555A/zh
Priority to US17/418,583 priority patent/US12010299B2/en
Priority to CN201980092849.7A priority patent/CN113475063B/zh
Priority to CN202410315325.2A priority patent/CN118200554A/zh
Priority to CN202410315336.0A priority patent/CN118200556A/zh
Priority to CN202410315311.0A priority patent/CN118200553A/zh
Publication of WO2020139039A1 publication Critical patent/WO2020139039A1/ko
Anticipated expiration legal-status Critical
Priority to US18/652,697 priority patent/US20240291973A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Definitions

  • the present invention relates to a video signal processing method and apparatus.
  • Video compression is largely composed of intra prediction (or intra prediction), inter prediction (or inter prediction), transformation, quantization, entropy coding, and in-loop filter.
  • intra prediction or intra prediction
  • inter prediction or inter prediction
  • transformation or quantization
  • quantization or in-loop filter
  • An object of the present invention is to provide a method and apparatus for adaptively splitting a picture.
  • An object of the present invention is to provide an intra prediction method and apparatus.
  • An object of the present invention is to provide an inter prediction method and apparatus.
  • the present invention aims to provide a reference-based prediction method between components.
  • the video encoding/decoding method and apparatus determines an intra prediction mode of a color difference block, specifies a luminance region for reference between components of the color difference block, downsamples the specified luminance region, and the color difference A parameter for reference between components of a block is derived, and the color difference block can be predicted using a luminance block corresponding to the color difference block and the parameter.
  • the luminance region may include at least one of a luminance block corresponding to the color difference block or a neighboring region adjacent to the luminance block.
  • the intra prediction mode of the chrominance block may be derived based on a predetermined group and index composed of inter-component reference-based prediction modes.
  • the inter-component reference-based prediction mode refers to a first mode that references both the left and upper regions adjacent to the chrominance block, and a left region adjacent to the chrominance block. It may include at least one of the second mode or a third mode referring to an upper region adjacent to the color difference block.
  • a neighboring region adjacent to the luminance block includes at least one of an upper neighboring region and a left neighboring region, and the upper neighboring region includes n pixel lines,
  • the left neighboring region may include m pixel lines.
  • downsampling of a neighboring region adjacent to the luminance block may be performed using only a luminance pixel at a specific location and surrounding pixels of the luminance pixel.
  • the specific position may be determined based on a position of a selected pixel among a plurality of pixels belonging to a neighboring region of the color difference block.
  • the selected pixel may be one or more pixels located at predetermined intervals in a neighboring region of the color difference block.
  • the peripheral pixels may be pixels located in at least one of the left, right, top, bottom, left, top, bottom, right, or bottom ends of the luminance pixels. have.
  • the step of deriving the parameter for reference between the components comprises: a maximum value and a minimum value from a plurality of pixels obtained through downsampling of a neighboring region of the luminance block. It includes a step of calculating, the parameter for reference between the components can be derived using the calculated maximum and minimum values.
  • the digital storage medium determines an intra prediction mode of a chrominance block, specifies a luminance region for reference between components of the chrominance block, downsamples the specified luminance region, and inter-components of the chrominance block
  • a video decoding program that derives a parameter for reference and performs the process of predicting the color difference block by applying the parameter to the downsampled luminance region may be recorded/stored.
  • encoding/decoding efficiency of a video signal can be improved by dividing a picture into predetermined units and performing encoding/decoding.
  • the present invention can improve the coding efficiency of intra prediction by using a subdivided directional mode and/or selective pixel lines.
  • the present invention can improve encoding efficiency of inter prediction by using affine mode or inter-domain motion information.
  • the present invention can improve reference-based prediction efficiency between components through downsampling/subsampling for a luminance region.
  • FIG. 1 is a block diagram showing an image encoding apparatus according to the present invention.
  • FIG. 2 is a block diagram showing an image decoding apparatus according to the present invention.
  • 3 to 5 is an embodiment to which the present invention is applied, and shows a method of dividing a picture into a plurality of blocks.
  • FIG. 6 is an embodiment to which the present invention is applied, and schematically shows a process of restoring a current block.
  • FIG 7 illustrates an inter prediction method as an embodiment to which the present invention is applied.
  • 8 to 10 is an embodiment to which the present invention is applied, and shows an affine inter prediction method.
  • FIG. 11 shows a range of spatial peripheral blocks for merge mode as an embodiment to which the present invention is applied.
  • 12 to 18 are temporary examples to which the present invention is applied, and show a merge mode using motion information of an inter area.
  • 19 and 20 is an embodiment to which the present invention is applied, and shows a merge mode based on MPMM.
  • 21 to 30 is an embodiment to which the present invention is applied, and shows an intra prediction method.
  • 31 is an embodiment to which the present invention is applied, and illustrates a method for predicting a reference based on components.
  • 32 to 38 is an embodiment to which the present invention is applied, and shows a method for deriving parameters for downsampling and reference between components in a peripheral region of a luminance block.
  • 39 and 40 show an embodiment to which the present invention is applied, and show a method of applying an in-loop filter to a reconstructed block.
  • the video encoding/decoding method and apparatus determines an intra prediction mode of a color difference block, specifies a luminance region for reference between components of the color difference block, downsamples the specified luminance region, and the color difference A parameter for reference between components of a block is derived, and the color difference block can be predicted using a luminance block corresponding to the color difference block and the parameter.
  • the luminance region may include at least one of a luminance block corresponding to the color difference block or a neighboring region adjacent to the luminance block.
  • the intra prediction mode of the chrominance block may be derived based on a predetermined group and index composed of inter-component reference-based prediction modes.
  • the inter-component reference-based prediction mode refers to a first mode that references both the left and upper regions adjacent to the chrominance block, and a left region adjacent to the chrominance block. It may include at least one of the second mode or a third mode referring to an upper region adjacent to the color difference block.
  • a neighboring region adjacent to the luminance block includes at least one of an upper neighboring region and a left neighboring region, and the upper neighboring region includes n pixel lines,
  • the left neighboring region may include m pixel lines.
  • downsampling of a neighboring region adjacent to the luminance block may be performed using only a luminance pixel at a specific location and surrounding pixels of the luminance pixel.
  • the specific position may be determined based on a position of a selected pixel among a plurality of pixels belonging to a neighboring region of the color difference block.
  • the selected pixel may be one or more pixels located at predetermined intervals in a neighboring region of the color difference block.
  • the peripheral pixels may be pixels located in at least one of the left, right, top, bottom, left, top, bottom, right, or bottom ends of the luminance pixels. have.
  • the step of deriving the parameter for reference between the components comprises: a maximum value and a minimum value from a plurality of pixels obtained through downsampling of a neighboring region of the luminance block. It includes a step of calculating, the parameter for reference between the components can be derived using the calculated maximum and minimum values.
  • the digital storage medium determines an intra prediction mode of a chrominance block, specifies a luminance region for reference between components of the chrominance block, downsamples the specified luminance region, and inter-components of the chrominance block
  • a video decoding program that derives a parameter for reference and performs the process of predicting the color difference block by applying the parameter to the downsampled luminance region may be recorded/stored.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.
  • a part of the configuration of the apparatus or a part of the method may be omitted.
  • the order of some of the components of the device or the steps of the method may be changed.
  • other configurations or other steps may be inserted in some of the configuration of the device or in some of the steps of the method.
  • each component shown in the embodiments of the present invention are shown independently to indicate different characteristic functions, and do not mean that each component is composed of separate hardware or one software component unit. That is, for convenience of description, each component is listed as each component, and at least two components of each component may be combined to form one component, or one component may be divided into a plurality of components to perform a function.
  • the integrated and separate embodiments of each of these components are also included in the scope of the present invention without departing from the essence of the present invention.
  • blocks may be variously expressed in units, regions, units, partitions, and the like, and samples may be variously expressed in pixels, pels, pixels, and the like.
  • FIG. 1 is a block diagram showing an image encoding apparatus according to the present invention.
  • the conventional image encoding apparatus 100 includes a picture division unit 110, a prediction unit 120, 125, a transformation unit 130, a quantization unit 135, a reordering unit 160, and an entropy encoding unit 165, an inverse quantization unit 140, an inverse conversion unit 145, a filter unit 150, and a memory 155.
  • the picture division unit 110 may divide the input picture into at least one processing unit.
  • the processing unit may be a prediction unit (PU), a transformation unit (TU), or a coding unit (CU).
  • a coding unit may be used as a meaning of a unit that performs coding, or may be used as a meaning of a unit that performs decoding.
  • the prediction unit may be divided into at least one square or rectangular shape having the same size within one coding unit, and one prediction unit among the prediction units split within one coding unit may be another prediction unit. It may be divided into units having different shapes and/or sizes.
  • intra prediction may be performed without dividing into a plurality of prediction units NxN.
  • the prediction units 120 and 125 may include an inter prediction unit 120 that performs inter prediction or inter-screen prediction, and an intra prediction unit 125 that performs intra prediction or intra-screen prediction. It is determined whether to use inter prediction or intra prediction for a prediction unit, and specific information (eg, intra prediction mode, motion vector, reference picture, etc.) according to each prediction method may be determined.
  • the residual value (residual block) between the generated prediction block and the original block may be input to the transform unit 130.
  • prediction mode information, motion vector information, and the like used for prediction may be encoded by the entropy encoding unit 165 together with the residual value and transmitted to the decoder.
  • the inter-prediction unit 120 may predict a prediction unit based on information of at least one of a previous picture or a subsequent picture of the current picture, and in some cases, predicts the prediction unit based on information of some regions that have been coded in the current picture. Units can also be predicted.
  • the inter prediction unit 120 may include a reference picture interpolation unit, a motion prediction unit, and a motion compensation unit.
  • the reference picture interpolator may receive reference picture information from the memory 155 and generate pixel information of an integer pixel or less in the reference picture.
  • a DCT-based 8-tap interpolation filter (DCT-based interpolation filter) having different filter coefficients may be used to generate pixel information of integer pixels or less in units of 1/4 pixels.
  • a DCT-based interpolation filter (DCT-based interpolation filter) having different filter coefficients may be used to generate pixel information of an integer pixel or less in units of 1/8 pixels.
  • the motion prediction unit may perform motion prediction based on the reference picture interpolated by the reference picture interpolation unit.
  • various methods such as Full Search-based Block Matching Algorithm (FBMA), Three Step Search (TSS), and New Three-Step Search Algorithm (NTS) can be used.
  • the motion vector may have a motion vector value in units of 1/2 or 1/4 pixels based on the interpolated pixels.
  • the motion prediction unit may predict a current prediction unit by differently using a motion prediction method.
  • various methods such as a skip mode, a merge mode, an AMVP mode, an intra block copy mode, and an affine mode can be used.
  • the intra prediction unit 125 may generate a prediction unit based on reference pixel information around a current block, which is pixel information in a current picture. If the neighboring block of the current prediction unit is a block that has undergone inter prediction, and the reference pixel is a pixel that has undergone inter prediction, the reference pixel included in the block that has undergone inter prediction is a reference pixel of the block that has performed intra prediction around it. Can be used as a substitute for information. That is, when the reference pixel is not available, the available reference pixel information may be replaced with at least one reference pixel among the available reference pixels.
  • a residual block including prediction units that perform prediction based on prediction units generated by the prediction units 120 and 125 and residual information that is a difference value from the original block of the prediction unit may be generated.
  • the generated residual block may be input to the conversion unit 130.
  • the transform unit 130 includes a residual block including residual information of a prediction unit generated through the original block and the prediction units 120 and 125, and DCT (Discrete Cosine Transform), DST (Discrete Sine Transform), and KLT. It can be converted using the same conversion method. Whether DCT, DST, or KLT is applied to transform the residual block may be determined based on intra prediction mode information of a prediction unit used to generate the residual block.
  • DCT Discrete Cosine Transform
  • DST Discrete Sine Transform
  • KLT Discrete Sine Transform
  • the quantization unit 135 may quantize values converted from the conversion unit 130 to the frequency domain.
  • the quantization coefficient may vary depending on the block or the importance of the image.
  • the value calculated by the quantization unit 135 may be provided to the inverse quantization unit 140 and the rearrangement unit 160.
  • the rearrangement unit 160 may rearrange the coefficient values with respect to the quantized residual value.
  • the reordering unit 160 may change a block shape coefficient of 2D into a vector form of 1D through a coefficient scanning method.
  • the rearrangement unit 160 may scan a DC coefficient to a coefficient in a high frequency region using a Zig-Zag Scan method and change it into a one-dimensional vector form.
  • a vertical scan in which two-dimensional block shape coefficients are scanned in the column direction and a horizontal scan in which two-dimensional block shape coefficients are scanned in the row direction may be used instead of the zig-zag scan. That is, depending on the size of the transform unit and the intra-prediction mode, it is possible to determine whether a scan method is used among zigzag scan, vertical scan, and horizontal scan.
  • the entropy encoding unit 165 may perform entropy encoding based on values calculated by the reordering unit 160.
  • various encoding methods such as exponential Golomb, CAVLC (Context-Adaptive Variable Length Coding), and CABAC (Context-Adaptive Binary Arithmetic Coding) can be used.
  • the entropy encoding unit 165 may encode residual value coefficient information of a coding unit from the reordering unit 160 and the prediction units 120 and 125.
  • the inverse quantization unit 140 and the inverse transformation unit 145 inverse quantize the values quantized by the quantization unit 135 and inversely transform the values converted by the conversion unit 130.
  • the residual values generated by the inverse quantization unit 140 and the inverse transformation unit 145 are restored by being combined with the prediction units predicted through the motion estimation unit, the motion compensation unit, and the intra prediction unit included in the prediction units 120 and 125 You can create a Reconstructed Block.
  • the filter unit 150 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • the deblocking filter can remove block distortion caused by boundary between blocks in the reconstructed picture.
  • the offset correction unit may correct an offset from the original image in units of pixels for the deblocking image. In order to perform offset correction for a specific picture, after dividing the pixels included in the image into a certain number of regions, determining the region to perform the offset and applying the offset to the region, or offset by considering the edge information of each pixel You can use the method of applying.
  • ALF Adaptive Loop Filtering
  • the memory 155 may store the reconstructed block or picture calculated through the filter unit 150, and the stored reconstructed block or picture may be provided to the predictors 120 and 125 when performing inter prediction.
  • FIG. 2 is a block diagram showing an image decoding apparatus according to the present invention.
  • the image decoder 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, 235, and a filter unit ( 240), a memory 245 may be included.
  • the input bitstream may be decoded in a procedure opposite to that of the image encoder.
  • the entropy decoding unit 210 may perform entropy decoding in a procedure opposite to that performed by entropy encoding in the entropy encoding unit of the image encoder. For example, various methods such as Exponential Golomb (CAVLC), Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied to the method performed in the image encoder.
  • CAVLC Exponential Golomb
  • CAVLC Context-Adaptive Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy decoding unit 210 may decode information related to intra prediction and inter prediction performed by the encoder.
  • the reordering unit 215 may perform reordering based on a method of reordering the bitstream entropy-decoded by the entropy decoding unit 210 in the encoding unit.
  • the coefficients expressed in the form of a one-dimensional vector can be reconstructed by reconstructing the coefficients in a two-dimensional block form again.
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoder and the coefficient values of the rearranged blocks.
  • the inverse transform unit 225 may perform inverse transform, that is, inverse DCT, inverse DST, and inverse KLT, for transforms performed by the transform unit for the quantization results performed by the image encoder, that is, DCT, DST, and KLT.
  • the inverse transform may be performed based on the transmission unit determined by the image encoder.
  • a transform method for example, DCT, DST, KLT
  • a plurality of information such as a prediction method, a current block size, and a prediction direction.
  • the prediction units 230 and 235 may generate prediction blocks based on prediction block generation related information provided by the entropy decoding unit 210 and previously decoded block or picture information provided by the memory 245.
  • Intra-prediction of the prediction unit is performed based on the pixel existing at the top, but when the size of the prediction unit and the size of the transformation unit are different when performing intra prediction, intra prediction is performed using a reference pixel based on the transformation unit. You can make predictions.
  • intra prediction using NxN splitting may be used only for the smallest coding unit.
  • the prediction units 230 and 235 may include a prediction unit determination unit, an inter prediction unit, and an intra prediction unit.
  • the prediction unit discrimination unit receives various information such as prediction unit information input from the entropy decoding unit 210, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, classifies the prediction unit from the current coding unit, and predicts the prediction unit. It is possible to determine whether the unit performs inter prediction or intra prediction. On the other hand, if the encoder 100 does not transmit the motion prediction related information for the inter prediction, instead, it transmits information indicating that the motion information is derived and used in the decoder side and information about a technique used to derive the motion information. In the case, the prediction unit discrimination unit determines the prediction performance of the inter prediction unit 230 based on the information transmitted from the encoder 100.
  • the inter predictor 230 predicts the current prediction based on information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction unit, using information required for inter prediction of the current prediction unit provided by the image encoder. Inter prediction for a unit may be performed.
  • a motion prediction method of a prediction unit included in a coding unit based on a coding unit is a skip mode, a merge mode, an AMVP mode, and an intra block copy mode ( Intra block copy mode) or affine mode can be determined.
  • the intra prediction unit 235 may generate a prediction block based on pixel information in the current picture.
  • intra prediction may be performed based on intra prediction mode information of a prediction unit provided by an image encoder.
  • the intra prediction unit 235 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolation unit, and a DC filter.
  • the AIS filter is a part that performs filtering on the reference pixel of the current block and can be applied by determining whether to apply the filter according to the prediction mode of the current prediction unit.
  • AIS filtering may be performed on a reference pixel of a current block by using prediction mode and AIS filter information of a prediction unit provided by an image encoder. When the prediction mode of the current block is a mode that does not perform AIS filtering, the AIS filter may not be applied.
  • the reference pixel interpolation unit may interpolate the reference pixel to generate a reference pixel in a pixel unit equal to or less than an integer value. If the prediction mode of the current prediction unit is a prediction mode in which a prediction block is generated without interpolating a reference pixel, the reference pixel may not be interpolated.
  • the DC filter may generate a prediction block through filtering when the prediction mode of the current block is the DC mode.
  • the reconstructed block or picture may be provided to the filter unit 240.
  • the filter unit 240 may include a deblocking filter, an offset correction unit, and an ALF.
  • Information about whether a deblocking filter is applied to a corresponding block or picture and information about whether a strong filter is applied or a weak filter is applied may be provided from the image encoder.
  • information related to the deblocking filter provided by the video encoder may be provided, and the video decoder may perform deblocking filtering on the corresponding block.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
  • ALF may be applied to a coding unit based on ALF application information provided by an encoder, ALF coefficient information, and the like. This ALF information may be provided by being included in a specific parameter set.
  • the memory 245 may store the restored picture or block so that it can be used as a reference picture or a reference block, and also provide the restored picture to an output unit.
  • 3 to 5 is an embodiment to which the present invention is applied, and shows a method of dividing a picture into a plurality of blocks.
  • the picture 300 is divided into a plurality of basic coding units (Coding Tree Units, hereinafter, CTU).
  • CTU Coding Tree Unit
  • the size of the CTU can be defined in units of picture or video sequence, and each CTU is configured not to overlap with another CTU.
  • the CTU size may be set to 128x128 in the entire sequence, and any one of 128x128 to 256x256 may be selected and used as a picture unit.
  • the CTU may be hierarchically split to generate a coding block/coding unit (CU). Prediction and transformation can be performed in units of coding units, and are a basic unit for determining a prediction encoding mode.
  • the prediction encoding mode represents a method for generating a predictive image, and examples include intra prediction (hereinafter, intra prediction), inter prediction (hereinafter, inter prediction), or composite prediction. .
  • a prediction block may be generated using at least one prediction coding mode of intra prediction, inter prediction, or complex prediction in units of coding units.
  • a prediction block may be generated based on an area in the current picture that has already been decoded.
  • Intra prediction is a method of generating a prediction block using information of a current picture
  • inter prediction is a method of generating a prediction block using information of another decoded picture
  • complex prediction is a mixture of inter prediction and intra prediction How to use.
  • some regions among a plurality of sub-regions constituting one coding block may be encoded/decoded by inter prediction, and the remaining regions may be encoded/decoded by intra prediction.
  • the composite prediction may first perform inter prediction on a plurality of sub-regions, and intra prediction second.
  • the predicted value of the coding block may be derived by weighted average of the predicted value according to inter prediction and the predicted value according to intra prediction.
  • the number of sub-regions constituting one coding block may be 2, 3, 4 or more, and the shape of the sub-regions may be square, triangle, or other polygon.
  • the CTU may be divided (partitioned) into a quad tree, binary tree, or triple tree form.
  • the divided blocks may be further divided into quad trees, binary trees, or triple trees.
  • the method of dividing the current block into 4 square partitions is called quad-tree partitioning, and the method of dividing the current block into 2 square or non-square partitions is called binary tree partitioning, and the method of dividing the current block into 3 partitions is binary This is called tree partitioning.
  • Binary partitioning in the vertical direction (SPLIT_BT_VER in FIG. 4) is called vertical binary tree partitioning, and binary tree partitioning in the horizontal direction (SPLIT_BT_HOR in FIG. 4) is called horizontal binary tree partitioning.
  • Triple partitioning in the vertical direction (SPLIT_TT_VER in FIG. 4) is called vertical triple tree partitioning, and triple tree partitioning in the horizontal direction (SPLIT_TT_HOR in FIG. 4) is called horizontal triple tree partitioning.
  • the number of divisions is called a partitioning depth, and the maximum number of partitioning depths can be set differently for each sequence, picture, subpicture, slice, or tile. It can be set to have a different partitioning depth, and the syntax representing this can be signaled.
  • quad tree partitioning binary tree partitioning, or other multi-tree partitioning (e.g., ternary tree partitioning)
  • further partitioning the divided coding unit to construct a coding unit of a leaf node or
  • the coding unit of a leaf node can be configured without additional division.
  • a coding unit may be set by hierarchically dividing one CTU, and a coding unit may be split using at least one of binary tree partitioning, quad tree partitioning, and triple tree partitioning. This method is called multi-tree partitioning.
  • the coding unit generated by dividing any coding unit having a partitioning depth k is referred to as a lower coding unit, and the partitioning depth is (k+1).
  • a coding unit having a partitioning depth k that includes a lower coding unit having a partitioning depth (k+1) is called a higher coding unit.
  • the partitioning type of the current coding unit may be limited according to the partitioning type of the higher coding unit and/or the partitioning type of the coding unit around the current coding unit.
  • the partitioning type indicates an indicator indicating which partitioning is used among binary tree partitioning, quad tree partitioning, or triple tree partitioning.
  • FIG. 6 is an embodiment to which the present invention is applied, and schematically shows a process of restoring a current block.
  • a prediction block of a current block may be generated based on a prediction mode pre-defined in the encoding/decoding device (S600 ).
  • a prediction image can be generated in a plurality of ways, and a method for generating a prediction image is called a prediction encoding mode.
  • the prediction encoding mode may be configured as an intra prediction encoding mode, an inter prediction encoding mode, a current picture reference encoding mode, or a combined prediction mode.
  • the inter prediction encoding mode is called a prediction encoding mode that generates a prediction block (prediction image) of a current block using information of a previous picture
  • the intra prediction encoding mode is a prediction that generates a prediction block using samples neighboring the current block. It is called an encoding mode.
  • a prediction block may be generated using an already reconstructed image of the current picture, and this is called a current picture reference mode or an intra block copy mode.
  • a prediction block may be generated using at least two or more prediction encoding modes among an inter prediction encoding mode, an intra prediction encoding mode, or a current picture reference encoding mode, which is called a combined prediction mode.
  • the inter prediction encoding mode will be described in detail with reference to FIGS. 7 to 20, and the intra prediction encoding mode will be described in detail with reference to FIGS. 21 to 38.
  • a transform block of the current block may be generated through a predetermined transform (S610 ).
  • An image obtained by subtracting a predicted image from an original image is referred to as a residual image or a transform block.
  • the residual image may be decomposed into binary frequency components through a two-dimensional transform such as a DCT (Discrete cosine transform).
  • a two-dimensional transform such as a DCT (Discrete cosine transform).
  • Discrete sine transform may be used according to the size of a prediction block or a prediction mode. Specifically, for example, in the intra prediction mode, when the size of the prediction block/coding block is smaller than NxN, DST transformation may be set to be used, and DCT may be set to be used in other prediction blocks/coding blocks.
  • DCT is a process of decomposing (converting) an image into two-dimensional frequency components using cos transform, and the frequency components at that time are expressed as a base image. For example, if DCT transformation is performed on an NxN block, N 2 basic pattern components can be obtained. Performing DCT conversion is to obtain the size of each of the basic pattern components included in the original pixel block. The size of each basic pattern component is called the DCT coefficient.
  • a discrete cosine transform is mainly used in an image in which a lot of non-zero components are distributed in a low frequency
  • a discrete Sine Transform may be used in an image in which a large amount of high-frequency components are distributed.
  • DST denotes a process of decomposing (converting) an image into two-dimensional frequency components using a sin transform.
  • a 2D image may be decomposed (converted) into 2D frequency components using a conversion method other than DCT or DST conversion, and this is called 2D image conversion.
  • a 2D image transformation may not be performed in a specific block among residual images, and this is called transform skip. Quantization can be applied after the transform skip.
  • DCT or DST or a 2D image transformation may be applied to any block in the 2D image, and the transformation used at this time is called a first transformation.
  • the transform may be performed again in a part of the transform block, and this is called a second transform.
  • the first transformation may use one of a plurality of transformation cores. Specifically, for example, any one of DCT2, DCT8, or DST7 can be selected and used in the conversion block. Alternatively, different transform cores may be used in the horizontal and vertical transforms of the transform block.
  • Block units performing the first transformation and the second transformation may be set differently. Specifically, for example, after performing the first transformation on the 8x8 block of the residual image, the second transformation may be performed for each 4x4 sub-block. As another example, after performing the first transform in each 4x4 block, the second transform may be performed in the 8x8 block.
  • the residual image to which the first transform is applied is called a first transform residual image.
  • a DCT or DST or 2D image transformation may be applied to the first transform residual image, and the transform used at this time is referred to as a second transform.
  • the 2D image to which the second transform is applied is called a second transform residual image.
  • Quantization refers to the process of dividing the transform coefficients into predefined values to reduce the energy of the block.
  • the value defined to apply quantization to the transform coefficient is called a quantization parameter.
  • Pre-defined quantization parameters may be applied in sequence units or block units.
  • a quantization parameter can be defined with a value between 1 and 51.
  • a residual reconstruction image may be generated by performing inverse quantization and inverse transformation.
  • a first reconstructed image may be generated by adding a predictive image to the residual reconstructed image.
  • a transform block may be generated based on at least one of n transform types pre-defined in the encoding/decoding apparatus.
  • n can be an integer of 1, 2, 3, 4, or more.
  • DCT2, DCT8, DST7, conversion skip mode, and the like can be used. Only one same transformation type may be applied to the vertical/horizontal direction of one block, or different transformation types may be applied to each vertical/horizontal direction. To this end, a flag indicating whether one and the same conversion type is applied may be used. The flag can be signaled in the encoding device.
  • the transform type may be determined based on information signaled by the encoding device, or may be determined based on predetermined encoding parameters.
  • the encoding parameter may mean at least one of a block size, shape, intra prediction mode, or component type (e.g., luminance, color difference).
  • the size of the block can be expressed as width, height, ratio of width and height, product of width and height, sum/difference of width and height, and the like. For example, if the size of the current block is greater than a predetermined threshold, the horizontal transformation type is determined as a first transformation type (eg, DCT2), and the vertical transformation type is a second transformation type (eg, DST7). ).
  • the threshold value may be an integer of 0, 4, 8, 16, 32 or more.
  • the residual coefficient according to the present invention may be obtained by performing a second transformation after the first transformation.
  • the second transform may be performed on residual coefficients of some regions in the current block.
  • the decoding apparatus may obtain a transform block of the current block by performing a second inverse transform on the partial region and performing a first inverse transform on the current block including the inverse transformed partial region.
  • the current block may be reconstructed based on the prediction block and the transform block (S620 ).
  • a predetermined in-loop filter may be applied to the reconstructed current block.
  • the in-loop filter may include at least one of a deblocking filter, a sample adaptive offset (SAO) filter, or an adaptive loop filter (ALF), and will be described with reference to FIGS. 39 and 40.
  • SAO sample adaptive offset
  • ALF adaptive loop filter
  • FIG 7 illustrates an inter prediction method as an embodiment to which the present invention is applied.
  • a method of generating a prediction block (prediction image) of a block in a current picture using information of a previous picture is called an inter prediction encoding mode or an inter mode.
  • a predictive image may be generated based on a corresponding block (colocated block/co-located block) of the previous picture, or a predictive block (predictive image) may be generated based on a specific block of the previous picture.
  • a specific block can be derived from a motion vector.
  • the co-located block indicates a block of a corresponding picture having the same position and size of the current block and the upper left sample as shown in FIG. 7.
  • the picture may be specified from the same syntax as the reference picture reference.
  • a prediction block may be generated in consideration of object movement. For example, if the object in the previous picture is known to be moved in a certain direction and in a certain direction, a prediction block (prediction image) may be generated by differentiating a block considering motion in the current block, which is called a motion prediction block.
  • a residual block may be generated by differentiating a motion prediction block or a corresponding prediction block from a current block.
  • motion occurs in an object
  • a motion prediction block is used rather than a corresponding prediction block
  • the energy of the residual block is reduced, and compression performance may be improved.
  • the method using the motion prediction block is called motion compensation prediction, and motion compensation prediction is used in most inter prediction encoding.
  • a value indicating the direction and extent to which the object in the previous picture has moved in the current picture is called a motion vector.
  • motion vectors having different pixel precisions may be used in units of a sequence, a picture, a sub-picture, a slice, a tile, a CTU, or a CU.
  • the pixel precision of a motion vector in a specific block may be at least any one of 1/16, 1/8, 1/4, 1/2, 1, 2, 4 or 8.
  • the type and/or number of available pixel precision candidates may be different for each of the inter prediction encoding modes described below. For example, for the affine inter prediction method, k pixel precisions are available, and for the inter prediction method using translation motion, i pixel precisions are available.
  • j pixel precisions are available.
  • k, i and j may be 1, 2, 3, 4, 5, or more natural numbers.
  • k may be smaller than i and i may be smaller than j.
  • the affine inter prediction method uses at least one pixel precision of 1/16, 1/4, or 1, and the inter prediction method using translation motion (eg, merge mode, AMVP mode) is 1/4, 1/2, Pixel precision of at least one of 1 or 4 may be used.
  • the current picture reference mode may use pixel precision of at least one of 1, 4, or 8.
  • an inter prediction method using a translation motion and an affine inter prediction method using an affine motion may be selectively used.
  • an inter prediction method using translation movement a merge mode or an AMVP mode may be used.
  • 8 to 10 is an embodiment to which the present invention is applied, and shows an affine inter prediction method.
  • the affine movement can be expressed as Equation 1 below.
  • affine motion can be simplified and expressed with four parameters, and this is called a four-parameter affine motion model. Equation 2 expresses the affine movement with four parameters.
  • the 4-parameter affine motion model may include motion vectors at two control points of the current block.
  • the control point may include at least one of a top left corner, a top right corner, or a bottom left corner of the current block.
  • the 4-parameter motion model is based on the motion vector sv0 in the upper left sample (x0,y0) of the coding unit and the motion vector sv1 in the upper right sample (x1,y1) of the coding unit, as shown in the left figure of FIG. 9. It can be determined, and sv 0 and sv 1 are called affine seed vectors.
  • the affine seed vector sv 0 located at the upper left is a first affine seed vector
  • the affine seed vector sv 1 located at the upper right is a second affine seed vector.
  • the 6-parameter affine motion model is an affine motion in which a motion vector sv 2 of a residual control point (eg, sample (x2,y2) at the bottom left) is added to the 4-parameter affine motion model as shown in the right figure of FIG. 9. It is a model. Located below the upper left affine seed vector sv 0 a first affine seed vector called home, located in the upper right affine seed vector sv 1 a second affine seed vector called home, and the affine located in the lower left seed vector Assume sv 2 is a third affine seed vector.
  • a residual control point eg, sample (x2,y2) at the bottom left
  • Information regarding the number of parameters for expressing affine motion may be encoded in a bitstream.
  • a flag indicating whether to use 6-parameters or a flag indicating whether to use 4-parameters may be encoded in at least one unit of a picture, subpicture, slice, tile group, tile, coding unit, or CTU. Accordingly, either a 4-parameter affine motion model or a 6-parameter affine motion model may be selectively used as a predetermined unit.
  • a motion vector may be derived for each sub-block of the coding unit by using an affine seed vector, which is called an affine sub-block vector.
  • the affine sub-block vector may be derived as shown in Equation 3 below.
  • the reference sample position (x,y) of the sub-block may be a sample located at the corner of the block (eg, the upper left sample) or a sample (eg, a central sample) in which at least one of the x-axis or the y-axis is central. .
  • Motion compensation may be performed in a coding unit unit or a sub-block unit in a coding unit using an affine sub-block vector, which is called affine inter prediction mode.
  • (x 1 -x 0 ) may have a value equal to the width of the coding unit.
  • FIG. 11 shows a range of spatial peripheral blocks for merge mode as an embodiment to which the present invention is applied.
  • the motion information (motion vector, reference picture index, etc.) of the current coding unit is not encoded, but can be derived from motion information of neighboring blocks. Motion information of any one of the neighboring blocks may be set as motion information of the current coding unit, and this is called a merge mode.
  • a neighboring block used in the merge mode may be a block adjacent to a current coding unit (blocks abutting a boundary of a current coding unit), such as indices 0 to 4, or as shown in indexes 5 to 26 of FIG. 11. It may be a block that is not adjacent to the coding unit.
  • a merge candidate list including at least one of the neighboring blocks may be configured. Based on the merge index, any one of a plurality of merge candidates belonging to the merge candidate list may be specified, and motion information of the specified merge candidate may be set as motion information of the current coding unit.
  • 12 to 18 are temporary examples to which the present invention is applied, and show a merge mode using motion information of an inter area.
  • Motion information (motion vector and reference picture index) of a coding unit already coded by inter prediction in a current picture may be stored in a list (buffer) of a predefined size, which is called an inter-region motion information list.
  • Motion information (at least one of a motion vector or a reference picture index) in the inter-region motion information list is referred to as an inter-region motion candidate.
  • An inter-region motion candidate may be used as a merge candidate of the current coding unit, and for this, at least one of the inter-region motion candidates may be added to the merge candidate list of the current coding unit. This method is called an inter-domain merge method.
  • the inter-region motion information list may be initialized in a unit of one of a picture, slice, tile, CTU row, or CTU. Initialization may mean that the list is empty. Motion information from a partial region of a picture that has been encoded and/or decoded may be added to an inter-region motion information list.
  • the initial inter-region motion candidate of the inter-region motion information list may be signaled at at least one level of a sequence, picture, sub-picture, slice or tile.
  • motion information of the coding unit may be updated in the inter-region motion information list as shown in FIG. 12.
  • the number of inter-region motion candidates in the inter-region motion information list is the maximum value
  • the smallest value motion information added to the inter-region motion information list first
  • the most The inter-region motion information list may be added to the recently encoded/decoded inter-region motion information.
  • the most recent motion information may not be added to the list.
  • the same motion information as the most recent motion information may be removed from the list, and the most recent motion information may be added. At this time, the most recent motion information may be added to the last position in the list.
  • the motion vector mvCand of the decoded coding unit may be updated in the inter-domain motion information list HmvpCandList. At this time, if the motion information of the decoded coding unit is the same as any one of motion information in the inter-region motion information list (when both the motion vector and the reference index are the same), the inter-region motion information list is not updated or as shown in FIG. 14.
  • the motion vector mvCand of the decoded coding unit may be stored at the end of the inter-domain motion information list.
  • HMVPCandList [i] may be set to HVMPCandList[i-1] for all i greater than hIdx as shown in FIG. 14.
  • motion information of a representative sub-block in the coding unit may be stored in the inter-region motion information list.
  • the representative serv block in the coding unit may be set as the upper left sub block in the coding unit as shown in FIG. 13, or may be set as the middle sub block in the coding unit.
  • the merge candidate for each sub-block can be derived as in the following process.
  • An initial shift vector may be derived from a motion vector of a merge candidate block around the current block.
  • the neighbor merge candidate block may be any one of the left, top, bottom left, top right, or top left blocks of the current block.
  • only the left block or top block of the current block may be set to be fixedly used.
  • an initial shift vector may be added to the upper left sample (xSb,ySb) of the sub block in the coding unit to derive a shift sub block having the position of the upper left sample (xColSb, yColSb).
  • the motion vector of the collocated block corresponding to the center position of the sub-block containing (xColSb, yColSb) can be derived as the motion vector of the sub-block containing the upper left sample (xSb,ySb).
  • a total of NumHmvp motion information can be stored in the inter-region motion information list, and NumHmvp is called the size of the inter-region motion information list.
  • the size of the inter-region motion information list may use a pre-defined value.
  • the size of the inter-region motion information list may be signaled in a sequence, picture, sub-picture, slice header, and/or tile header.
  • the size of the inter-region motion information list may be defined as 16, or may be defined as 4, 5, 6, or the like.
  • the coding unit which has been sub/decoded, has inter prediction and has an affine motion vector, it may not be included in the inter domain motion information list.
  • the affine sub-block vector may be added to the inter-domain motion information list.
  • the position of the sub-block may be set to the upper left or upper right, or the central sub-block.
  • the average motion vector of each control point may be added to the inter-domain motion candidate list.
  • MV0 When the motion vector MV0 derived by encoding/decoding a specific coding unit is the same as any one of the inter-domain motion candidates, MV0 may not be added to the inter-domain motion information list. Alternatively, an existing inter-region motion candidate having the same motion vector as MV0 is deleted, and MV0 is newly included in the inter-region motion information list to update an index assigned to MV0.
  • an inter-region motion information long term list HmvpLTList may be configured.
  • the inter-region motion information long term list size may be set equal to the inter-region motion information list size or may be set to a different value.
  • the inter-region motion information long term list may be configured as an inter-region merge candidate first added to the tile group start position. After the inter-region motion information long term list is configured with all available values, an inter-region motion information list may be configured, or motion information in the inter-region motion information list may be set as motion information of the inter-region motion information long term list.
  • the long-term list of the inter-region motion information configured once may not be updated, or may be updated again when the decoded region of the tile group is more than half of the entire tile group, or may be updated every m CTU lines.
  • the inter-region motion information list may be set to be updated whenever it is decoded as an inter-region, or to be updated in units of CTU lines.
  • inter-region motion information list motion information and partition information or a form of a coding unit may be stored. It is also possible to perform an inter-region merging method using only inter-region motion candidates having similar partition information and form to the current coding unit.
  • the inter-region motion information list may be individually configured according to a block type. In this case, one of a plurality of inter-region motion information lists may be selected and used according to the shape of the current block.
  • the decoded coding unit When the decoded coding unit is in the affine inter or affine merge mode, the first affine seed vector and the second affine seed vector may be stored in the inter-domain affine motion information list HmvpAfCandList.
  • the motion information in the inter-domain affine motion information list is called an inter-domain affine merge candidate.
  • the merge candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.
  • Temporary merge candidate (merged candidate derived from the previous reference picture)
  • the merge candidate list may be composed of a merge merge candidate and a spatial merge candidate and a temporal merge candidate.
  • the number of available spatial and temporal merge candidates is called the number of available merge candidates (NumMergeCand).
  • a motion candidate of the inter-region motion information list may be added to the merge candidate list mergeCandList as an inter-region merge candidate.
  • the merge candidate list mergeCandList When adding the inter-region motion information list HmvpCandList to the merge candidate list mergeCandList, it can be checked whether the motion information of the inter-region motion candidate in the inter-region motion information list is the same as the motion information of the existing merge candidate list mergeCandList. If the motion information is the same, the merge list is not added to the mergeCandList, and if the motion information is not the same, an inter-region merge candidate can be added to the merge list mergeCandList.
  • redundancy check can be performed only on any L numbers in the mergeCandList.
  • L is a positive integer greater than 0. For example, when L is 2, it is possible to check the redundancy of only the first and second motion information of the mergeCandList.
  • the redundancy check between HmvpCandList and mergeCandList may be performed on a part of merge candidate of mergeCandList and a part of motion candidate of HmvpCandList.
  • a part of the mergeCandList may include a left block and an upper block among spatial merge candidates.
  • the present invention is not limited thereto, and may be limited to any one of the spatial merge candidates, and may further include at least one of a lower left block, an upper right block, an upper left block, or a temporal merge candidate.
  • a part of the HmvpCandList may mean the K inter-domain motion candidates most recently added to the HmvpCandList.
  • K is 1, 2, 3 or more, and may be a fixed value pre-promised in the encoding/decoding device. It is assumed that five inter-region motion candidates are stored in the HmvpCandList, and indexes of 1 to 5 are allocated to each inter-region motion candidate. The larger the index, the more the stored inter-region motion candidate. At this time, redundancy between the inter-domain motion candidates having indexes 5, 4 and 3 and merge candidates of the mergeCandList can be checked. Alternatively, the redundancy between the inter-domain motion candidates having indexes 5 and 4 and the merge candidate of the mergeCandList may be checked.
  • the redundancy between the inter-regional motion candidates having indexes 4 and 3 and the merge candidate of the mergeCandList may be checked, except for the inter-regional motion candidate of the most recently added index 5.
  • the motion candidate of HmvpCandList may not be added to mergeCandList.
  • the motion candidate of HmvpCandList can be added to the last position of the inter-region motion information list. At this time, it may be added to the mergeCandList in the order of the recently stored motion candidates in the HmvpCandList (ie, the order from the largest index to the smallest index).
  • the most recently stored motion candidate (movement candidate having the largest index) in the HmvpCandList may be restricted so that it is not added to the mergeCandList.
  • the index having a large index may be added to the merge candidate list mergeCandList, and the following process may be used.
  • mergeCandList[numCurrMergeCand++] is set to HMVPCandList[NumHmvp-HMVPIdx]
  • hmvpStop is set to TRUE
  • mergeCandList when comparing motion information of HmvpCandList[i-1] as shown in FIG. [j] can be set not to compare.
  • the motion information of the inter-domain motion candidate in the HmvpCandList and the motion information of the merge candidate in the merge candidate list can be compared. For example, as illustrated in FIG. 17, it is possible to compare whether the N merge candidates having the largest index among the merge candidate list and the motion information of the inter-region motion candidate are the same.
  • the inter-region motion information long term list may be used as shown in FIG. 18, as follows. You can use the process.
  • hvmpLT is set to TRUE
  • HMVPLTCandList[NumLTHmvp-HMVPLTIdx] have the same motion vectors and the same reference indices with any mergeCandList[i] with i being 0... numOrigMergeCand-1 and HasBeenPruned[i] equal to false, sameMotion is set to true
  • mergeCandList[numCurrMergeCand++] is set to HMVPLTCandList[NumLTHmvp-HMVPLTIdx]
  • hmvpLTStop is set to TRUE
  • the inter-domain motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and this method is called an inter-domain motion information prediction method.
  • MVP motion vector predictor
  • the inter-domain affine motion candidate can be used as a motion vector predictor (MVP) candidate of the current coding unit, and such a method is called an inter-domain motion information affine prediction method.
  • MVP motion vector predictor
  • the motion information predictor candidates usable in the current coding unit may be configured as follows, and may have the same search order as the configuration order.
  • Spatial motion predictor candidate (same as coding block contiguous merge candidate and coding block non-contiguous merge candidate)
  • Temporal motion predictor candidate motion predictor candidate derived from the previous reference picture
  • 19 and 20 is an embodiment to which the present invention is applied, and shows a merge mode based on MPMM.
  • the Most Probable Merge Mode (MPMM) list composed of motion information or merge candidates of neighboring coding units can be derived, and the size of the MPMM list may be set differently for each tile set, or differently for each sequence, or predefined It can also be set to a value.
  • MPMM Most Probable Merge Mode
  • RMM Remaining Merge Mode
  • a flag mpmm_flag indicating whether a merge candidate of the current coding unit belongs to a merge candidate in the MPM list may be signaled.
  • an MPMM index (a pre-defined index in the MPMM list, mpmm_index) may be signaled. If the merge candidate of the current coding unit does not belong to the MPMM, an index (rmm_index) in the RMM list may be signaled, and a syntax table as shown in Table 1 may be used.
  • the MPM list may be configured with HmvpCandList[LastIdx] to HmvPCandList[LastIdx-M+1], which are close in encoding/decoding order to the current coding unit.
  • RMM is derived from the existing mergeCandList, but if there is the same motion information in the MPMM list, it can be removed from the RMM list.
  • Merge candidates in mergeCandList derived from HmvpCandList[LastIdx] to HmvPCandList[LastIdx-M+1] may not be added to the RMM list.
  • the mergeCandList derived from the previous coding unit such as the type of the current coding unit, may be set to MPMM.
  • the current coding unit is a square shape
  • a merge candidate derived from a square shape coding unit may be added to the MPMM list.
  • merge candidates derived from neighbor coding units using merge mode/skip mode may be added to the MPMMM list, and merge candidates derived from coding units using AMVP mode may be added to the RMM list.
  • 21 to 30 is an embodiment to which the present invention is applied, and shows an intra prediction method.
  • Intra-prediction is used to generate intra-prediction of an already coded boundary sample around the current block as shown in FIG. 21, and this is called an intra-reference sample.
  • Predict the average value of the intra reference samples set the value of the entire sample of the prediction block (DC mode), or perform the horizontal direction weighted prediction to generate the horizontal direction prediction sample and the vertical direction reference sample weighted prediction to generate the vertical direction prediction sample.
  • a prediction sample may be generated by weighted prediction of a horizontal prediction sample and a vertical prediction sample (Planar mode), or intra prediction may be performed using a directional intra prediction mode.
  • intra prediction may be performed using 33 directions (total of 35 intra prediction modes) as shown in the left figure, and 65 directions may be used (67 intra prediction modes in total) as shown in the right figure.
  • an intra reference sample reference sample
  • intra prediction may be performed therefrom.
  • the intra reference sample on the left side of the coding unit is called the left intra reference sample, and the intra reference sample on the upper side of the coding unit is called the upper intra reference sample.
  • an intra direction parameter (intraPredAng), which is a parameter indicating a prediction direction (or prediction angle)
  • intraPredAng an intra direction parameter
  • Table 2 is only an example based on the directional intra prediction mode having a value of 2 to 34 when using 35 intra prediction modes.
  • the prediction direction (or prediction angle) of the directional intra prediction mode is further subdivided so that more than 33 directional intra prediction modes may be used.
  • PredModeIntra One 2 3 4 5 6 7 IntraPredAng - 32 26 21 17 13 9 PredModeIntra 8 9 10 11 12 13 14 IntraPredAng 5 2 0 -2 -5 -9 -13 PredModeIntra 15 16 17 18 19 20 21 IntraPredAng -17 -21 -26 -32 -26 -21 -17 PredModeIntra 22 23 24 25 26 27 28 IntraPredAng -13 -9 -5 -2 0 2 5 PredModeIntra 29 30 31 32 33 34 IntraPredAng 9 13 17 21 26 32
  • intraPredAng When intraPredAng is negative (eg, when the intra prediction mode index is between 11 and 25), the left intra reference sample and the upper intra reference sample in the current block are configured in 1D according to the angle of the intra prediction mode, as shown in FIG. 23. It can be reconstructed as a one-dimensional reference sample (Ref_1D).
  • a one-dimensional reference sample may be generated in a counterclockwise direction from an intra reference sample located on the upper right side of the current block to an intra reference sample located on the lower left side of the current block.
  • a one-dimensional reference sample may be generated using only the upper side intra reference sample or the left side intra reference sample.
  • a one-dimensional reference sample may be generated in a clockwise direction from an intra reference sample located at the lower left side of the current block to an intra reference sample located at the upper right side of the current block.
  • the weight-related parameter i fact applied to at least one reference sample determined based on the reference sample determination index i Idx and i Idx may be derived as shown in Equation 5 below.
  • i Idx and i fact are variably determined according to the slope of the directional intra prediction mode, and the reference sample specified by i Idx may correspond to an integer pel.
  • Prediction images may be derived by specifying at least one one-dimensional reference sample for each prediction sample.
  • the position of a one-dimensional reference sample that can be used for generating a prediction sample may be specified by considering the slope value of the directional intra prediction mode. It is also possible to have different directional intra prediction modes for each prediction sample. Multiple intra prediction modes may be used for one prediction block.
  • the plurality of intra prediction modes may be represented by a combination of a plurality of non-directional intra prediction modes, or may be represented by a combination of one non-directional intra prediction mode and at least one directional intra prediction mode, or multiple directional intra prediction It can also be expressed as a combination of modes.
  • Different intra prediction modes may be applied to each sample group in one prediction block.
  • a given sample group may consist of at least one sample.
  • the number of sample groups may be variably determined according to the size/number of samples of the current prediction block, or may be a fixed number preset in the encoder/decoder independently of the size/number of samples of the prediction block.
  • the location of the one-dimensional reference sample may be specified using the reference sample determination index iIdx.
  • the first prediction image when the gradient of the intra prediction mode cannot be expressed by only one one-dimensional reference sample, the first prediction image may be generated by interpolating adjacent one-dimensional reference samples as shown in Equation (6).
  • the first prediction image When the angular line according to the slope/angle of the intra prediction mode does not pass the reference sample located in the integer pel, the first prediction image may be generated by interpolating the reference samples adjacent to the left/right or top/bottom of the angular line.
  • the filter coefficient of the interpolation filter used may be determined based on i fact .
  • the filter coefficient of an interpolation filter can be derived based on the distance between a minority pel located on an angular line and a reference sample located on the integer pel.
  • the first prediction image may be generated as shown in Equation 7 below.
  • the prediction angle of the directional intra prediction mode may be set between 45 and -135 degrees as shown in FIG. 26.
  • a disadvantage of predicting the current sample from the intra reference sample far from the current sample may occur instead of the intra reference sample close to the current sample due to a predefined prediction angle.
  • intra prediction may be performed at a distance L instead of a sample T having a short distance.
  • a horizontal coding unit a coding unit having the height of the coding unit greater than the width of the coding unit (hereinafter referred to as a vertical coding unit) as shown in the figure on the right.
  • intra prediction is performed from the distanced sample T instead of the distanced sample L. can do.
  • intra prediction may be performed at a prediction angle wider than a pre-defined prediction angle, and this is called a wide angle intra prediction mode.
  • the wide angle intra prediction mode may have a prediction angle of 45- ⁇ to -135- ⁇ , and a prediction angle that deviates from an angle used in the existing intra prediction mode is called a wide angle angle.
  • sample A in the horizontal coding unit can be predicted from the intra reference sample T using the wide angle intra prediction mode.
  • sample A in the vertical coding unit can be predicted from the intra reference sample L using the wide angle intra prediction mode.
  • N+M intra prediction modes may be defined by adding M wide angle angles to N existing intra prediction modes. Specifically, for example, a total of 95 intra prediction modes may be defined by adding 67 intra modes and 28 wide angle angles as shown in Table 3.
  • the intra prediction mode that can be used by the current block may be determined according to the shape of the current block.
  • 65 directional intra prediction modes among 95 directional intra prediction modes may be selected based on at least one of the size, aspect ratio (eg, ratio of width and height) of the current block, and a reference line index.
  • the intra prediction mode angle shown in Table 3 may be adaptively determined based on at least one of a shape of a current block and a reference line index.
  • intraPredAngle in Mode 15 may be set to have a larger value when the current block is square than when the current block is non-square.
  • intraPredAngle in Mode 75 may be set to have a larger value when a non-contiguous reference line is selected than when the adjacent reference line is selected.
  • the length of the upper intra reference sample may be set to 2W+1, and the length of the left intra reference sample may be set to 2H+1.
  • the wide-angle intra-prediction mode can be encoded by replacing it with an existing intra-prediction mode that is not used in the wide-angle intra, and the replaced prediction mode is called a wide-angle intra-mode.
  • the wide angle replacement mode may be an intra prediction mode opposite to the wide angle intra prediction mode.
  • wide angle intra prediction mode 35 may be encoded in intra prediction mode 2, which is a wide angle replacement mode, and wide angle intra prediction mode 36 may be replaced by wide angle
  • the mode can be encoded in intra prediction mode 3.
  • the number of modes and number of replacements can be set differently. Specifically, for example, as shown in Table 4, different modes and number of replacements may be set according to the type of the coding block. Table 4 shows an intra prediction replacement mode used according to the ratio of the width and height of the coding block.
  • intra prediction may be performed using at least one of a plurality of intra reference lines.
  • intra prediction may be performed by selecting any one of a plurality of intra reference lines including an adjacent intra reference line and a non-contiguous intra reference line, which is called a multi-line intra prediction method.
  • the non-contiguous intra reference line is a first non-contiguous intra reference line (non-contiguous reference line index 1), a second non-contiguous intra reference line (non-contiguous reference line index 2), or a third non-contiguous intra reference line (non-contiguous reference line) Index 3). It is also possible to use only some of the noncontiguous intra reference lines. For example, only the first non-contiguous intra reference line and the second non-contiguous intra reference line may be used, or only the first non-contiguous intra reference line and the third non-contiguous intra reference line may be used.
  • intra_luma_ref_idx which is a syntax for specifying a reference line used for intra prediction, may be signaled in units of coding units.
  • intra_luma_ref_idx when using the adjacent intra reference line, the first non-contiguous intra reference line, and the third non-contiguous intra reference line, intra_luma_ref_idx may be defined as shown in Table 5 below.
  • Adjacent intra reference line One 1st non-adjacent reference line 2
  • the position of the non-contiguous reference line may be specified according to the size, shape, or intra prediction mode of the current block.
  • a line index of 0 may indicate an adjacent intra reference line
  • a line index of 1 may indicate a first non-contiguous intra reference line.
  • the line index may indicate a second non-contiguous intra reference line or a third non-contiguous intra reference line.
  • the usable non-contiguous reference line may be determined. For example, when diagonal mode intra prediction is used, only the adjacent reference line, the first non-contiguous reference line, and the third non-contiguous reference line may be used. In the vertical or horizontal intra prediction mode, the adjacent reference line and the first non-contiguous mode are used. The reference line and the second non-adjacent balance line may be set to use.
  • the non-directional intra prediction modules may be set not to be used. That is, when a non-contiguous intra reference line is used, the DC mode or the planar mode may not be used.
  • a non-contiguous intra reference line when a non-contiguous intra reference line is used, at least one of a non-directional intra prediction mode or a specific directional intra prediction mode may be restricted from being used.
  • the non-directional intra prediction mode includes at least one of a DC mode and a planar mode
  • the specific directional intra prediction mode includes a horizontal direction mode (INTRA_MODE18), a vertical direction mode (INTRA_MODE50), and a diagonal mode (INTRA_MODE2, 66). ), at least one of a wide angle mode.
  • the number of samples belonging to the non-contiguous intra reference line may be set to be larger than the number of samples of the adjacent intra reference line.
  • the number of samples of the (i+1) non-contiguous intra reference line may be set to be larger than the number of samples of the i-th non-contiguous intra reference line.
  • the difference between the number of upper samples of the i-th non-contiguous intra reference line and the number of upper samples of the (i-1) non-contiguous intra reference line may be represented by an offsetX[i] of the number of reference samples.
  • offsetX[1] represents the difference value between the number of upper samples of the first non-contiguous intra reference line and the number of upper samples of the adjacent intra reference line.
  • the difference between the number of left samples of the i-th non-contiguous intra reference line and the number of left samples of the (i-1) non-contiguous intra reference line may be represented by an offsetY[i] of the number of reference samples.
  • offsetY[1] represents the difference value between the number of left samples of the first non-contiguous intra reference line and the number of left samples of the adjacent intra reference line.
  • the non-contiguous intra reference line with the intra reference line index i may be composed of the upper non-contiguous reference line refW + offsetX[i], the left non-contiguous reference line refH+ offsetY[i], and the upper left sample.
  • the number of samples belonging to may be configured as refW + refH + offsetX[i] + offsetY[i] +1.
  • nTbW represents the width of the coding unit
  • nTbH represents the height of the coding unit
  • whRatio can be defined as in Equation 9.
  • the wide-angle intra mode when a non-contiguous intra reference line is used, the wide-angle intra mode may not be used.
  • the MPM mode of the current coding unit is a wide angle intra mode, a multi-line intra prediction coding method may be disabled.
  • the non-contiguous intra reference line with the intra reference line index i can be composed of the upper non-contiguous reference line W + H + offsetX[i], the left non-contiguous reference line H + W + offsetY[i], and the upper left sample.
  • the number of samples belonging to the non-contiguous intra reference line may be composed of 2W + 2H + offsetX[i] + offsetY[i] +1, and offsetX[i] and offsetY[i] values may vary depending on the whRatio value. There is. For example, if the whRatio value is greater than 1, the offsetX[i] value can be set to 1, and the offsetY[i] value can be set to 0. If the whRatio value is less than 1, the offsetX[i] value is 0, and the offsetY[ i] The value may be set to 1.
  • 31 is an embodiment to which the present invention is applied, and illustrates a method for predicting a reference based on components.
  • the current block may be classified into a luminance block and a color difference block according to the component type.
  • the chrominance block can be predicted using pixels of a pre-restored luminance block, which is referred to as a reference between components.
  • the color difference block has a size of (nTbW x nTbH)
  • the luminance block corresponding to the color difference block has a size of (2*nTbW x 2*nTbH).
  • an intra prediction mode of a color difference block may be determined (S3100 ).
  • the pre-defined intra prediction mode for the chrominance block may be divided into a first group and a second group.
  • the first group may be configured as a reference-based prediction mode between components
  • the second group may be configured as all or part of the intra prediction mode illustrated in FIG. 22.
  • the encoding/decoding apparatus may define at least one of INTRA_LT_CCLM, INTRA_L_CCLM, or INTRA_T_CCLM as a prediction mode based on inter-component reference.
  • INTRA_LT_CCLM is a mode that refers to both the left and top regions adjacent to the luminance/chrominance block
  • INTRA_L_CCLM is a mode that refers to the left region adjacent to the luminance/chrominance block
  • INTRA_T_CCLM is a mode that refers to the top region adjacent to the luminance/chrominance block.
  • the intra prediction mode of the chrominance block may be derived by selectively using either the first group or the second group. The selection may be performed based on a predetermined first flag. The first flag may indicate whether the intra prediction mode of the color difference block is derived based on the first group or based on the second group.
  • the intra prediction mode of the color difference block may be determined as any one of the reference-based prediction modes between components belonging to the first group.
  • a predetermined index may be used to select any one of the inter-component reference-based prediction modes.
  • the index may be information specifying any one of INTRA_LT_CCLM, INTRA_L_CCLM, or INTRA_T_CCLM.
  • Table 6 shows the prediction mode based on the reference between components and the indexes allocated to each prediction mode.
  • Table 6 is only an example of an index allocated to each prediction mode, and is not limited thereto. That is, as shown in Table 6, indexes may be allocated in order of priority of INTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLM, and indexes may be assigned in order of priority of INTRA_LT_CCLM, INTRA_T_CCLM, INTRA_L_CCLM. Alternatively, INTRA_LT_CCLM may have a lower priority order than INTRA_T_CCLM or INTRA_L_CCLM.
  • the intra prediction mode of the color difference block may be determined as any one of a plurality of intra prediction modes belonging to the second group.
  • the second group may be defined as shown in Table 7, and the intra prediction mode of the color difference block may be derived based on information (intra_chroma_pred_mode) signaled by the encoding device and the intra prediction mode (IntraPredModeY) of the luminance block. have.
  • the first flag may be selectively signaled based on information indicating whether reference between components is allowed. For example, if the value of the information is 1, the first flag is signaled, otherwise, the first flag may not be signaled.
  • the information may be determined as 0 or 1 based on predetermined conditions to be described later.
  • the information may be set to 0.
  • the second flag may be signaled in at least one of a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), or a slice header.
  • the information may be set to 1.
  • qtbtt_dual_tree_intra_flag may indicate whether the coding tree block is implicitly divided into a 64x64 sized coding block, and whether the 64x64 sized coding block is split into a dual tree.
  • the dual tree may mean a method in which the luminance component and the color difference component are divided with independent division structures.
  • the size of the coding tree block (CtbLog2Size) may be a size (e.g., 64x64, 128x128, 256x256) pre-defined in the encoding/decoding device, or may be encoded and signaled in the encoding device.
  • the information may be set to 1.
  • the first upper block is divided into Horizontal BT, and the second upper block is 64x32
  • the first upper block is divided into Horizontal BT, and the second upper block is divided into Vertical BT
  • the first upper block may be a block including the current color difference block as a lower block.
  • the depth of the first upper block is (k-n), and n may be 1, 2, 3, 4 or more.
  • the depth of the first upper block may mean only the depth according to the quadtree-based division, or may indicate the depth according to at least one of the quadtree, binary tree, or ternary tree.
  • the second upper block is a lower block belonging to the first upper block, and may have a depth smaller than the current color difference block and a depth larger than the first upper block.
  • the depth of the second upper block is (k-m), and m may be a natural number less than n.
  • the information may be set to 0.
  • the information may be reset to 0.
  • a luminance region for reference between components of a color difference block may be specified (S3110 ).
  • the luminance region may include at least one of a luminance block or a neighboring region adjacent to the luminance block.
  • the pixel may refer to a reconstructed value before the in-loop filter is applied.
  • the neighboring region may include at least one of a left neighboring region, a top neighboring region, or a top left neighboring region.
  • the numSampL and numSampT described above may be determined based on the intra prediction mode of the current block.
  • the current block may mean a color difference block.
  • INTRA_LT_CCLM when the intra prediction mode of the current block is INTRA_LT_CCLM, it can be derived as in Equation 10 below.
  • INTRA_LT_CCLM may refer to a mode in which the inter-component reference is performed based on regions adjacent to the left and top sides of the current block.
  • numSampT may be derived as nTbW when the upper neighboring region of the current block is available, and as otherwise, 0.
  • numSampL may be derived as nTbH when the left neighboring region of the current block is available, or as 0 otherwise.
  • the intra prediction mode of the current block is not INTRA_LT_CCLM, it can be derived as in Equation 11 below.
  • INTRA_T_CCLM means a mode in which the inter-component reference is performed based on the region adjacent to the top of the current block
  • INTRA_L_CCLM means a mode in which the inter-component reference is performed based on the region adjacent to the left side of the current block.
  • Can. numTopRight may mean the number of all or some pixels belonging to an area adjacent to the upper right corner of the color difference block. Some pixels may mean available pixels among pixels belonging to the lowest pixel line of the corresponding area. The determination of availability is sequentially determined whether pixels are available from left to right, and this may be performed until unavailable pixels are found.
  • the numLeftBelow may mean the number of all or some pixels belonging to an area adjacent to the lower left of the color difference block. Some of the pixels may mean available pixels among pixels belonging to the rightmost pixel line of the corresponding region. The usability determination sequentially determines whether a pixel is available from the top to the bottom, and this may be performed until a non-available pixel is found.
  • downsampling may be performed on the luminance region specified in S3110 (S3120).
  • the downsampling may include at least one of: 1. downsampling for a luminance block, 2. downsampling for a left neighboring region of the luminance block, or 3. downsampling for an upper neighboring region of the luminance block, below. Let's take a closer look.
  • the peripheral pixel may mean a pixel adjacent in at least one of left, right, top, or bottom sides of the corresponding pixel.
  • the pixel pDsY[x][y] may be derived as in Equation 12 below.
  • the peripheral pixel may mean a pixel adjacent to at least one of the top or bottom of the corresponding pixel.
  • the peripheral pixel may mean a pixel adjacent to at least one of the left or right side of the corresponding pixel.
  • the pixel pDsY[0][0] of the downsampled luminance block may be derived based on the corresponding pixel pY[0][0] and/or surrounding pixels of the luminance block.
  • the position of the surrounding pixels may be differently determined according to whether the left/top neighbor area of the current block is available.
  • pDsY[0][0] may be derived as in Equation 15 below.
  • Equation 16 pDsY[0][0]
  • pDsY[ 0 ][ 0] may be set as the corresponding pixel pY[0][0] of the luminance block.
  • the peripheral pixel may mean a pixel adjacent in at least one of a lower, left, right, lower left, or lower right of the corresponding pixel.
  • the pixel pDsY[x][y] may be derived as shown in Equation 17 below.
  • pDsY[ x ][ y] (pY[ 2 * x-1 ][ 2 * y] + pY[ 2 * x-1 ][ 2 * y + 1] + 2* pY[ 2 * x ][ 2 * y] + 2*pY[ 2 * x ][ 2 * y + 1] + pY[ 2 * x + 1 ][ 2 * y] + pY[ 2 * x + 1 ][ 2 * y + 1] + 4 ) >> 3
  • the downsampling of the luminance block may be performed based on any one of Embodiments 1 and 2 described above. At this time, either of Embodiments 1 or 2 may be selected based on a predetermined flag.
  • the flag may indicate whether the downsampled luminance pixel has the same position as the original luminance pixel. For example, when the flag is the first value, the downsampled luminance pixel has the same position as the original luminance pixel. On the other hand, when the flag is the second value, the downsampled luminance pixel has the same position in the horizontal direction as the original luminance pixel, but has a shifted position by half pel in the vertical direction.
  • the peripheral pixel may mean a pixel adjacent in at least one of left, right, top, or bottom sides of the corresponding pixel.
  • the pixel pLeftDsY[y] may be derived as shown in Equation 19 below.
  • the pixel pLeftDsY[ 0] of the downsampled left neighbor area can be derived based on the corresponding pixel pY[-2][0] and the neighboring pixels of the left neighbor area.
  • the peripheral pixel may mean a pixel adjacent to at least one of the left or right side of the corresponding pixel.
  • the pixel pLeftDsY[ 0] can be derived as shown in Equation 20 below.
  • the peripheral pixel may mean a pixel adjacent in at least one of a lower, left, right, lower left, or lower right of the corresponding pixel.
  • the pixel pLeftDsY[y] may be derived as shown in Equation 21 below.
  • downsampling of the left neighboring region may be performed based on any one of Embodiments 1 and 2 described above.
  • either of Embodiments 1 or 2 may be selected based on a predetermined flag. The flag indicates whether the downsampled luminance pixel has the same position as the original luminance pixel, as described above.
  • downsampling for the left neighbor region may be performed only when the numSampL value is greater than 0.
  • the numSampL value is greater than 0, it may mean that the left neighboring region of the current block is available and the intra prediction mode of the current block is INTRA_LT_CCLM or INTRA_L_CCLM.
  • the downsampled upper neighboring region pixel pTopDsY[x] is derived based on the corresponding neighboring pixel pY[2*x][-2] and peripheral pixels of the upper neighboring region.
  • the peripheral pixel may mean a pixel adjacent in at least one of left, right, top, or bottom sides of the corresponding pixel.
  • the pixel pTopDsY[x] may be derived as in Equation 22 below.
  • the downsampled upper neighboring region pixel pTopDsY[x] is based on the corresponding pixel pY[2*x][-1] and peripheral pixels of the upper neighboring region.
  • the peripheral pixel may mean a pixel adjacent to at least one of the left or right side of the corresponding pixel.
  • the pixel pTopDsY[ x] may be derived as shown in Equation 23 below.
  • the neighboring pixels may mean pixels adjacent to at least one of the top or bottom of the corresponding pixel.
  • the pixel pTopDsY[ 0] can be derived as shown in Equation 24 below.
  • the pixel pTopDsY[ 0] may be set to the pixel pY[ 0 ][ -1] of the upper neighboring area.
  • the downsampled upper neighboring region pixel pTopDsY[x] is derived based on the corresponding neighboring pixel pY[2*x][-2] and peripheral pixels of the upper neighboring region.
  • the peripheral pixel may mean a pixel adjacent in at least one of a lower, left, right, lower left, or lower right of the corresponding pixel.
  • the pixel pTopDsY[x] may be derived as shown in Equation 25 below.
  • the downsampled upper neighboring region pixel pTopDsY[x] is based on the corresponding pixel pY[2*x][-1] and peripheral pixels of the upper neighboring region.
  • the peripheral pixel may mean a pixel adjacent to at least one of the left or right side of the corresponding pixel.
  • the pixel pTopDsY[ x] may be derived as shown in Equation 26 below.
  • the neighboring pixels may mean pixels adjacent to at least one of the top or bottom of the corresponding pixel.
  • the pixel pTopDsY[ 0] can be derived as shown in Equation 27 below.
  • the pixel pTopDsY[ 0] may be set to the pixel pY[ 0 ][ -1] of the upper neighboring area.
  • downsampling of the upper neighboring region may be performed based on any one of Embodiments 1 and 2 described above.
  • either of Embodiments 1 or 2 may be selected based on a predetermined flag. The flag indicates whether the downsampled luminance pixel has the same position as the original luminance pixel, as described above.
  • downsampling for the upper neighboring region may be performed only when the numSampT value is greater than 0. If the numSampT value is greater than 0, it may mean that the upper neighboring region of the current block is available and the intra prediction mode of the current block is INTRA_LT_CCLM or INTRA_T_CCLM.
  • Down-sampling of at least one of the above-mentioned left or upper neighboring regions (hereinafter referred to as luminance reference regions) of the luminance block may be performed using only the corresponding pixels pY[-2][2*y] and surrounding pixels at a specific location.
  • the specific position may be determined based on a position of a selected pixel among a plurality of pixels belonging to at least one (hereinafter, a color difference reference area) of a left or upper neighbor area of the color difference block.
  • the selected pixel may be an odd-numbered pixel or an even-numbered pixel in the color difference reference region.
  • the selected pixel may be a starting pixel and one or more pixels located at predetermined intervals from the starting pixel.
  • the starting pixel may be a pixel located in the first, second, or third in the color difference reference area.
  • the interval may be 1, 2, 3, 4 or more sample intervals.
  • the selected pixel may include an n-th pixel, (n+2)-th pixel, and the like.
  • the number of selected pixels may be 2, 4, 6, 8 or more.
  • the number of selected pixels, the starting pixel, and the interval may be variably determined based on at least one of the length of the color difference reference region (ie, numSampL and/or numSampT) or the intra prediction mode of the color difference block.
  • the number of selected pixels may be a fixed number (e.g., 4) pre-promised in the encoding/decoding device regardless of the length of the color difference reference region and the intra prediction mode of the color difference block.
  • parameters for reference between components of a color difference block may be derived (S3130 ).
  • the parameter may include at least one of a weight or an offset.
  • the parameter may be determined in consideration of the intra prediction mode of the current block.
  • the parameter may be derived using a selected pixel of the color difference reference region and a pixel obtained through downsampling of the luminance reference region.
  • size comparison between n pixels obtained through downsampling of the luminance reference area may be performed to classify n pixels into two groups.
  • the first group may be a group of pixels having a relatively large value among n pixels
  • the second group may be a group of pixels other than the pixels of the first group among n samples. That is, the second group may be a group of pixels having a relatively small value.
  • n may be 4, 8, 16 or more.
  • the average value of the pixels belonging to the first group may be set to the maximum value (MaxL), and the average value of the pixels belonging to the second group may be set to the minimum value (MinL).
  • selected pixels of the color difference reference region may be grouped.
  • a first group for the color difference reference region is formed by using pixels in the color difference reference region corresponding to the pixels of the first group for the luminance reference region, and a color difference reference region corresponding to pixels for the second group for the luminance reference region.
  • a second group for a color difference reference region may be formed using pixels of.
  • the average value of the pixels belonging to the first group may be set to the maximum value (MaxC)
  • MinC minimum value
  • weights and/or offsets of the parameters may be derived.
  • the chrominance block may be predicted based on the downsampled luminance block and parameters (S3140).
  • the chrominance block may be predicted by applying at least one of pre-derived weights or offsets to pixels of the downsampled luminance block.
  • FIG. 31 is only an example of a downsampling method for a peripheral region of a luminance block, and other downsampling/subsampling methods may be applied, which will be described in detail with reference to FIGS. 32 to 38 below.
  • 32 to 38 is an embodiment to which the present invention is applied, and shows a method for deriving parameters for downsampling and reference between components in a peripheral region of a luminance block.
  • a prediction image may be generated as shown in Equation 28 by linearly predicting a neighboring sample of the current coding unit based on an image of at least one of downsampling or subsampling.
  • Equation 28 rec l' denotes a reconstructed sample of a downsampled luminance block, and Pred c may denote a predicted sample of a color difference block generated by linear chroma prediction.
  • Peripheral samples of the current coding unit may be composed of samples existing at the left border and the upper border of the current coding unit as shown in the right figure of FIG. 32, and downsampling (downsampling to the gray sample of the right figure of FIG. 32). It can be referred to as a template image around luminance.
  • Equation 29 the linear chroma prediction parameters ⁇ and ⁇ values that minimize the prediction error of Equation 28 may be derived as shown in Equation 29 below.
  • x A as shown in Figure 33 represents the smallest value of the sub-sample of the sampled ambient brightness (that is, the brightness around the template image)
  • x B represent the maximum value of the peripheral sample of the sub-sampled luminance.
  • a y represents the peripheral samples of chroma corresponding to the A x
  • B y represents the samples of the peripheral corresponding to the chroma x B.
  • the max and min values may be derived by sub-sampling the template image around luminance.
  • the n samples obtained through sub-sampling can be classified into two groups.
  • the first group may be a group of samples having a relatively large value among n samples
  • the second group may be a group of samples other than the samples of the first group among n samples. That is, the second group may be a group of samples having a relatively small value.
  • n may be 4, 8, 16 or more.
  • the average value of samples belonging to the first group may be set to a maximum value (Max), and the average value of samples belonging to the second group may be set to a minimum value (Min).
  • the luminance surrounding template image can be derived from i lines adjacent to the upper boundary of the luminance block and j lines adjacent to the left boundary.
  • i and j can be 2, 3, 4, or more.
  • i may be the same as j, i may be set to a value greater than j.
  • sub-sampling/down-sampling may be performed such that 4 lines adjacent to the upper boundary become 2 lines
  • sub-sampling/down-sampling may be performed such that 4 lines adjacent to the upper boundary become 2 lines.
  • the linear predictive chroma parameters ⁇ and ⁇ can be derived by deriving the Max and min values of the first luminance template.
  • Linear prediction chroma prediction for a color difference block may be performed using the derived linear prediction chroma parameter and a reconstructed sample of the luminance block.
  • the reconstructed sample of the luminance block may be a sample downsampled to correspond to the resolution of the chrominance block.
  • sub-sampling may be performed on the primary luminance template generated through down-sampling to generate a luminance surrounding template image.
  • samples having the same x-axis coordinate may not be subsampled at the same time.
  • samples having the same y-axis coordinate may not be subsampled at the same time.
  • the luminance surrounding template images may be configured differently according to the intra reference line index (intra_luma_ref_idx). Specifically, for example, when the intra_luma_ref_idx value is 0, a luminance surrounding template image adjacent to the luminance boundary may be configured as shown in the left figure of FIG. 37. It is possible to construct a template image around luminance that is not.
  • the maximum and minimum values of the luminance surrounding template image may be derived by weighted prediction of samples in the luminance surrounding template image according to the intra reference line index (intra_luma_ref_idx).
  • a second peripheral template sample may be generated by performing weighted prediction between samples having the same x-axis coordinate in the upper 2 lines, and weighting prediction between samples having the same y-axis coordinate in the 2 left lines. have.
  • the max and min values of the second neighboring template sample may be calculated, and linear prediction chroma parameters ⁇ and ⁇ may be derived using the same, and linear prediction chroma prediction may be performed.
  • the weighted prediction parameter value used when generating the second neighboring template sample may be set differently according to the intra_luma_ref_idx value as shown in FIG. 38. Specifically, for example, if the intra_luma_ref_idx value is 0, a weight may be set largely for samples belonging to a line adjacent to the block boundary. If the intra_luma_ref_idx value is not 0, weights may be assigned to samples belonging to a line not adjacent to the block boundary. It can be set large.
  • 39 and 40 show an embodiment to which the present invention is applied, and show a method of applying an in-loop filter to a reconstructed block.
  • In-loop filtering is a technique that adaptively filters the decoded image to reduce loss of information generated during quantization and encoding.
  • a deblocking filter, a sample adaptive offset filter (SAO), and an adaptive loop filter (ALF) are examples of in-loop filtering.
  • a second reconstructed image may be generated by performing at least one of a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) on the first reconstructed image.
  • a deblocking filter e.g., a sample adaptive offset (SAO), or an adaptive loop filter (ALF)
  • SAO and ALF After applying a deblocking filter to the reconstructed image, SAO and ALF can be applied.
  • the deblocking filter is a method for alleviating blocking artifacts occurring at a block boundary of the first image and improving encoding performance.
  • Deterioration of block image quality can be mitigated by performing filtering at the block boundary, and whether the block is encoded in intra prediction mode as shown in FIG. 39, or whether the difference between the absolute values of motion vectors of neighboring blocks is greater than a predetermined threshold. Whether or not the reference pictures of neighboring blocks are the same as each other may determine a block filter strength (BS) value based on at least one. When the BS value is 0, filtering is not performed, and when the BS value is 1 or 2, filtering may be performed at a block boundary.
  • BS block filter strength
  • SAO can effectively reduce the ringing phenomenon by adding or subtracting a specific offset in block units in consideration of the pattern of the first reconstructed image.
  • SAO is composed of an edge offset (hereinafter referred to as EO) and a band offset (BO) according to the characteristics of the reconstructed image.
  • Edge offset is a method of adding an offset to a current sample differently according to a sample pattern of surrounding pixels.
  • the band offset is to reduce coding errors by adding a constant value to a set of pixels having similar pixel brightness values in the region. By dividing the pixel brightness into 32 uniform bands, pixels having similar brightness values can be set as one set. For example, four adjacent bands can be grouped into one category. One category can be set to use the same offset value.
  • ALF Adaptive Loop Filter
  • the filter may be selected on a picture-by-picture or CTU basis.
  • any one of 5x5, 7x7 or 9x9 diamond shapes can be selected as shown in FIG. 40 below.
  • the color difference component it is possible to limit the use of only 5x5 diamond form.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • Universal It can be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor.
  • the scope of the present disclosure includes software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or Instructions include a non-transitory computer-readable medium that is stored and executable on a device or computer.
  • software or Instructions include a non-transitory computer-readable medium that is stored and executable on a device or computer.
  • the present invention can be used for video encoding/decoding.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에 따른 비디오 부호화/복호화 방법 및 장치는, 색차 블록의 인트라 예측 모드를 결정하고, 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 특정된 휘도 영역을 다운샘플링하고, 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 다운샘플링된 휘도 영역에 파라미터를 적용하여 색차 블록을 예측할 수 있다.

Description

영상 부/복호화 방법 및 장치
본 발명은 비디오 신호 처리 방법 및 장치에 관한 것이다.
고해상도 비디오에 대한 시장의 수요가 증가하고 있으며, 이에 따라 고해상도 영상을 효율적으로 압축할 수 있는 기술이 필요하다. 이러한 시장의 요구에 따라 ISO/IEC의 MPEG (Moving Picture Expert Group)과 ITU-T의 VCEG (Video Coding Expert Group)이 공동으로 JCT-VC (Joint Collaborative Team on Video Coding)를 결성하여, HEVC (High Efficiency Video Coding) 비디오 압축 표준을 2013년 1월에 개발을 완료했으며, 차세대 압축 표준에 대한 연구 및 개발을 활발히 진행해오고 있다.
동영상 압축은 크게 화면 내 예측 (또는 인트라 예측), 화면 간 예측(또는 인터 예측), 변환, 양자화, 엔트로피(Entropy coding) 부호화, 인루프 필터(In-loop filter)로 구성된다. 한편, 고해상도 영상에 대한 수요가 증가함과 함께, 새로운 영상 서비스로서 입체 영상 컨텐츠에 대한 수요도 함께 증가하고 있다. 고해상도 및 초고해상도의 입체 영상 콘텐츠를 효과적으로 제공하기 위한 비디오 압축 기술에 대하여 논의가 진행되고 있다.
본 발명은 픽쳐를 적응적으로 분할하는 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 인트라 예측 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 인터 예측 방법 및 장치를 제공하는데 목적이 있다.
본 발명은 성분 간 참조 기반의 예측 방법 맟 징치를 제공하는데 목적이 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치는, 색차 블록의 인트라 예측 모드를 결정하고, 상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 상기 특정된 휘도 영역을 다운샘플링하고, 상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 상기 색차 블록에 대응하는 휘도 블록과 상기 파라미터를 이용하여 상기 색차 블록을 예측할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록 또는 상기 휘도 블록에 인접한 이웃 영역 중 적어도 하나를 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 색차 블록의 인트라 예측 모드는, 성분 간 참조 기반의 예측 모드로 구성된 소정의 그룹과 인덱스에 기초하여 유도될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 성분 간 참조 기반의 예측 모드는, 상기 색차 블록에 인접한 좌측 및 상단 영역을 모두 참조하는 제1 모드, 상기 색차 블록에 인접한 좌측 영역을 참조하는 제2 모드 또는 상기 색차 블록에 인접한 상단 영역을 참조하는 제3 모드 중 적어도 하나를 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 블록에 인접한 이웃 영역은, 상단 이웃 영역과 좌측 이웃 영역 중 적어도 하나를 포함하고, 상기 상단 이웃 영역은 n개의 화소 라인을 포함하고, 상기 좌측 이웃 영역은 m개의 화소 라인을 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 블록에 인접한 이웃 영역에 대한 다운샘플링은, 특정 위치의 휘도 화소 및 상기 휘도 화소의 주변 화소만을 이용하여 수행될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 특정 위치는, 상기 색차 블록의 이웃 영역에 속한 복수의 화소 중 선택된 화소의 위치에 기초하여 결정될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 선택된 화소는, 상기 색차 블록의 이웃 영역에서 소정의 간격마다 위치한 하나 또는 그 이상의 화소일 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 주변 화소는, 상기 휘도 화소의 좌측, 우측, 상단, 하단, 좌상단, 좌하단, 우상단 또는 우하단 중 적어도 하나의 방향에 위치한 화소일 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 성분 간 참조를 위한 파라미터를 유도하는 단계는, 상기 휘도 블록의 이웃 영역에 대한 다운샘플링을 통해 획득된 복수의 화소로부터 최대값 및 최소값을 산출하는 단계를 포함하고, 상기 성분 간 참조를 위한 파라미터는 상기 산출된 최대값 및 최소값을 이용하여 유도됟 수 있다.
본 발명에 따른 디지털 저장 매체는, 색차 블록의 인트라 예측 모드를 결정하고, 상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 상기 특정된 휘도 영역을 다운샘플링하고, 상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 상기 다운샘플링된 휘도 영역에 상기 파라미터를 적용하여 상기 색차 블록을 예측하는 처리를 실행하는 비디오 복호화 프로그램을 기록/저장할 수 있다.
본 발명은 소정의 단위로 픽쳐를 분할하여 부호화/복호화를 수행함으로써, 비디오 신호의 부호화/복호화 효율을 향상시킬 수 있다.
본 발명은 세분화된 방향성 모드 및/또는 선택적인 화소 라인을 이용함으로써 인트라 예측의 부호화 효율을 향상시킬 수 있다.
본 발명은 어파인 모드 또는 인터 영역 움직임 정보를 이용함으로써, 인터 예측의 부호화 효율을 향상시킬 수 있다.
본 발명은 휘도 영역에 대한 다운샘플링/서브샘플링을 통해 성분 간 참조 기반의 예측 효율을 향상시킬 수 있다.
도 1은 본 발명에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 3 내지 도 5는 본 발명이 적용되는 일실시예로서, 픽쳐를 복수의 블록으로 분할하는 방법을 도시한 것이다.
도 6은 본 발명이 적용되는 일실시예로서, 현재 블록을 복원하는 과정을 개략적으로 도시한 것이다.
도 7은 본 발명이 적용되는 일실시예로서, 인터 예측 방법을 도시한 것이다.
도 8 내지 도 10은 본 발명이 적용되는 일실시예로서, 어파인 인터 예측 방법을 도시한 것이다.
도 11은, 본 발명이 적용되는 일실시예로서, 머지 모드를 위한 공간적 주변 블록의 범위를 도시한 것이다.
도 12 내지 도 18은 본 발명이 적용되는 일시시예로서, 인터 영역의 움직임 정보를 이용한 머지 모드를 도시한 것이다.
도 19 및 도 20은 본 발명이 적용되는 일실시예로서, MPMM 기반의 머지 모드를 도시한 것이다.
도 21 내지 도 30은 본 발명이 적용되는 일실시예로서, 인트라 예측 방법을 도시한 것이다.
도 31은 본 발명이 적용되는 일실시예로서, 성분 간 참조 기반의 예측 방법을 도시한 것이다.
도 32 내지 도 38은 본 발명이 적용되는 일실시예로서, 휘도 블록의 주변 영역에 대한 다운샘플링 및 성분 간 참조를 위한 파라미터 유도 방법을 도시한 것이다.
도 39 및 도 40은 본 발명이 적용되는 일실시예로서, 복원 블록에 인루프 필터를 적용하는 방법을 도시한 것이다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치는, 색차 블록의 인트라 예측 모드를 결정하고, 상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 상기 특정된 휘도 영역을 다운샘플링하고, 상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 상기 색차 블록에 대응하는 휘도 블록과 상기 파라미터를 이용하여 상기 색차 블록을 예측할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록 또는 상기 휘도 블록에 인접한 이웃 영역 중 적어도 하나를 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 색차 블록의 인트라 예측 모드는, 성분 간 참조 기반의 예측 모드로 구성된 소정의 그룹과 인덱스에 기초하여 유도될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 성분 간 참조 기반의 예측 모드는, 상기 색차 블록에 인접한 좌측 및 상단 영역을 모두 참조하는 제1 모드, 상기 색차 블록에 인접한 좌측 영역을 참조하는 제2 모드 또는 상기 색차 블록에 인접한 상단 영역을 참조하는 제3 모드 중 적어도 하나를 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 블록에 인접한 이웃 영역은, 상단 이웃 영역과 좌측 이웃 영역 중 적어도 하나를 포함하고, 상기 상단 이웃 영역은 n개의 화소 라인을 포함하고, 상기 좌측 이웃 영역은 m개의 화소 라인을 포함할 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 휘도 블록에 인접한 이웃 영역에 대한 다운샘플링은, 특정 위치의 휘도 화소 및 상기 휘도 화소의 주변 화소만을 이용하여 수행될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 특정 위치는, 상기 색차 블록의 이웃 영역에 속한 복수의 화소 중 선택된 화소의 위치에 기초하여 결정될 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 선택된 화소는, 상기 색차 블록의 이웃 영역에서 소정의 간격마다 위치한 하나 또는 그 이상의 화소일 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 주변 화소는, 상기 휘도 화소의 좌측, 우측, 상단, 하단, 좌상단, 좌하단, 우상단 또는 우하단 중 적어도 하나의 방향에 위치한 화소일 수 있다.
본 발명에 따른 비디오 부호화/복호화 방법 및 장치에 있어서, 상기 성분 간 참조를 위한 파라미터를 유도하는 단계는, 상기 휘도 블록의 이웃 영역에 대한 다운샘플링을 통해 획득된 복수의 화소로부터 최대값 및 최소값을 산출하는 단계를 포함하고, 상기 성분 간 참조를 위한 파라미터는 상기 산출된 최대값 및 최소값을 이용하여 유도됟 수 있다.
본 발명에 따른 디지털 저장 매체는, 색차 블록의 인트라 예측 모드를 결정하고, 상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 상기 특정된 휘도 영역을 다운샘플링하고, 상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 상기 다운샘플링된 휘도 영역에 상기 파라미터를 적용하여 상기 색차 블록을 예측하는 처리를 실행하는 비디오 복호화 프로그램을 기록/저장할 수 있다.
본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
또한, 본 명세서에서 설명되는 장치 및 방법에 관한 실시예에 있어서, 장치의 구성 일부 또는 방법의 단계 일부는 생략될 수 있다. 또한 장치의 구성 일부 또는 방법의 단계 일부의 순서가 변경될 수 있다. 또한 장치의 구성 일부 또는 방법의 단계 일부에 다른 구성 또는 다른 단계가 삽입될 수 있다.
또한, 본 발명의 제1 실시예의 일부 구성 또는 일부 단계는 본 발명의 제2 실시예에 부가되거나, 제2 실시예의 일부 구성 또는 일부 단계를 대체할 수 있다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
본 명세서에서, 블록은 단위, 영역, 유닛, 파티션 등으로 다양하게 표현될 수 있고, 샘플은 화소, 펠(pel), 픽셀 등으로 다양하게 표현될 수 있다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 종래 영상 부호화 장치(100)는 픽쳐 분할부(110), 예측부(120, 125), 변환부(130), 양자화부(135), 재정렬부(160), 엔트로피 부호화부(165), 역양자화부(140), 역변환부(145), 필터부(150) 및 메모리(155)를 포함할 수 있다.
픽쳐 분할부(110)는 입력된 픽쳐를 적어도 하나의 처리 단위로 분할할 수 있다. 이때, 처리 단위는 예측 단위(Prediction Unit: PU)일 수도 있고, 변환 단위(Transform Unit: TU)일 수도 있으며, 부호화 단위(Coding Unit: CU)일 수도 있다. 이하, 본 발명의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다.
예측 단위는 하나의 부호화 단위 내에서 동일한 크기의 적어도 하나의 정사각형 또는 직사각형 등의 형태를 가지고 분할된 것일 수도 있고, 하나의 부호화 단위 내에서 분할된 예측 단위 중 어느 하나의 예측 단위가 다른 하나의 예측 단위와 상이한 형태 및/또는 크기를 가지도록 분할된 것일 수도 있다. 부호화 단위를 기초로 인트라 예측을 수행하는 예측 단위를 생성시 최소 부호화 단위가 아닌 경우, 복수의 예측 단위 NxN 으로 분할하지 않고 인트라 예측을 수행할 수 있다.
예측부(120, 125)는 인터 예측 또는 화면 간 예측을 수행하는 인터 예측부(120)와 인트라 예측 또는 화면 내 예측을 수행하는 인트라 예측부(125)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 움직임 벡터, 참조 픽쳐 등)를 결정할 수 있다. 생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(130)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(165)에서 부호화되어 복호화기에 전달될 수 있다.
인터 예측부(120)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 단위를 예측할 수도 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 단위를 예측할 수도 있다. 인터 예측부(120)는 참조 픽쳐 보간부, 움직임 예측부, 움직임 보상부를 포함할 수 있다.
참조 픽쳐 보간부에서는 메모리(155)로부터 참조 픽쳐 정보를 제공받고 참조 픽쳐에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.
움직임 예측부는 참조 픽쳐 보간부에 의해 보간된 참조 픽쳐를 기초로 움직임 예측을 수행할 수 있다. 움직임 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 움직임 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 움직임 벡터값을 가질 수 있다. 움직임 예측부에서는 움직임 예측 방법을 다르게 하여 현재 예측 단위를 예측할 수 있다. 움직임 예측 방법으로 스킵 모드(Skip Mode), 병합 모드(Merge 모드), AMVP 모드(AMVP Mode), 인트라 블록 카피(Intra Block Copy) 모드, 어파인 모드(Affine mode) 등 다양한 방법이 사용될 수 있다.
인트라 예측부(125)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 단위를 생성할 수 있다. 현재 예측 단위의 주변 블록이 인터 예측을 수행한 블록이어서, 참조 픽셀이 인터 예측을 수행한 픽셀일 경우, 인터 예측을 수행한 블록에 포함되는 참조 픽셀을 주변의 인트라 예측을 수행한 블록의 참조 픽셀 정보로 대체하여 사용할 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.
또한, 예측부(120, 125)에서 생성된 예측 단위를 기초로 예측을 수행한 예측 단위와 예측 단위의 원본 블록과 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력될 수 있다.
변환부(130)에서는 원본 블록과 예측부(120, 125)를 통해 생성된 예측 단위의 잔차값(residual)정보를 포함한 잔차 블록을 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), KLT와 같은 변환 방법을 사용하여 변환시킬 수 있다. 잔차 블록을 변환하기 위해 DCT를 적용할지, DST를 적용할지 또는 KLT를 적용할지는 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드 정보를 기초로 결정할 수 있다.
양자화부(135)는 변환부(130)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(135)에서 산출된 값은 역양자화부(140)와 재정렬부(160)에 제공될 수 있다.
재정렬부(160)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.
재정렬부(160)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원의 블록 형태 계수를 1차원의 벡터 형태로 변경할 수 있다. 예를 들어, 재정렬부(160)에서는 지그-재그 스캔(Zig-Zag Scan)방법을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원 벡터 형태로 변경시킬 수 있다. 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔 대신 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측 모드에 따라 지그-재그 스캔, 수직 방향 스캔 및 수평 방향 스캔 중 어떠한 스캔 방법이 사용될지 여부를 결정할 수 있다.
엔트로피 부호화부(165)는 재정렬부(160)에 의해 산출된 값들을 기초로 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다. 관련하여, 엔트로피 부호화부(165)는 재정렬부(160) 및 예측부(120, 125)로부터 부호화 단위의 잔차값 계수 정보를 부호화 할 수 있다. 또한, 본 발명에 따라 움직임 정보를 디코더 측면에서 유도하여 사용함을 지시하는 정보 및 움직임 정보 유도에 사용된 기법에 대한 정보를 시그널링(signaling)하여 전송하는 것이 가능하다.
역양자화부(140) 및 역변환부(145)에서는 양자화부(135)에서 양자화된 값들을 역양자화하고 변환부(130)에서 변환된 값들을 역변환한다. 역양자화부(140) 및 역변환부(145)에서 생성된 잔차값(Residual)은 예측부(120, 125)에 포함된 움직임 추정부, 움직임 보상부 및 인트라 예측부를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다.
필터부(150)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다. 디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다. ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다.
메모리(155)는 필터부(150)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(120, 125)에 제공될 수 있다.
도 2는 본 발명에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 2를 참조하면, 영상 복호화기(200)는 엔트로피 복호화부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230, 235), 필터부(240), 메모리(245)가 포함될 수 있다.
영상 부호화기에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 영상 부호화기와 반대의 절차로 복호화될 수 있다.
엔트로피 복호화부(210)는 영상 부호화기의 엔트로피 부호화부에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다.
엔트로피 복호화부(210)에서는 부호화기에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.
재정렬부(215)는 엔트로피 복호화부(210)에서 엔트로피 복호화된 비트스트림을 부호화부에서 재정렬한 방법을 기초로 재정렬을 수행할 수 있다. 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다.
역양자화부(220)는 부호화기에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다.
역변환부(225)는 영상 부호화기에서 수행한 양자화 결과에 대해 변환부에서 수행한 변환 즉, DCT, DST, 및 KLT에 대해 역변환 즉, 역 DCT, 역 DST 및 역 KLT를 수행할 수 있다. 역변환은 영상 부호화기에서 결정된 전송 단위를 기초로 수행될 수 있다. 영상 복호화기의 역변환부(225)에서는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 변환 기법(예를 들어, DCT, DST, KLT)이 선택적으로 수행될 수 있다.
예측부(230, 235)는 엔트로피 복호화부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(245)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다.
전술한 바와 같이 영상 부호화기에서의 동작과 동일하게 인트라 예측 또는 화면 내 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 동일할 경우, 예측 단위의 좌측에 존재하는 픽셀, 좌측 상단에 존재하는 픽셀, 상단에 존재하는 픽셀을 기초로 예측 단위에 대한 인트라 예측을 수행하지만, 인트라 예측을 수행시 예측 단위의 크기와 변환 단위의 크기가 상이할 경우, 변환 단위를 기초로 한 참조 픽셀을 이용하여 인트라 예측을 수행할 수 있다. 또한, 최소 부호화 단위에 대해서만 NxN 분할을 사용하는 인트라 예측을 사용할 수도 있다.
예측부(230, 235)는 예측 단위 판별부, 인터 예측부 및 인트라 예측부를 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(210)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 움직임 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 반면, 만약 부호화기(100)에서 상기 인터 예측을 위한 움직임 예측 관련 정보를 전송하지 않고, 대신 움직임 정보를 디코더 측면에서 유도하여 사용함을 지시하는 정보 및 움직임 정보 유도에 사용된 기법에 대한 정보를 전송하는 경우에는, 상기 예측 단위 판별부는 부호화기(100)로부터 전송된 정보를 기초로 하여, 인터 예측부(230)의 예측 수행을 판별하게 된다.
인터 예측부(230)는 영상 부호화기에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 인터 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 움직임 예측 방법이 스킵 모드(Skip Mode), 병합 모드(Merge 모드), AMVP 모드(AMVP Mode), 인트라 블록 카피 모드(Intra block copy mode), 어파인 모드(Affine mode) 중 어떠한 방법인지 여부를 판단할 수 있다.
인트라 예측부(235)는 현재 픽쳐 내의 화소 정보를 기초로 예측 블록을 생성할 수 있다. 예측 단위가 인트라 예측을 수행한 예측 단위인 경우, 영상 부호화기에서 제공된 예측 단위의 인트라 예측 모드 정보를 기초로 인트라 예측을 수행할 수 있다.
인트라 예측부(235)에는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 부분으로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 결정하여 적용할 수 있다. 영상 부호화기에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.
참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 정수값 이하의 화소 단위의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
복원된 블록 또는 픽쳐는 필터부(240)로 제공될 수 있다. 필터부(240)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
영상 부호화기로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화기의 디블록킹 필터에서는 영상 부호화기에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화기에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다. ALF는 부호화기로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라메터 셋에 포함되어 제공될 수 있다.
메모리(245)는 복원된 픽쳐 또는 블록을 저장하여 참조 픽쳐 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽쳐를 출력부로 제공할 수 있다.
도 3 내지 도 5는 본 발명이 적용되는 일실시예로서, 픽쳐를 복수의 블록으로 분할하는 방법을 도시한 것이다.
도 3을 참조하면, 픽쳐(300)는 복수개의 기본 코딩 유닛(Coding Tree Unit, 이하, CTU)으로 나누어진다.
픽쳐 또는 비디오 시퀀스 단위로 CTU의 크기를 규정할 수 있으며, 각 CTU는 다른 CTU와 겹치지 않도록 구성되어 있다. 예를 들어, 전체 시퀀스에서 CTU 사이즈를 128x128로 설정할 수 있고, 픽쳐 단위로 128x128 내지 256x256 중 어느 하나를 선택해서 사용할 수도 있다.
CTU를 계층적으로 분할하여 코딩 블록/코딩 유닛(Coding Unit, 이하 CU)을 생성할 수 있다. 코딩 유닛 단위로 예측 및 변환을 수행할 수 있으며, 예측 부호화 모드를 결정하는 기본 단위가 된다. 예측 부호화 모드는 예측 영상을 생성하는 방법을 나타내며, 화면 내 예측 (intra prediction, 이하, 인트라 예측), 화면 간 예측(inter prediction, 이하, 인터 예측) 또는 복합 예측(combined prediction)등을 예로 들수 있다. 구체적으로 예를 들어, 코딩 유닛 단위로 인트라 예측, 인터 예측 또는 복합 예측 중 적어도 어느 하나의 예측 부호화 모드를 이용하여 예측 블록(prediction block)을 생성할 수 있다. 화면 간 예측 모드에서 참조 픽쳐가 현재 픽쳐를 가리키는 경우에는 이미 복호화된 현재 픽쳐 내 영역을 기반으로 예측 블록을 생성할 수 있다. 이는, 참조 픽쳐 인덱스와 움직임움직임 벡터를 이용하여 예측 블록을 생성하기 때문에 화면 간 예측에 포함될 수 있다. 인트라 예측은 현재 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이고, 인터 예측은 이미 복호화된 다른 픽쳐의 정보를 이용하여 예측 블록을 생성하는 방법이며, 복합 예측은 인터 예측과 인트라 예측을 혼합하여 사용하는 방법이다. 복합 예측은, 하나의 코딩 블록을 구성하는 복수의 서브 영역 중 일부 영역은 인터 예측으로 부호화/복호화하고, 나머지 영역은 인트라 예측으로 부호화/복호화할 수 있다. 또는, 복합 예측은, 복수의 서브 영역에 대해서 1차적으로 인터 예측을 수행하고, 2차적으로 인트라 예측을 수행할 수 있다. 이 경우, 코딩 블록의 예측값은, 인터 예측에 따른 예측값과 인트라 예측에 따른 예측값을 가중 평균하여 유도될 수 있다. 하나의 코딩 블록을 구성하는 서브 영역의 개수는, 2개, 3개, 4개 또는 그 이상일 수 있고, 서브 영역의 형태는, 사각형, 삼각형, 기타 다각형일 수 있다.
도 4를 참조하면, CTU는 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 분할 (파티셔닝)될 수 있다. 분할된 블록은 다시 쿼드 트리, 바이너리 트리 또는 트리플 트리 형태로 추가 분할될 수 있다. 현재 블록을 4개의 정방 형태 파티션으로 나누는 방법을 쿼드 트리 파티셔닝이라고 부르고, 현재 블록을 2개의 정방 또는 비정방 형태 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부르며, 현재 블록을 3개의 파티션으로 나누는 방법을 바이너리 트리 파티셔닝이라고 부른다.
수직 방향으로 바이너리 파티셔닝(도 4의 SPLIT_BT_VER)을 수직 바이너리 트리 파티셔닝이라고 부르며, 수평 방향으로 바이너리 트리 파티셔닝 (도 4의 SPLIT_BT_HOR)을 수평 바이너리 트리 파티셔닝이라고 부른다.
수직 방향으로 트리플 파티셔닝 (도 4의 SPLIT_TT_VER)을 수직 트리플 트리 파티셔닝이라고 부르며, 수평 방향으로 트리플 트리 파티셔닝 (도 4의 SPLIT_TT_HOR)을 수평 트리플 트리 파티셔닝이라고 부른다.
분할 횟수를 파티셔닝 뎁스(partitioning depth)라고 부르며, 시퀀스, 픽쳐, 서브 픽쳐, 슬라이스 또는 타일 별로 파티셔닝 뎁스가 최대치를 서로 다르게 설정할 수도 있으며, 파티셔닝 트리 형태(쿼드 트리/바이너리 트리/트리플 트리)에 따라 서로 다른 파티셔닝 뎁스를 가지도록 설정할 수 있으며, 이를 나타내는 신택스를 시그날링할 수도 있다.
쿼드 트리 파티션닝, 바이너리 트리 파니셔닝 또는 기타 멀티 트리 파티셔닝(예를 들어, 터너리 트리 파티셔닝)과 같은 방법으로, 분할된 코딩 유닛을 추가로 분할하여 리프 노드(leaf node)의 코딩 유닛을 구성하거나 추가 분할 없이 리프 노드(leaf node)의 코딩 유닛을 구성할 수도 있다.
도 5를 참조하면, 하나의 CTU를 계층적으로 분할하여 코딩 유닛을 설정할 수 있으며, 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 적어도 어느 하나를 이용하여 코딩 유닛을 분할할 수 있다. 이와 같은 방법을 멀티 트리 파티셔닝(Multi tree partitioning)이라고 부른다.
파티셔닝 뎁스가 k인 임의의 코딩 유닛을 분할하여 생성된 코딩 유닛을 하위 코딩 유닛이라하며, 파티셔닝 뎁스는 (k+1)이 된다. 파티셔닝 뎁스 (k+1)인 하위 코딩 유닛을 포함하고 있는 파티셔닝 뎁스 k인 코딩 유닛을 상위 코딩 유닛이라 한다.
상위 코딩 유닛의 파티셔닝 타입 및/또는 현재 코딩 유닛의 주변에 있는 코딩 유닛의 파티셔닝 타입에 따라 현재 코딩 유닛의 파티셔닝 타입이 제한될 수도 있다.
여기서, 파티셔닝 타입은 바이너리 트리 파티셔닝, 쿼드 트리 파티셔닝/트리플 트리 파티셔닝 중 어느 파티셔닝을 사용했는지를 알려주는 지시자를 나타낸다.
도 6은 본 발명이 적용되는 일실시예로서, 현재 블록을 복원하는 과정을 개략적으로 도시한 것이다.
도 6을 참조하면, 부호화/복호화 장치에 기-정의된 예측 모드를 기반으로 현재 블록의 예측 블록을 생성할 수 있다(S600).
비디오 부호화/복호화에서 예측 영상은 복수 개의 방법으로 생성할 수 있으며, 예측 영상을 생성하는 방법을 예측 부호화 모드라고 한다.
예측 부호화 모드는 인트라 예측 부호화 모드, 인터 예측 부호화 모드, 현재 픽쳐 레퍼런스 부호화 모드 또는 결합 부호화 모드 (combined prediction)등으로 구성될 수 있다.
인터 예측 부호화 모드는 이전 픽쳐의 정보를 이용하여 현재 블록의 예측 블록(예측 영상)을 생성하는 예측 부호화 모드라고 하고, 인트라 예측 부호화 모드는 현재 블록과 이웃한 샘플을 이용하여 예측 블록을 생성하는 예측 부호화 모드라 한다. 현재 픽쳐의 이미 복원된 영상을 이용하여 예측 블록을 생성할 수도 있으며, 이를 현재 픽쳐 레퍼런스 모드 또는 인트라 블록 카피 모드라고 부른다.
인터 예측 부호화 모드, 인트라 예측 부호화 모드 또는 현재 픽쳐 레퍼런스 부호화 모드 중 적어도 2개 이상의 예측 부호화 모드를 사용하여 예측 블록을 생성할 수도 있으며, 이를 결합 부호화 모드(Combined prediction)이라고 부른다.
인터 예측 부호화 모드에 대해서는 도 7 내지 도 20을 참조하여 자세히 살펴보고, 인트라 예측 부호화 모드에 대해서는 도 21 내지 도 38을 참조하여 자세히 살펴보도록 한다.
도 6을 참조하면, 소정의 변환을 통해 현재 블록의 변환 블록을 생성할 수 있다(S610).
원본 영상에서 예측 영상을 차분한 영상을 잔차 영상(residual) 또는 변환 블록이라 한다.
잔차 영상에 DCT(Discrete cosine transform)와 같은 2차원 변환(Transform)을 통하여 2원 주파수 성분으로 분해할 수 있다. 영상에서 고주파 성분을 제거해도 시각적으로 왜곡이 크게 발생하지 않는 특성이 있다. 고주파에 해당하는 값을 작게 하거나 0으로 설정하면 시각적 왜곡이 크지 않으면서도 압축 효율을 크게 할 수 있다.
예측 블록의 크기나 예측 모드에 따라 DST (Discrete sine transform)을 사용할 수도 있다. 구체적으로 예를 들어, 인트라 예측 모드이고, 예측 블록/코딩 블록의 크기가 NxN 보다 작은 크기인 경우에는 DST 변환을 사용하도록 설정하고, 그 외의 예측 블록/코딩 블록에서는 DCT를 사용하도록 설정할 수도 있다.
DCT는 영상을 cos 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리이고, 그 때의 주파수 성분들은 기저 영상으로 표현된다. 예를 들어, NxN 블록에서 DCT 변환을 수행하면 N2 개의 기본 패턴 성분을 얻을 수 있다. DCT 변환을 수행한다는 것은 원화소 블록에 포함된 기본 패턴 성분들 각각의 크기를 구하는 것이다. 각 기본 패턴 성분들의 크기는 DCT 계수라고 부른다.
대체적으로 저주파에 0이 아닌 성분들이 많이 분포하는 영상에서는 이산 여현 변환(Discrete Cosine Transform, DCT)을 주로 사용하고, 고주파 성분이 많이 분포하는 영상에서는 DST (Discrete Sine Transform)을 사용할 수도 있다.
DST는 영상을 sin 변환을 이용하여 2차원 주파수 성분으로 분해(변환)하는 처리를 나타낸다. DCT 또는 DST 변환 이외의 변환 방법을 사용하여 2차원 영상을 2차원 주파수 성분으로 분해(변환)할 수 있으며, 이를 2차원 영상 변환이라고 부른다.
잔차 영상 중 특정 블록에서는 2차원 영상 변환을 수행하지 않을 수 있으며, 이를 변환 스킵(transform skip)이라고 부른다. 변환 스킵 이후에 양자화를 적용할 수 있다.
2차원 영상 내에 있는 임의의 블록을 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제1 변환이라고 부른다. 제1 변환을 수행 후 변환 블록의 일부 영역에서 변환을 다시 수행할 수 있으며, 이를 제2 변환이라고 부른다.
제1 변환은 복수개의 변환 코어 중 하나를 사용할 수 있다. 구체적으로 예를 들어, 변환 블록에서 DCT2 , DCT8 또는 DST7 중 어느 하나를 선택하여 사용할 수 있다. 또는 변환 블록의 수평 방향 변환과 수직 방향 변환에서 서로 다른 변환 코어를 사용할 수도 있다.
제1 변환과 제2 변환을 수행하는 블록 단위가 서로 다르게 설정할 수도 있다. 구체적으로 예를 들어, 잔차 영상의 8x8 블록에서 제 1 변환을 수행한 후, 4x4 서브 블록 별로 제2 변환을 각각 수행할 수도 있다. 또 다른 예를 들어, 각 4x4 블록에서 제1 변환을 수행한 후, 8x8 크기의 블록에서 제2 변환을 각각 수행할 수도 있다.
제1 변환이 적용된 잔차 영상을 제1 변환 잔차 영상이라고 부른다. 제1 변환 잔차 영상에 DCT 또는 DST 또는 2차원 영상 변환을 적용할 수 있으며, 이 때 사용된 변환을 제2 변환이라고 부른다. 제2 변환이 적용된 2차원 영상을 제2 변환 잔차 영상이라고 부른다.
제1 변환 및/또는 제2 변환을 수행한 후의 블록 내 샘플 값을 변환 계수라고 부른다. 양자화는 블록의 에너지를 줄이기 위해 변환 계수를 기 정의된 값으로 나누는 과정을 말한다. 변환 계수에 양자화를 적용하기 위해 정의된 값을 양자화 파라미터라고 부른다.
시퀀스 단위 또는 블록 단위로 기 정의된 양자화 파라미터를 적용할 수 있다. 통상적으로 1에서 51 사이의 값으로 양자화 파라미터를 정의할 수 있다.
변환 및 양자화를 수행한 후에, 역양자화 및 역변환을 수행하여 잔차 복원 영상을 생성 할 수 있다. 잔차 복원 영상에 예측 영상을 더해서 제1 복원 영상을 생성할 수 있다.
부호화/복호화 장치에 기-정의된 n개의 변환 타입 중 적어도 하나에 기초하여, 변환 블록이 생성될 수 있다. n은 1, 2, 3, 4, 또는 그 이상의 정수일 수 있다. 상기 변환 타입으로, DCT2, DCT8, DST7, 변환 스킵 모드 등이 이용될 수 있다. 하나의 블록의 수직/수평 방향에 대해서 하나의 동일한 변환 타입만이 적용될 수도 있고, 수직/수평 방향 각각에 대해서 상이한 변환 타입이 적용될 수도 있다. 이를 위해, 하나의 동일한 변환 타입이 적용되는지 여부를 나타내는 플래그가 이용될 수 있다. 상기 플래그는 부호화 장치에서 시그날링될 수 있다.
또한, 상기 변환 타입은, 부호화 장치에서 시그날링되는 정보에 기초하여 결정되거나, 소정의 부호화 파라미터에 기초하여 결정될 수 있다. 여기서, 부호화 파라미터는, 블록의 크기, 형태, 인트라 예측 모드 또는 성분 타입(e.g., 휘도, 색차) 중 적어도 하나를 의미할 수 있다. 블록의 크기는, 너비, 높이, 너비와 높이의 비, 너비와 높이의 곱, 너비와 높이의 합/차 등으로 표현될 수 있다. 예를 들어, 현재 블록의 크기가 소정의 문턱값보다 큰 경우, 수평 방향의 변환 타입은 제1 변환 타입(e.g., DCT2)으로 결정되고, 수직 방향의 변환 타입은 제2 변환 타입(e.g., DST7)으로 결정될 수 있다. 상기 문턱값은, 0, 4, 8, 16, 32 또는 그 이상의 정수일 수 있다.
한편, 본 발명에 따른 잔차 계수는, 제1 변환 이후 제2 변환을 수행하여 획득된 것일 수 있다. 제2 변환은 현재 블록 내 일부 영역의 잔차 계수에 대해서 수행될 수 있다. 이 경우, 복호화 장치는, 상기 일부 영역에 대해 제2 역변환을 수행하고, 상기 역변환된 일부 영역을 포함한 현재 블록에 대해서 제1 역변환을 수행함으로써, 현재 블록의 변환 블록을 획득할 수 있다.
도 6을 참조하면, 예측 블록과 변환 블록을 기반으로, 현재 블록을 복원할 수 있다(S620).
복원된 현재 블록에 대해서 소정의 인-루프 필터가 적용될 수 있다. 인-루프 필터는, 디블록킹 필터, SAO(sample adaptive offset) 필터 또는 ALF(adaptive loop filter) 중 적어도 하나를 포함할 수 있으며, 도 39 및 도 40을 참조하여 살펴보기로 한다.
도 7은 본 발명이 적용되는 일실시예로서, 인터 예측 방법을 도시한 것이다.
이전 픽쳐의 정보를 이용하여 현재 픽쳐에 있는 블록의 예측 블록(예측 영상)을 생성하는 방법을 인터 예측 부호화 모드 또는 인터 모드라고 부른다.
예를 들어, 이전 픽쳐의 해당 블록(colocated block/co-located 블록)을 기반으로 예측 영상을 생성하거나, 이전 픽쳐의 특정 블록을 기반으로 예측 블록(예측 영상)을 생성할 수 있다.
여기서 특정 블록은 motion vector로 부터 유도될 수 있다. 동일 위치 블록은 도 7과 같이 현재 블록과 좌상단 샘플의 위치 및 크기가 같은 해당 픽쳐의 블록을 나타낸다. 해당 픽쳐는 참조 픽쳐 레퍼런스와 같은 신택스로 부터 특정 될 수 있다.
인터 예측 부호화 모드에서는 오브젝트의 움직임을 고려하여 예측 블록을 생성할 수 있다. 예를 들어, 이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로 어느 정도 움직였는지 알면 현재 블록에서 움직임을 고려한 블록을 차분하여 예측 블록(예측 영상)을 생성할 수 있으며, 이를 움직임 예측 블록이라고 부른다.
현재 블록에서 움직임 예측 블록 또는 해당 예측 블록을 차분하여 잔차 블록을 생성할 수 있다. 오브젝트에 움직임이 발생하면, 해당 예측 블록보다 움직임 예측 블록을 사용하면 잔차 블록의 에너지가 작아져서 압축 성능이 좋아질 수 있다. 이와 같이 움직임 예측 블록을 이용하는 방법을 움직임 보상 예측이라고 부르며, 대부분의 인터 예측 부호화에서는 움직임 보상 예측을 사용한다.
이전 픽쳐에 있는 오브젝트가 현재 픽쳐에서 어느 방향으로, 어느 정도 움직였는지를 나타내는 값을 움직임 벡터라고 한다. 움직임 벡터는 시퀀스, 픽쳐, 서브 픽쳐, 슬라이스, 타일, CTU 또는 CU의 단위로 서로 다른 화소 정밀도를 갖는 움직임 벡터를 사용할 수 있다. 예를 들어, 특정 블록에서 움직임 벡터의 화소 정밀도는 1/16, 1/8, 1/4, 1/2, 1, 2, 4 또는 8 중 적어도 어느 하나일 수 있다. 후술하는 인터 예측 부호화 모드 별로, 이용 가능한 화소 정밀도 후보의 종류 및/또는 개수가 상이할 수 있다. 예를 들어, 어파인 인터 예측 방법의 경우, k개의 화소 정밀도가 이용 가능하고, translation 움직임을 이용한 인터 예측 방법의 경우, i개의 화소 정밀도가 이용 가능하다. 현재 픽쳐 레퍼런스 모드의 경우, j개의 화소 정밀도가 이용 가능하다. 여기서, k, i와 j는 1, 2, 3, 4, 5, 또는 그 이상의 자연수일 수 있다. 다만, k는 i보다 작고, i는 j보다 작을 수 있다. 어파인 인터 예측 방법은 1/16, 1/4 또는 1 중 적어도 하나의 화소 정밀도를 이용하고, translation 움직임을 이용한 인터 예측 방법(e.g., 머지 모드, AMVP 모드)은 1/4, 1/2, 1 또는 4 중 적어도 하나의 화소 정밀도를 이용할 수 있다. 현재 픽쳐 레퍼런스 모드는, 1, 4 또는 8 중 적어도 하나의 화소 정밀도를 이용할 수 있다.
인터 예측 모드는 translation 움직임을 이용한 인터 예측 방법과 affine 움직임을 이용한 affine 인터 예측 방법이 선택적으로 사용될 수도 있다. translation 움직임을 이용한 인터 예측 방법으로, 머지 모드(merge mode) 또는 AMVP 모드가 이용될 수 있다.
도 8 내지 도 10은 본 발명이 적용되는 일실시예로서, 어파인 인터 예측 방법을 도시한 것이다.
비디오에서 특정 물체(object)의 움직임이 선형적으로 나타나지 않는 경우가 많이 발생한다. 예를 들어, 도 8과 같이 카메라 줌인 (Zoom-in), 줌 아웃(Zoom-out), 회전(roation), 임의 형태로 변환을 가능하게 하는 affine 변환 등의 affine motion이 사용된 영상에서는 오브젝트의 움직임을 translation 움직임 벡터만 사용하는 경우 물체의 움직임을 효과적으로 표현할 수 없으며, 부호화 성능이 낮아질 수 있다.
어파인 움직임은 다음 수학식 1과 같이 표현할 수 있다.
[수학식 1]
vx=ax-by+e
vy=cx+dy+f
어파인 움직임을 총 6개의 파라미터를 사용하여 표현하는 것은 복잡한 움직임이 있는 영상에 효과적이지만, 어파인 움직임 파라미터를 부호화하는데 사용하는 비트가 많아서 부호화 효율이 떨어질 수도 있다.
이에, 4개의 파라미터로 어파인 움직임을 간략화하여 표현할 수 있으며,, 이를 4 파라미터 어파인 움직임 모델이라고 부른다. 수학식 2는 4개의 파라미터로 어파인 움직임을 표현한 것이다.
[수학식 2]
vx=ax-by+e
vy=bx+ay+f
4-파라미터 어파인 움직임움직임 모델은 현재 블록의 2개 컨트롤 포인트에서의 움직임 벡터를 포함할 수 있다. 컨트롤 포인트는 현재 블록의 좌상단 코너, 우상단 코너 또는 좌하단 코너 중 적어도 하나를 포함할 수 있다. 일 예로, 4파라미터 어파인 움직임 모델은 도 9의 좌측 그림과 같이 코딩 유닛의 좌상단 샘플 (x0,y0)에서의 움직임 벡터 sv0 와 코딩 유닛의 우상단 샘플 (x1,y1)에서의 움직임 벡터 sv1에 의해서 결정 될 수 있으며, sv0와 sv1을 어파인 시드 벡터라고 부른다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제 1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제 2 어파인 시드 벡터라 가정하기로 한다. 4-파라미터 어파인 움직임 모델에서 제1 및 제2 어파인 시드 벡터 중 하나를 좌하단에 위치한 어파인 시드 벡터로 교체하여 사용하는 것도 가능하다.
6-파라미터 어파인 움직임 모델은 도 9의 우측 그림과 같이 4-파라미터 어파인 움직임 모델에 잔여 컨트롤 포인트(예컨대, 좌하단에 샘플 (x2,y2))의 움직임 벡터 sv2가 추가된 어파인 움직임 모델이다. 이하, 좌상단에 위치한 어파인 시드 벡터 sv0를 제1 어파인 시드 벡터라 가정하고, 우상단에 위치한 어파인 시드 벡터 sv1를 제2 어파인 시드 벡터라 가정하고, 좌하단에 위치한 어파인 시드 벡터 sv2를 제3 어파인 시드 벡터라 가정한다.
어파인 움직임을 표현하기 위한 파라미터의 개수에 관한 정보가 비트스트림에 부호화될 수 있다. 예컨대, 6-파라미터의 사용 여부를 나타내는 플래그, 4- 파라미터의 사용 여부를 나타내는 플래그가 픽쳐, 서브 픽쳐, 슬라이스, 타일 그룹, 타일, 코딩 유닛 또는 CTU 중 적어도 하나의 단위로 부호화될 수 있다. 이에 따라, 소정의 단위로 4-파라미터 어파인 움직임 모델 또는 6-파라미터 어파인 움직임 모델 중 어느 하나를 선택적으로 사용할 수도 있다.
어파인 시드 벡터를 이용하여 도 10과 같이 코딩 유닛의 서브 블록 별로 움직임 벡터를 유도할 수 있으며, 이를 어파인 서브 블록 벡터라고 부른다.
어파인 서브 블록 벡터는 다음 수학식 3과 같이 유도될 수도 있다. 여기서 서브 블록의 기준 샘플 위치(x,y)는 블록의 코너에 위치한 샘플(예컨대, 좌상단 샘플)일 수도 있고, x축 또는 y축 중 적어도 하나가 중앙인 샘플(예컨대, 중앙 샘플)일 수도 있다.
[수학식 3]
Figure PCTKR2019018643-appb-I000001
어파인 서브 블록 벡터를 이용하여 코딩 유닛 단위 또는 코딩 유닛 내 서브 블록 단위로 움직임 보상을 수행할 수 있으며, 이를 어파인 인터 예측 모드라고 부른다. 수학식 3에서 (x1-x0)는 코딩 유닛의 너비와 같은 값을 가질 수 있다.
도 11은, 본 발명이 적용되는 일실시예로서, 머지 모드를 위한 공간적 주변 블록의 범위를 도시한 것이다.
현재 코딩 유닛의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스 등)를 부호화 하지 않고, 주변 블록의 움직임 정보로 부터 유도할 수 있다. 주변 블록 중 어느 하나의 움직임 정보를 현재 코딩 유닛의 움직임 정보로 설정할 수 있으며, 이를 머지 모드(merge mode)라고 부른다.
도 11을 참조하면, 머지 모드에 사용되는 주변 블록은 인덱스 0 내지 4와 같이 현재 코딩 유닛과 인접한 블록(현재 코딩 유닛의 경계와 맞닿은 블록)일 수도 있고, 도 11의 인덱스 5 내지 26과 같이 현재 코딩 유닛에 인접하지 않은 블록일 수도 있다.
머지 모드의 경우, 상기 주변 블록 중 적어도 하나를 포함한 머지 후보 리스트를 구성할 수 있다. 머지 인덱스에 기초하여, 머지 후보 리스트에 속한 복수의 머지 후보 중 어느 하나 특정되고, 특정된 머지 후보의 움직임 정보가 현재 코딩 유닛의 움직임 정보로 설정될 수 있다.
도 12 내지 도 18은 본 발명이 적용되는 일시시예로서, 인터 영역의 움직임 정보를 이용한 머지 모드를 도시한 것이다.
현재 픽쳐에서 이미 인터 예측으로 부호화된 코딩 유닛의 움직임 정보(움직임 벡터 및 참조 픽쳐 인덱스)를 기-정의된 크기의 리스트(버퍼)에 저장할 수 있으며, 이를 인터 영역 움직임 정보 리스트라고 부른다.
인터 영역 움직임 정보 리스트에 있는 움직임 정보(움직임 벡터 또는 참조 픽쳐 인덱스 중 적어도 하나)를 인터 영역 움직임 후보라고 한다.
인터 영역 움직임 후보를 현재 코딩 유닛의 머지 후보로 사용할 수 있으며, 이를 위해 인터 영역 움직임 후보 중 적어도 하나는 현재 코딩 유닛의 머지 후보 리스트에 추가될 수 있다. 이런 방법을 인터 영역 머지 방법이라고 부른다.
상기 인터 영역 움직임 정보 리스트는, 픽쳐, 슬라이스, 타일, CTU 행 또는 CTU 중 어느 하나의 단위로 초기화될 수 있다. 초기화는 상기 리스트가 비어있는 상태를 의미할 수 있다. 부호화 및/또는 복호화가 완료된 픽쳐의 일부 영역으로부터의 움직임 정보를 인터 영역 움직임 정보 리스트에 추가할 수 있다. 시퀀스, 픽쳐, 서브 픽쳐, 슬라이스 또는 타일 중 적어도 하나의 레벨에서 인터 영역 움직임 정보 리스트의 초기 인터 영역 움직임 후보를 시그널링할 수도 있다.
코딩 유닛이 인터 예측으로 부호화/복호화 되면 도 12와 같이 상기 코딩 유닛의 움직임 정보를 인터 영역 움직임 정보 리스트에 업데이트할 수 있다. 인터 영역 움직임 정보 리스트에 있는 인터 영역 움직임 후보의 개수가 최대값인 경우에는, 인터 영역 움직임 정보 리스트 인덱스에가 가장 작은 값 (가장 먼저 인터 영역 움직임 정보 리스트에 추가된 움직임 정보)를 제거하고, 가장 최근에 부호화/복호화된 인터 영역의 움직임 정보를 인터 영역 움직임 정보 리스트 추가할 수 있다.
가장 최근의 움직임 정보가 리스트에 기-추가된 움직임 정보와 동일한 경우, 가장 최근의 움직임 정보는 리스트에 추가되지 않을 수 있다. 또는, 가장 최근의 움직임 정보와 동일한 움직임 정보를 리스트에서 제거하고, 가장 최근의 움직임 정보를 추가할 수도 있다. 이때, 가장 최근의 움직임 정보는, 리스트의 가장 마지막 위치에 추가될 수 있다.
디코딩된 코딩 유닛의 움직임 벡터 mvCand를 인터 영역 움직임 정보 리스트 HmvpCandList에 업데이트할 수 있다. 이때 디코딩된 코딩 유닛의 움직임 정보가 인터 영역 움직임 정보 리스트에 있는 움직임 정보 중 어느 하나와 같은 경우(움직임 벡터와 레퍼런스 인덱스가 모두 같은 경우)에는 인터 영역 움직임 정보 리스트를 업데이트 하지 않거나, 도 14와 같이 디코딩 된 코딩 유닛의 움직임 벡터 mvCand을 인터 영역 움직임 정보 리스트의 제일 마지막에 저장할 수 있다. 이때 mvCand과 같은 움직임 정보를 가지고 있는 HmvpCandList의 인덱스가 hIdx이면, 도 14와 같이 hIdx 보다 큰 모든 i에 대해 HMVPCandList [i]를 HVMPCandList[i-1]로 설정할 수도 있다. 현재 디코딩된 코딩 유닛에서 서브 블록 머지 후보 (sub-block merge candidates)가 사용된 경우에는 코딩 유닛 내 대표 서브 블록의 움직임 정보를 인터 영역 움직임 정보 리스트에 저장할 수도 있다.
일 예로, 코딩 유닛 내 대표 서블 블록은 도 13과 같이 코딩 유닛 내 좌상단 서브 블록으로 설정하거나, 코딩 유닛 내 중간 서브 블록으로 설정할 수도 있다.
서브 블록 단위 머지 후보는 다음 프로세스와 같이 유도할 수 있다.
1. 현재 블록의 주변 머지 후보 블록의 움직임 벡터로 부터 초기 쉬프트 벡터 (shVector)를 유도할 수 있다. 여기서, 주변 머지 후보 블록은 현재 블록의 좌측, 상단, 좌하단, 우상단 또는 좌상단 블록 중 어느 하나일 수 있다. 또는, 현재 블록의 좌측 블록 또는 상단 블록만이 고정적으로 이용되도록 설정될 수도 있다.2. 수학식 4와 같이 코딩 유닛 내 서브 블록의 좌상단 샘플 (xSb,ySb)에 초기 쉬프트 벡터를 가산하여 좌상단 샘플의 위치가 (xColSb, yColSb)인 쉬프트 서브 블록을 유도할 수 있다.
[수학식 4]
(xColSb, yColSb) = (xSb + shVector[0]>> 4,ySb+shVector[1]>> 4)
3. (xColSb, yColSb)를 포함하고 있는 서브 블록의 센터 포지션과 대응되는 collocated block의 움직임 벡터를 좌상단 샘플 (xSb,ySb)를 포함하고 있는 서브 블록의 움직임 벡터로 유도할 수 있다.
인터 영역 움직임 정보 리스트에 총 NumHmvp 개의 움직임 정보를 저장할 수 있으며, NumHmvp을 인터 영역 움직임 정보 리스트의 크기라고 부른다.
인터 영역 움직임 정보 리스트의 크기는 기-정의된 값을 사용할 수 있다. 시퀀스, 픽쳐, 서브 픽쳐, 슬라이스 헤더 및/또는 타일 헤더에 인터 영역 움직임 정보 리스트 크기를 시그날링할 수도 있다. 일 예로, 인터 영역 움직임 정보 리스트의 크기는 16으로 정의할 수도 있고, 4, 5, 6 등으로 정의할 수도 있다.
부/복호화가 완료된 코딩 유닛이 인터 예측이면서 어파인 움직임 벡터를 갖는 경우, 이는 인터 영역 움직임 정보 리스트에 포함되지 않을 수 있다.
또는 부/복호화가 완료된 코딩 유닛이 인터 예측이면서 어파인 움직임 벡터를 갖는 경우에는 어파인 서브 블록 벡터를 인터 영역 움직임 정보 리스트에 추가할 수도 있다. 이 때 서브 블록의 위치는 좌상단 또는 우상단, 또는 중앙 서브 블록 등으로 설정할 수도 있다. 또는, 각 컨트롤 포인트의 움직임 벡터 평균값을 인터 영역 움직임 후보 리스트에 추가할 수도 있다.
특정 코딩 유닛을 부호화/복호화하여 유도한 움직임 벡터 MV0가 인터 영역 움직임 후보 중 어느 하나와 동일한 경우에는 MV0를 인터 영역 움직임 정보 리스트에 추가하지 않을 수 있다. 또는, MV0와 동일한 움직임 벡터를 갖는 기존의 인터 영역 움직임 후보를 삭제하고, MV0를 새롭게 인터 영역 움직임 정보 리스트에 포함시켜, MV0에 할당되는 인덱스를 갱신할 수 있다.
인터 영역 움직임 정보 리스트 이외에 인터 영역 움직임 정보 롱텀 리스트 HmvpLTList를 구성할 수도 있다. 인터 영역 움직임 정보 롱텀 리스트 크기는 인터 영역 움직임 정보 리스트 크기와 같게 설정하거나, 상이한 값으로 설정할 수 있다.
인터 영역 움직임 정보 롱텀 리스트는 타일 그룹 시작 위치에 처음 추가한 인터 영역 머지 후보로 구성될 수 있다. 인터 영역 움직임 정보 롱텀 리스트가 모두 가용한 값으로 구성된 이후에 인터 영역 움직임 정보 리스트를 구성하거나, 인터 영역 움직임 정보 리스트 내 움직임 정보를 인터 영역 움직임 정보 롱텀 리스트의 움직임 정보로 설정할 수도 있다.
이 때 한 번 구성된 인터 영역 움직임 정보 롱텀 리스트는 업데이트를 수행하지 않거나, 타일 그룹 중 복호화된 영역이 전체 타일 그룹의 반 이상일 때 다시 업데이트 하거나, m개 CTU 라인마다 업데이트 하도록 설정할 수도 있다. 인터 영역 움직임 정보 리스트는 인터 영역으로 복호화될 때마다 업데이트 하거나, CTU 라인 단위로 업데이트 하도록 설정할 수 있다.
인터 영역 움직임 정보 리스트에 움직임 정보와 코딩 유닛의 파티션 정보 또는 형태를 저장할 수도 있다. 현재 코딩 유닛과 파티션 정보 및 형태가 유사한 인터 영역 움직임 후보만 사용하여 인터 영역 머지 방법을 수행할 수도 있다.
또는, 블록 형태에 따라 개별적으로 인터 영역 움직임 정보 리스트를 구성할 수도 있다. 이 경우, 현재 블록의 형태에 따라, 복수의 인터 영역 움직임 정보 리스트 중 하나를 선택하여 사용할 수 있다.
도 15와 같이 인터 영역 어파인 움직임 정보 리스트와 인터 영역 움직임 정보 리스트로 구성할 수도 있다. 복호화된 코딩 유닛이 어파인 인터 또는 어파인 머지 모드인 경우에는 인터 영역 어파인 움직임 정보 리스트 HmvpAfCandList에 제1 어파인 시드 벡터와 제2 어파인 시드 벡터를 저장할 수도 있다. 인터 영역 어파인 움직임 정보 리스트에 있는 움직임 정보를 인터 영역 어파인 머지 후보라고 한다.
현재 코딩 유닛에서 사용 가능한 머지 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다.
1. 공간적 머지 후보 (A1, B1, B0 , A0)
2. 시간적 머지 후보 (이전 참조 픽쳐에서 유도한 머지 후보)
3. 공간적 머지 후보 (B2)
4. 인터 영역 머지 후보
5. 인터 영역 어파인 머지 후보
6. Zero motion 머지 후보
먼저 머지 후보 리스트는 mergeCandList는 공간적 머지 후보 및 시간적 머지 후보로 구성할 수 있다. 가용한 공간적 머지 후보 및 시간적 머지 후보의 개수를 가용 머지 후보 개수(NumMergeCand)라고 부른다. 가용 머지 후보 개수가 최대 머지 허용 개수보다 작은 경우에는 인터 영역 움직임 정보 리스트의 움직임 후보를 인터 영역 머지 후보로 머지 후보 리스트 mergeCandList에 추가할 수 있다.
인터 영역 움직임 정보 리스트 HmvpCandList를 머지 후보 리스트 mergeCandList에 추가할 때는 인터 영역 움직임 정보 리스트 내 인터 영역 움직임 후보의 움직임 정보가 기존 머지 후보 리스트 mergeCandList의 움직임 정보와 동일한지 여부를 체크할 수 있다. 움직임 정보가 동일한 경우에는 머지 리스트 mergeCandList에 추가하지 않고, 움직임 정보가 동일하지 않은 경우에는 머지 리스트 mergeCandList에 인터 영역 머지 후보를 추가할 수 있다.
일 예로, HmvpCandList의 가장 최근에 업데이트된 움직임 정보(HmvpCandList [n])를 머지 후보 리스트(mergeCandList)에 추가할 때, 중복성 체크를 mergeCandList 내의 임의의 L개에 대해서만 수행 할 수 있다. 이때 L은 0보다 큰 양의 정수이며, 예를 들어 L이 2인 경우 mergeCandList의 가장 첫 번째 및 두 번째 움직임 정보에 대해서만 중복성 여부를 체크 할 수 있다.
일 예로, HmvpCandList와 mergeCandList 간의 중복성 체크는, mergeCandList의 머지 후보 일부와 HmvpCandList의 움직임 후보 일부에 대해서 수행될 수 있다. 여기서, mergeCandList의 일부는, 공간적 머지 후보 중 좌측 블록 및 상단 블록을 포함할 수 있다. 다만, 이에 한정되지 아니하며, 공간적 머지 후보 중 어느 하나의 블록으로 제한될 수도 있고, 좌하단 블록, 우상단 블록, 좌상단 블록 또는 시간적 머지 후보 중 적어도 하나를 더 포함할 수도 있다. 한편, HmvpCandList의 일부는, HmvpCandList에 가장 최근에 추가된 K개의 인터 영역 움직임 후보를 의미할 수 있다. 여기서, K는 1, 2, 3 또는 그 이상이고, 부호화/복호화 장치에 기-약속된 고정된 값일 수 있다. HmvpCandList에 5개의 인터 영역 움직임 후보가 저장되어 있고, 각 인터 영역 움직임 후보에 1 내지 5의 인덱스가 할당되어 있다고 가정한다. 인덱스가 클수록 최근에 저장된 인터 영역 움직임 후보를 의미한다. 이때, 인덱스 5, 4 및 3을 가진 인터 영역 움직임 후보와 상기 mergeCandList의 머지 후보 간의 중복성을 체크할 수 있다. 또는, 인덱스 5 및 4를 가진 인터 영역 움직임 후보와 상기 mergeCandList의 머지 후보 간의 중복성을 체크할 수도 있다. 또는, 가장 최근에 추가된 인덱스 5의 인터 영역 움직임 후보는 제외하고, 인덱스 4 및 3을 가진 인터 영역 움직임 후보와 상기 mergeCandList의 머지 후보 간의 중복성을 체크할 수도 있다. 중복성 체크 결과, 동일한 인터 영역 움직임 후보가 하나라도 존재하는 경우, HmvpCandList의 움직임 후보는 mergeCandList에 추가되지 않을 수 있다. 반면 동일한 인터 영역 움직임 후보가 존재하지 않는 경우, HmvpCandList의 움직임 후보는 인터 영역 움직임 정보 리스트의 마지막 위치에 추가될 수 있다. 이때, HmvpCandList에서 최근에 저장된 움직임 후보의 순서(즉, 인덱스가 큰 순서부터 작은 순서로)로 mergeCandList에 추가될 수 있다. 다만, HmvpCandList에서 가장 최근에 저장된 움직임 후보(가장 큰 인덱스를 가진 움직임 후보)는 mergeCandList에 추가되지 않도록 제한될 수도 있다.
인터 영역 움직임 후보 중 인덱스가 큰 것부터 머지 후보 리스트 mergeCandList에 추가할 수 있으며, 다음과 같은 프로세스를 사용할 수 있다.
For each candidate in HMVPCandList with index HMVPIdx = 1.. numCheckedHMVPCand, the following ordered steps are repeated until combStop is equal to true
- sameMotion is set to false
- If HMVPCandList[NumHmvp - HMVPIdx] have the same motion vectors and the same reference indices with any mergeCandList[i] with i being 0… numOrigMergeCand - 1 and HasBeenPruned[i] equal to false, sameMotion is set to true
- If sameMotion is equal to false, mergeCandList[numCurrMergeCand++] is set to HMVPCandList[NumHmvp - HMVPIdx]
- If numCurrMergeCand is equal to (MaxNumMergeCand-1), hmvpStop is set to TRUE
인덱스가 i인 인터 영역 움직임 후보 HmvpCandList[i]가 인덱스가 j인 머지 후보 리스트 mergeCandList[j]의 움직임 정보와 같은 경우에는, 도 16과 같이 HmvpCandList[i-1]의 움직임 정보가 같은지 비교할 때 mergeCandList[j]는 비교하지 않도록 설정할 수 있다.
또는 HmvpCandList에 있는 인터 영역 움직임 후보의 움직임 정보와 머지 후보 리스트 내의 머지 후보의 움직임 정보가 같은지만 비교할 수 있다. 일 예로, 도 17와 같이 머지 후보 리스트 중 가장 인덱스가 큰 N개의 머지 후보와 인터 영역 움직임 후보의 움직임 정보가 같은지를 비교할 수 있다.
머지 후보 리스트에 인터 영역 움직임 정보 리스트를 추가해도 타일 그룹에서 허용되는 최대 머지 개수(이하, 최대 머지 허용 개수)보다 작은 경우에는 도 18과 같이 인터 영역 움직임 정보 롱텀 리스트를 사용할수도 있으며, 다음과 같은 프로세스를 사용할 수 있다.
For each candidate in HMVPCandList with index HMVPLTIdx = 1.. numHMVPLTCand, the following ordered steps are repeated until combStop is equal to true
- sameMotion is set to FALSE
- if hmvpStop is equal to FALSE and numCurrMergecand is less than (MaxNumMergeCand-1), hvmpLT is set to TRUE
- If HMVPLTCandList[NumLTHmvp - HMVPLTIdx] have the same motion vectors and the same reference indices with any mergeCandList[i] with i being 0… numOrigMergeCand - 1 and HasBeenPruned[i] equal to false, sameMotion is set to true
- If sameMotion is equal to false, mergeCandList[numCurrMergeCand++] is set to HMVPLTCandList[NumLTHmvp - HMVPLTIdx]
- If numCurrMergeCand is equal to (MaxNumMergeCand-1), hmvpLTStop is set to TRUE
인터 영역 움직임 후보를 현재 코딩 유닛의 움직임 정보 예측자(Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 영역 움직임 정보 예측 방법이라고 부른다.
인터 영역 어파인 움직임 후보를 현재 코딩 유닛의 움직임 정보 예측자(Motion vector predictor, MVP) 후보로 사용할 수 있으며, 이런 방법을 인터 영역 움직임 정보 어파인 예측 방법이라고 부른다.
현재 코딩 유닛에서 사용 가능한 움직임 정보 예측자 후보는 다음과 같이 구성할 수 있으며, 구성 순서와 같은 탐색 순서를 가질 수 있다.
1. 공간적 움직임 예측자 후보 (코딩 블록 인접 머지 후보 및 코딩 블록 비인접 머지 후보와 동일)
2. 시간적 움직임 예측자 후보 (이전 참조 픽쳐에서 유도한 움직임 예측자 후보)
3. 인터 영역 움직임 예측자 후보
4. 인터 영역 어파인 움직임 예측자 후보
5. Zero motion 움직임 예측자 후보
도 19 및 도 20은 본 발명이 적용되는 일실시예로서, MPMM 기반의 머지 모드를 도시한 것이다.
현재 코딩 유닛의 움직임 정보와 주변 코딩 유닛의 움직임 정보가 유사할 가능성이 높다. 또한, 현재 코딩 유닛의 머지 모드 정보와 주변 코딩 유닛의 머지 모드 정보가 유사할 가능성이 높거나 현재 코딩 유닛과 가까운 주변 코딩 유닛의 움직임 정보를 현재 코딩 유닛의 머지 후보로 사용할 가능성이 커진다.
주변 코딩 유닛의 움직임 정보 또는 머지 후보로 구성된 Most Probable Merge Mode(MPMM) 리스트를 유도할 수 있으며, MPMM 리스트의 크기는 M은 타일 세트 별로 다르게 설정할 수도 있고, 시퀀스 별로 다르게 설정할 수도 있으며, 기정의된 값으로 설정할 수도 있다.
머지 후보 리스트 MergeCandList 내에 있는 머지 후보 중 MPMM 리스트에 속하지 않은 머지 후보들을 Remaining Merge Mode(RMM) 리스트라 한다.
현재 코딩 유닛의 머지 후보가 MPM 리스트 내 머지 후보에 속하는지를 나타내는 플래그 mpmm_flag를 시그날링할 수 있다.
현재 코딩 유닛의 머지 후보가 MPMM 리스트 중 적어도 어느 하나인 경우(즉, mpmm_flag 값이 1인 경우) MPMM 인덱스 (MPMM 리스트 내 기-정의된 인덱스, mpmm_index)를 시그날링할 수 있다. 현재 코딩 유닛의 머지 후보가 MPMM에 속하지 않는 경우, RMM 리스트 내 인덱스 (rmm_index)를 시그날링할 수 있으며, 표 1과 같은 신택스 테이블을 사용할 수도 있다.
coding_unit( x0, y0, cbWidth, cbHeight, treeType ) { Descriptor
....
} else { /* MODE_INTER */
if( cu_skip_flag[ x0 ][ y0 ] ) {
if( MaxNumSubblockMergeCand > 0 && cbWidth >= 8 && cbHeight >= 8 )
merge_subblock_flag[ x0 ][ y0 ] ae(v)
if( merge_subblock_flag[ x0 ][ y0 ] = = 0 && MaxNumMergeCand > 1 )
mpmm_flag [ x0 ][ y0 ] ae(v)
if (mpmm_flag[x0][y0] ==1){
mpmm_index[x0][y0] ae(v)
} else {
rmm_index[x0][y0] ae(v)
}
if( merge_subblock_flag[ x0 ][ y0 ] = = 1 && MaxNumSubblockMergeCand > 1 )
merge_subblock_idx[ x0 ][ y0 ] ae(v)
} else {
merge_flag[ x0 ][ y0 ] ae(v)
if( merge_flag[ x0 ][ y0 ] ) {
if( MaxNumSubblockMergeCand > 0 && cbWidth >= 8 && cbHeight >= 8 )
merge_subblock_flag[ x0 ][ y0 ] ae(v)
if( merge_subblock_flag[ x0 ][ y0 ] = = 0 && MaxNumMergeCand > 1 )
mpmm_flag [ x0 ][ y0 ] ae(v)
if (mpmm_flag[x0][y0] ==1){
mpmm_index[x0][y0] ae(v)
} else {
rmm_index[x0][y0] ae(v)
}
if( merge_subblock_flag[ x0 ][ y0 ] = = 1 && MaxNumSubblockMergeCand > 1 )
merge_subblock_idx[ x0 ][ y0 ] ae(v)
...
}
예를 들어, 도 19와 같이 MPMM 리스트를 이전 코딩 유닛에서 복호화한 인터 코딩 유닛 중 현재 코딩 유닛과 부호화/복호화 순서가 가까운 HmvpCandList[LastIdx] 내지 HmvPCandList[LastIdx-M+1]으로 구성할 수도 있다. RMM은 기존 mergeCandList에서 유도하되, MPMM 리스트 중 동일한 움직임 정보가 있으면 RMM 리스트에서 제거할 수 있다. HmvpCandList[LastIdx] 내지 HmvPCandList[LastIdx-M+1]에서 유도된 mergeCandList에 있는 머지 후보는 RMM 리스트에 추가되지 않을 수 있다.
또 다른 예를 들어, 현재 코딩 유닛의 형태와 같은 이전 코딩 유닛에서 유도한 mergeCandList를 MPMM으로 설정할 수도 있다. 예컨데, 도 20과 같이 현재 코딩 유닛이 정방 형태이면, 정방 형태 코딩 유닛에서 유도한 머지 후보를 MPMM 리스트에 추가할 수 있다.
또 다른 예를 들어, 머지 모드/skip 모드를 사용한 주변 코딩 유닛에서 유도한 머지 후보를 MPMMM 리스트에 추가하고, AMVP 모드를 사용하여 코딩 유닛에서 유도한 머지 후보는 RMM 리스트에 추가할 수 있다.
도 21 내지 도 30은 본 발명이 적용되는 일실시예로서, 인트라 예측 방법을 도시한 것이다.
인트라 예측은 도 21과 같이 현재 블록 주변에 있는 이미 부호화된 경계 샘플을 인트라 예측을 생성하는데 사용하며, 이를 인트라 레퍼런스 샘플이라고 부른다.
인트라 레퍼런스 샘플의 평균값을 예측 블록 전체 샘플의 값을 설정하거나 (DC 모드), 수평 방향 레퍼런스 가중 예측을 수행하여 생성한 수평 방향 예측 샘플과 수직 방향 레퍼런스 샘플을 가중 예측하여 생성한 수직 방향 예측 샘플을 생성한 후, 수평 방향 예측 샘플과 수직 방향 예측 샘플을 가중 예측하여 예측 샘플을 생성하거나(Planar 모드), 방향성 인트라 예측 모드등을 이용하여 인트라 예측을 수행할 수있다.
도 22 왼쪽 그림과 같이 33개의 방향을 사용(총 35개 인트라 예측 모드)하여 인트라 예측을 수행할 수 있고, 오른쪽 그림과 같이 65개의 방향을 사용(총 67개 인트라 예측 모드)할 수도 있다. 방향성 인트라 예측을 사용하는 경우에는 인트라 예측 모드의 방향성을 고려하여 인트라 레퍼런스 샘플(레퍼런스 참조 샘플)을 생성하고, 이로부터 인트라 예측을 수행할 수 있다.
코딩 유닛의 좌측에 있는 인트라 레퍼런스 샘플을 좌측 인트라 레퍼런스 샘플이라하고, 코딩 유닛의 상측에 있는 인트라 레퍼런스 샘플을 상측 인트라 레퍼런스 샘플이라 한다.
방향성 인트라 예측을 수행하는 경우에는 표 2과 같이 인트라 예측 모드에 따라 예측 방향(또는 예측 각도)을 나타내는 파라미터인 인트라 방향 파라미터 (intraPredAng)를 설정할 수 있다. 아래 표 2 는 35개 인트라 예측 모드를 사용할 때 2 내지 34의 값을 가지는 방향성 인트라 예측 모드를 기반으로 하는 일예에 불과하다. 방향성 인트라 예측 모드의 예측 방향(또는 예측 각도)은 더 세분화되어 33개보다 많은 개수의 방향성 인트라 예측 모드가 이용될 수 있음은 물론이다.
PredModeIntra 1 2 3 4 5 6 7
IntraPredAng - 32 26 21 17 13 9
PredModeIntra 8 9 10 11 12 13 14
IntraPredAng 5 2 0 -2 -5 -9 -13
PredModeIntra 15 16 17 18 19 20 21
IntraPredAng -17 -21 -26 -32 -26 -21 -17
PredModeIntra 22 23 24 25 26 27 28
IntraPredAng -13 -9 -5 -2 0 2 5
PredModeIntra 29 30 31 32 33 34
IntraPredAng 9 13 17 21 26 32
intraPredAng이 음수인 경우 (예를 들어, 인트라 예측 모드 인덱스가 11과 25 사이인 경우)에는 도 23과 같이 현재 블록에 좌측 인트라 레퍼런스 샘플과 상측 인트라 레퍼런스 샘플을 인트라 예측 모드의 각도에 따라 1D로 구성된 일차원 레퍼런스 샘플 (Ref_1D)로 재구성할 수 있다.
인트라 예측 모드 인덱스가 11과 18 사이인 경우에는 도 24와 같이 현재 블록의 상변 우측에 위치한 인트라 레퍼런스 샘플부터 좌변 하단에 위치한 인트라 레퍼런스 샘플까지 반 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다.
그 외의 모드에서는 상변 인트라 레퍼런스 샘플 또는 좌변 인트라 레퍼런스 샘플만 이용하여 일차원 레퍼런스 샘플을 생성할 수 있다.
인트라 예측 모드 인덱스가 19 와 25 사이인 경우에는 도 25와 같이 현재 블록의 좌변 하단에 위치한 인트라 레퍼런스 샘플부터 상변 우측에 위치한 인트라 레퍼런스 샘플까지 시계 방향으로 일차원 레퍼런스 샘플을 생성할 수 있다.
참조 샘플 결정 인덱스 iIdx와 iIdx에 기초하여 결정되는 적어도 하나의 참조 샘플에 적용되는 가중치 관련 파라미터 ifact를 다음 수학식 5와 같이 유도할 수 있다. iIdx와 ifact는 방향성 인트라 예측 모드의 기울기에 따라 가변적으로 결정되며, iIdx에 의해 특정되는 참조 샘플은 정수 펠(integer pel)에 해당할 수 있다.
[수학식 5]
iIdx = (y+1) * Pang /32
ifact = [(y+1) * Pang] & 31
예측 샘플 별로 적어도 하나 이상의 일차원 레퍼런스 샘플을 특정하여 예측 영상을 유도 할 수도 있다. 예를 들어, 방향성 인트라 예측 모드의 기울기 값을 고려하여 예측 샘플 생성에 사용할 수 있는 일차원 레퍼런스 샘플의 위치를 특정할 수 있다. 예측 샘플 별로 상이한 방향성 인트라 예측 모드를 가질 수도 있다. 하나의 예측 블록에 대해 복수의 인트라 예측 모드가 이용될 수도 있다. 복수의 인트라 예측 모드는 복수의 비방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 하나의 비방향성 인트라 예측 모드와 적어도 하나의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있고, 또는 복수의 방향성 인트라 예측 모드의 조합으로 표현될 수도 있다. 하나의 예측 블록 내의 소정의 샘플 그룹 별로 상이한 인트라 예측 모드가 적용될 수 있다. 소정의 샘플 그룹은 적어도 하나의 샘플로 구성될 수 있다. 샘플 그룹의 개수는 현재 예측 블록의 크기/샘플 개수에 따라 가변적으로 결정될 수도 있고, 예측 블록의 크기/샘플 개수와는 독립적으로 부호화기/복호화기에 기-설정된 고정된 개수일 수도 있다.
구체적으로 예를 들어, 참조 샘플 결정 인덱스 iIdx를 이용하여 일차원 레퍼런스 샘플의 위치를 특정할 수 있다.
인트라 예측 모드의 기울기에 따라 하나의 일차원 레퍼런스 샘플만으로는 인트라 예측 모드의 기울기를 표현할 수 없을 때는 수학식 6과 같이 인접한 일차원 레퍼런스 샘플을 보간하여 제 1 예측 영상을 생성할 수 있다. 인트라 예측 모드의 기울기/각도에 따른 angular line이 정수 펠에 위치한 레퍼런스 샘플을 지나가지 않는 경우, 해당 angular line에 좌/우 또는 상/하에 인접한 레퍼런스 샘플을 보간하여 제1 예측 영상을 생성할 수 있다. 이때 이용되는 보간 필터의 필터 계수는 ifact에 기초하여 결정될 수 있다. 예를 들어, 보간 필터의 필터 계수는 angular line 상에 위치한 소수 펠과 상기 정수 펠에 위치한 레퍼런스 샘플 간의 거리에 기초하여 유도될 수 있다.
[수학식 6]
P(x,y)=((32-ifact)/32)*Ref_1D(x+iIdx+1)+(ifact/32)*Ref_1D(x+iIdx+2)
하나의 일차원 레퍼런스 샘플만으로 인트라 예측 모드의 기울기를 표현할 수 있을 때 (ifact 값이 0일 때)는 다음 수학식 7과 같이 제1 예측 영상을 생성할 수 있다.
[수학식 7]
P(x,y) = Ref_1D(x+iIdx+1)
방향성 인트라 예측 모드의 예측 각도는 도 26과 같이 45내지 -135도 사이로 설정될 수 있다.
비정방 형태 코딩 유닛에서 인트라 예측 모드를 수행하는 경우 기 정의된 예측 각도 때문에 현재 샘플과 가까운 인트라 레퍼런스 샘플 대신 현재 샘플과 거리가 먼 인트라 레퍼런스 샘플에서 현재 샘플을 예측하는 단점이 발생할 수 있다.
예를 들어, 도 27의 왼쪽 그림과 같이 코딩 유닛의 너비가 코딩 유닛의 높이보다 큰 코딩 유닛(이하, 수평 방향 코딩 유닛)에서는 거리가 가까운 샘플 T 대신에 거리가 먼 L에서 인트라 예측을 수행할 수 있다. 또 다른 예를 들어, 오른쪽 그림과 같이 코딩 유닛의 높이가 코딩 유닛의 너비보다 큰 코딩 유닛(이하, 수직 방향 코딩 유닛)에서는 거리가 가까운 샘플 L 대신에 거리가 먼 샘플 T로 부터 인트라 예측을 수행할 수 있다.
비정방 형태 코딩 유닛에서는 기-정의된 예측 각도보다 더 넓은 예측 각도에서 인트라 예측을 수행할 수도 있으며, 이를 와이드 앵글 인트라 예측 모드라고 부른다.
와이드 앵글 인트라 예측 모드는 45-α 내지 -135-β의 예측 각도를 가질 수 있으며, 기존 인트라 예측 모드에서 사용된 각도를 벗어나는 예측 각도를 와이드 앵글 각도라고 부른다.
도 27의 좌측 그림에서 수평 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 T로 부터 예측할 수 있다. 도 27의 우측 그림에서 수직 방향 코딩 유닛에 있는 샘플 A는 와이드 앵글 인트라 예측 모드를 사용하여 인트라 레퍼런스 샘플 L로 부터 예측할 수 있다.
기존 인트라 예측 모드 N개에 M개의 와이드 앵글 각도를 더해 N+M 개의 인트라 예측 모드가 정의될 수 있다. 구체적으로 예를 들어, 67개 인트라 모드와 표 3와 같이 28개 와이드 앵글 각도를 더해 총 95개 인트라 예측 모드가 정의될 수 있다.
현재 블록이 이용할 수 있는 인트라 예측 모드는 현재 블록의 형태에 따라 결정될 수 있다. 일 예로, 현재 블록의 크기, 종횡비(예컨대, 너비와 높이의 비율), 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여, 95개의 방향성 인트라 예측 모드 중 65개의 방향성 인트라 예측 모드를 선택할 수 있다.
predModeIntra -14 -13 -12 -11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 2 3 4
intraPredAngle 512 341 256 171 128 102 86 73 64 57 51 45 39 35 32 29 26
predModeIntra 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
intraPredAngle 23 20 18 16 14 12 10 8 6 4 3 2 1 0 -1 -2 -3
predModeIntra 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38
intraPredAngle -4 -6 -8 -10 -12 -14 -16 -18 -20 -23 -26 -29 -32 -29 -26 -23 -20
predModeIntra 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55
intraPredAngle -18 -16 -14 -12 -10 -8 -6 -4 -3 -2 -1 0 1 2 3 4 6
predModeIntra 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72
intraPredAngle 8 10 12 14 16 18 20 23 26 29 32 35 39 45 51 57 64
predModeIntra 73 74 75 76 77 78 79 80
intraPredAngle 73 86 102 128 171 256 341 512
표 3에 나타난 인트라 예측 모드 각도는, 현재 블록의 형태, 레퍼런스 라인 인덱스 중 적어도 하나에 기초하여 적응적으로 결정될 수 있다. 일 예로, Mode 15의 intraPredAngle은 현재 블록이 비정방형인 경우보다 현재 블록이 정방형인 경우에 더 큰 값을 갖도록 설정될 수 있다. 또는, Mode 75의 intraPredAngle은 인접 레퍼런스 라인이 선택된 경우보다 비인접 레퍼런스 라인이 선택된 경우 더 큰 값을 갖도록 설정될 수 있다.
와이드 앵글 인트라 예측 모드를 사용하는 경우 도 28과 같이 상측 인트라 레퍼런스 샘플의 길이를 2W+1로 설정하고, 좌측 인트라 레퍼런스 샘플의 길이를 2H+1로 설정할 수 있다.
와이드 앵글 인트라 예측을 사용하는 경우에 와이드 앵글 인트라 예측 모드의 인트라 예측 모드를 부호화 하는 경우에는 인트라 예측 모드의 개수가 많아져서 부호화 효율이 낮아 질수 있다. 와이드 앵글 인트라 예측 모드는 와이드 앵글 인트라에서 사용되지 않는 기존 인트라 예측 모드로 대체하여 부호화 할 수 있으며, 대체되는 예측 모드를 와이드 앵글 대체 모드라고 한다. 와이드 앵글 대체 모드는 와이드 앵글 인트라 예측 모드와 반대 방향인 인트라 예측 모드일 수 있다.
구체적으로 예를 들어, 도 29와 같이 35개 인트라 예측을 사용하는 경우 와이드 앵글 인트라 예측 모드 35는 와이드 앵글 대체 모드인 인트라 예측 모드 2로 부호화할 수 있고, 와이드 앵글 인트라 예측 모드 36은 와이드 앵글 대체 모드인 인트라 예측 모드 3으로 부호화할 수 있다.
코딩 블록의 형태 또는 코딩 블록 높이대 너비의 비에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 구체적으로 예를 들어, 표 4와 같이 코딩 블록의 형태에 따라 대체하는 모드와 개수를 다르게 설정할 수 있다. 표 4는 코딩 블록의 너비와 높이의 비에 따라 사용되는 인트라 예측 대체 모드를 나타낸다.
Aspect ratio Replaced intra prediction modes
W / H == 16 Modes 12, 13,14,15
W / H == 8 Modes 12, 13
W / H == 4 Modes 2,3,4,5,6,7,8,9,10,11
W / H == 2 Modes 2,3,4,5,6,7,
W / H == 1 None
W / H == 1/2 Modes 61,62,63,64,65,66
W / H == 1/4 Mode 57,58,59,60,61,62,63,64,65,66
W / H == 1/8 Modes 55, 56
W / H == 1/16 Modes 53, 54, 55, 56
도 30을 참조하면, 복수 개의 인트라 레퍼런스 라인 중 적어도 하나를 이용하여 인트라 예측을 수행할 수도 있다.
일 예로, 인접한 인트라 페러런스 라인과 비인접 인트라 레퍼런스 라인으로 구성된 복수개의 인트라 레퍼런스 라인 중 어느 하나를 선택해서 인트라 예측을 수행할 수 있으며, 이를 멀티 라인 인트라 예측 방법이라고 부른다. 비인접 인트라 레퍼런스 라인은 제1 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 1), 제2 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 2) 또는 제3 비인접 인트라 레퍼런스 라인(비인접 레퍼런스 라인 인덱스 3) 중 적어도 하나를 포함할 수 있다. 비인접 인트라 레퍼런스 라인 중 일부만 사용할 수도 있다. 일 예로, 제1 비인접 인트라 레퍼런스 라인 과 제2 비인접 인트라 레퍼런스 라인만 사용할 수도 있고, 제1 비인접 인트라 레퍼런스 라인과 제3 비인접 인트라 레퍼런스 라인만 사용할 수도 있다.
인트라 예측에 사용된 레퍼런스 라인을 특정하는 신택스인 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)를 코딩 유닛 단위로 시그날링 할 수 있다.
구체적으로 인접 인트라 레퍼런스 라인, 제1 비인접 인트라 레퍼런스 라인, 제3 비인접 인트라 레퍼런스 라인을 사용하는 경우에 다음 표 5와 같이 intra_luma_ref_idx를 정의할 수도 있다.
intra_luma_ref_idx[ x0 ][ y0 ] 인트라 예측에 사용된 레퍼런스 라인
0 인접 인트라 레퍼런스 라인
1 제 1 비인접 레퍼런스 라인
2 제 3 비인접 레퍼런스 라인
또는, 현재 블록의 크기, 형태 또는 인트라 예측 모드에 따라, 비인접 레퍼런스 라인의 위치가 특정될 수도 있다. 예컨대, 라인 인덱스가 0인 것은 인접 인트라 레퍼런스 라인을 나타내고, 라인 인덱스가 1인 것은 제1 비인접 인트라 레퍼런스 라인을 나타낼 수 있다. 한편, 현재 블록의 크기, 형태 또는 인트라 예측 모드에 따라, 라인 인덱스가 2는 제2 비인접 인트라 레퍼런스 라인 또는 제3 비인접 인트라 레퍼런스 라인을 나타낼 수 있다.
인트라 모드에 따라서 사용 가능한 비인접 레퍼런스 라인을 결정할 수도 있다. 예를 들어, 대각 모드 인트라 예측을 사용하는 경우에는 인접 레퍼런스 라인과 제1 비인접 레퍼런스 라인 및 제3 비인접 레퍼런스 라인만 사용할 수도 있고, 수직 또는 수평 인트라 예측 모드에서는 인접 레퍼런스 라인, 제1 비인접 레퍼런스 라인 및 제2 비인접 렢런스 라인을 사용하도록 설정할 수도 있다.
비인접 인트라 레퍼런스 라인을 사용하는 경우에는 비방향성 인트라 예측 모들를 사용하지 않도록 설정할 수도 있다. 즉, 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 DC 모드 내지 플래너 모드 (Planar mode)를 사용하지 않도록 제한할 수도 있다.
또 다른 예를 들어, 비인접 인트라 레퍼런스 라인을 사용하는 경우, 비방향성 인트라 예측 모드 또는 특정 방향성 인트라 예측 모드 중 적어도 하나를 사용하지 못하도록 제한할 수 있다. 비방향성 인트라 예측 모드는 DC 모드 및 플래너 모드 (Planar mode) 중 적어도 하나를 포함하고, 특정 방향성 인트라 예측 모드는, 수평 방향 모드 (INTRA_MODE18), 수직 방향 모드(INTRA_MODE50), 대각방향 모드(INTRA_MODE2, 66), 와이드 앵글 모드 중 적어도 하나를 포함할 수 있다.
비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 인접 인트라 페러런스 라인의 샘플 개수보다 크게 설정할 수 있다. 또한 제i 비인접 인트라 레퍼런스 라인의 샘플 개수보다 제(i+1) 비인접 인트라 레퍼런스 라인의 샘플 개수가 더 많게 설정할 수도 있다. 제i 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 제(i-1) 비인접 인트라 레퍼런스 라인의 상측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetX[i]로 나타낼 수 있다. offsetX[1]은 제1 비인접 인트라 레퍼런스 라인의 상측 샘플 개수와 인접 인트라 레퍼런스 라인의 상측 샘플 개수의 차분 값을 나타낸다. 제i 비인접 인트라 레퍼런스 라인의 좌측샘플 개수와 제(i-1) 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수 차이는 레퍼런스 샘플 개수 오프셋 offsetY[i]로 나타낼 수 있다. offsetY[1]은 제1 비인접 인트라 레퍼런스 라인의 좌측 샘플 개수와 인접 인트라 레퍼런스 라인의 좌측 샘플 개수의 차분 값을 나타낸다.
인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 refW + offsetX[i] 와 좌측 비인접 레퍼런스 라인 refH+ offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 refW + refH + offsetX[i] + offsetY[i] +1 로 구성될 수 있다.
[수학식 8]
refW = ( nTbW * 2 )
refH = ( nTbH * 2 )
수학식 8에서 nTbW는 코딩 유닛의 너비를 나타내고, nTbH는 코딩 유닛의 높이를 나타내며, whRatio는 다음 수학식 9와 같이 정의 할 수 있다.
[수학식 9]
whRatio = log2(nTbW/nTbH)
멀티 라인 인트라 예측 부호화 방법에서는 비인접 인트라 레퍼런스 라인을 사용하는 경우에는 와이드 앵글 인트라 모드는 사용하지 않도록 설정할 수도 있다. 또는 현재 코딩 유닛의 MPM 모드가 와이드 앵글 인트라 모드이면 멀티 라인 인트라 예측 부호화 방법을 사용하지 않도록 설정할 수도 있다. 이 경우 인트라 레퍼런스 라인 인덱스가 i인 비인접 인트라 레퍼런스 라인은 상측 비인접 레퍼런스 라인 W + H + offsetX[i] 와 좌측 비인접 레퍼런스 라인 H + W + offsetY[i] 그리고 좌상단 샘플로 구성될 수 있으며, 비인접 인트라 레퍼런스 라인에 속한 샘플의 개수는 2W + 2H + offsetX[i] + offsetY[i] +1 로 구성될 수 있으며, whRatio 값에 따라서 offsetX[i]와 offsetY[i] 값이 달라질 수 있따. 예를 들어, whRatio 값이 1 보다 큰 경우에는 offsetX[i] 값을 1, offsetY[i] 값을 0 으로 설정할 수 있고, whRatio 값이 1 보다 작은 경우에는 offsetX[i] 값을 0, offsetY[i] 값을 1로 설정할 수도 있다.
도 31은 본 발명이 적용되는 일실시예로서, 성분 간 참조 기반의 예측 방법을 도시한 것이다.
현재 블록은, 성분 타입에 따라 휘도 블록과 색차 블록으로 분류될 수 있다. 색차 블록은 기-복원된 휘도 블록의 화소를 이용하여 예측될 수 있으며, 이를 성분 간 참조라 부르기로 한다. 본 실시예에서는, 색차 블록은 (nTbW x nTbH)의 크기를 가지고, 색차 블록에 대응하는 휘도 블록은 (2*nTbW x 2*nTbH)의 크기를 가지는 것을 가정한다.
도 31을 참조하면, 색차 블록의 인트라 예측 모드를 결정할 수 있다(S3100).
색차 블록을 위한 기-정의된 인트라 예측 모드는, 제1 그룹과 제2 그룹으로 구분될 수 있다. 여기서, 제1 그룹은, 성분 간 참조 기반의 예측 모드로 구성되고, 제2 그룹은 도 22에 도시된 인트라 예측 모드의 전부 또는 일부로 구성될 수 있다.
부호화/복호화 장치는, 성분 간 참조 기반의 예측 모드로서, INTRA_LT_CCLM, INTRA_L_CCLM, 또는 INTRA_T_CCLM 중 적어도 하나를 정의할 수 있다. INTRA_LT_CCLM는 휘도/색차 블록에 인접한 좌측 및 상단 영역을 모두 참조하는 모드이고, INTRA_L_CCLM는 휘도/색차 블록에 인접한 좌측 영역을 참조하는 모드이며, INTRA_T_CCLM는 휘도/색차 블록에 인접한 상단 영역을 참조하는 모드일 수 있다.
색차 블록의 인트라 예측 모드는, 상기 제1 그룹 또는 제2 그룹 중 어느 하나를 선택적으로 이용하여 유도될 수 있다. 상기 선택은, 소정의 제1 플래그에 기초하여 수행될 수 있다. 상기 제1 플래그는, 색차 블록의 인트라 예측 모드가 제1 그룹에 기초하여 유도되는지 또는 제2 그룹에 기초하여 유도되는지 여부를 나타낼 수 있다.
예를 들어, 상기 제1 플래그가 제1 값인 경우, 색차 블록의 인트라 예측 모드는 제1 그룹에 속한 성분 간 참조 기반의 예측 모드 중 어느 하나로 결정될 수 있다. 상기 성분 간 참조 기반의 예측 모드 중 어느 하나를 선택하기 위해 소정의 인덱스가 이용될 수 있다. 상기 인덱스는, INTRA_LT_CCLM, INTRA_L_CCLM, 또는 INTRA_T_CCLM 중 어느 하나를 특정하는 정보일 수 있다. 성분 간 참조 기반의 예측 모드와 각 예측 모드에 할당된 인덱스는 다음 표 6과 같다.
Idx 성분 간 참조 기반의 예측 모드
0 INTRA_LT_CCLM
1 INTRA_L_CCLM
2 INTRA_T_CCLM
표 6은, 각 예측 모드에 할당되는 인덱스의 일예에 불과하며, 이에 한정되지 아니한다. 즉, 표 6과 같이, INTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLM의 우선순서로 인덱스가 할당될 수도 있고, INTRA_LT_CCLM, INTRA_T_CCLM, INTRA_L_CCLM의 우선순서로 인덱스가 할당될 수도 있다. 또는, INTRA_LT_CCLM가 INTRA_T_CCLM 또는 INTRA_L_CCLM보다 낮은 우선순서를 가질 수도 있다.
반면, 상기 제1 플래그가 제2 값인 경우, 색차 블록의 인트라 예측 모드는, 제2 그룹에 속한 복수의 인트라 예측 모드 중 어느 하나로 결정될 수 있다. 일예로, 제2 그룹은 표 7과 같이 정의될 수 있으며, 색차 블록의 인트라 예측 모드는, 부호화 장치에서 시그날링되는 정보(intra_chroma_pred_mode)와 휘도 블록의 인트라 예측 모드(IntraPredModeY)에 기초하여 유도될 수 있다.
intra_chroma_pred_mode[ xCb ][ yCb ] IntraPredModeY[ xCb + cbWidth / 2 ][ yCb + cbHeight / 2 ]
0 50 18 1 X ( 0  <=  X  <=  66 )
0 66 0 0 0 0
1 50 66 50 50 50
2 18 18 66 18 18
3 1 1 1 66 1
4 0 50 18 1 X
상기 제1 플래그는, 성분 간 참조가 허용되는지 여부를 나타내는 정보에 기초하여 선택적으로 시그날링될 수 있다. 예를 들어, 상기 정보의 값이 1인 경우, 상기 제1 플래그가 시그날링되고, 그렇지 않은 경우, 상기 제1 플래그는 시그날링되지 않을 수 있다. 여기서, 정보는 후술하는 소정의 조건에 기초하여 0 또는 1로 결정될 수 있다.
(조건 1) 성분 간 참조 기반의 예측이 허용되는지 여부를 나타내는 제2 플래그가 0인 경우, 상기 정보는 0으로 설정될 수 있다. 상기 제2 플래그는 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS), 픽쳐 파라미터 세트(PPS) 또는 슬라이스 헤더 중 적어도 하나에서 시그날링될 수 있다.
(조건 2) 다음 서브-조건 중 적어도 하나를 만족하는 경우, 상기 정보는 1로 설정될 수 있다.
- qtbtt_dual_tree_intra_flag의 값이 0인 경우
- 슬라이스 타입이 I 슬라이스가 아닌 경우
- 코딩 트리 블록의 크기가 64x64보다 작은 경우
상기 조건 2에서, qtbtt_dual_tree_intra_flag는 코딩 트리 블록이 64x64 크기의 코딩 블록으로 묵시적 분할되고, 64x64 크기의 코딩 블록이 듀얼 트리로 분할되는지 여부를 나타낼 수 있다. 상기 듀얼 트리는, 휘도 성분과 색차 성분가 서로 독립적인 분할 구조를 가지고 분할되는 방식을 의미할 수 있다. 상기 코딩 트리 블록의 크기(CtbLog2Size)는, 부호화/복호화 장치에 기-정의된 크기(e.g., 64x64, 128x128, 256x256)일 수도 있고, 부호화 장치에서 부호화되어 시그날링될 수도 있다.
(조건 3) 다음 서브-조건 중 적어도 하나를 만족하는 경우, 상기 정보는 1로 설정될 수 있다.
- 제1 상위 블록의 너비와 높이가 64인 경우
- 제1 상위 블록의 뎁스가 (CtbLog2Size-6)과 동일하고, 제1 상위 블록이 Horizontal BT로 분할되고, 제2 상위 블록이 64x32인 경우
- 제1 상위 블록의 뎁스가 (CtbLog2Size-6)보다 큰 경우
- 제1 상위 블록의 뎁스가 (CtbLog2Size-6)과 동일하고, 제1 상위 블록이 Horizontal BT로 분할되고, 제2 상위 블록이 Vertical BT로 분할된 경우
상기 조건 3에서, 제1 상위 블록은 현재 색차 블록을 하위 블록으로 포함하는 블록일 수 있다. 예를 들어, 현재 색차 블록의 뎁스가 k인 경우, 제1 상위 블록의 뎁스는 (k-n)이고, n은 1, 2, 3, 4 또는 그 이상일 수 있다. 상기 제1 상위 블록의 뎁스는, 쿼드트리 기반의 분할에 따른 뎁스만을 의미하거나, 쿼드트리, 바이너리트리 또는 터너리트리 중 적어도 하나의 분할에 따른 뎁스를 의미할 수도 있다. 상기 제2 상위 블록은 제1 상위 블록에 속한 하위 블록으로서, 현재 색차 블록보다 작은 뎁스를, 제1 상위 블록보다 큰 뎁스를 가질 수 있다. 예를 들어, 현재 색차 블록의 뎁스가 k인 경우, 제2 상위 블록의 뎁스는 (k-m)이고, m은 n보다 작은 자연수일 수 있다.
전술한 조건 1 내지 3 중 어느 하나도 만족하지 않는 경우, 상기 정보는 0으로 설정될 수 있다.
다만, 조건 1 내지 3 중 적어도 하나를 만족하는 경우라도, 다음 서브-조건 중 적어도 하나를 만족하는 경우, 상기 정보는 0으로 재설정될 수 있다.
- 제1 상위 블록이 64x64이고, 전술한 서브 블록 단위의 예측을 수행하는 경우
- 제1 상위 블록의 너비 또는 높이 적어도 하나가 64보다 작고, 제1 상위 블록의 뎁스가 (CtbLog2Size-6)와 동일한 경우
도 31을 참조하면, 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정할 수 있다(S3110).
상기 휘도 영역은, 휘도 블록 또는 휘도 블록에 인접한 이웃 영역 중 적어도 하나를 포함할 수 있다. 여기서, 휘도 블록은 화소 pY[x][y] (x=0..nTbW*2-1, y=0..nTbH*2-1)을 포함하는 영역으로 정의될 수 있다. 상기 화소는, 인-루프 필터가 적용되기 전의 복원값을 의미할 수 있다.
상기 이웃 영역은, 좌측 이웃 영역, 상단 이웃 영역 또는 좌상단 이웃 영역 중 적어도 하나를 포함할 수 있다. 상기 좌측 이웃 영역은, 화소 pY[x][y] (x=-1..-3, y=0..2*numSampL-1)을 포함하는 영역으로 설정될 수 있다. 상기 설정은, numSampL의 값이 0보다 큰 경우에 한하여 수행될 수 있다. 상기 상단 이웃 영역은, 화소 pY[x][y] (x=0..2*numSampT-1, y=-1..-3)을 포함하는 영역으로 설정될 수 있다. 상기 설정은, numSampT의 값이 0보다 큰 경우에 한하여 수행될 수 있다. 상기 좌상단 이웃 영역은, 화소 pY[x][y] (x=-1, y=-1,-2)을 포함하는 영역으로 설정될 수 있다. 상기 설정은, 휘도 블록의 좌상단 영역이 가용인 경우에 한하여 수행될 수 있다.
전술한, numSampL 및 numSampT은, 현재 블록의 인트라 예측 모드에 기초하여 결정될 수 있다. 여기서, 현재 블록은 색차 블록을 의미할 수 있다.
예를 들어, 현재 블록의 인트라 예측 모드가 INTRA_LT_CCLM인 경우, 다음 수학식 10과 같이 유도될 수 있다. 여기서, INTRA_LT_CCLM은 성분 간 참조가 현재 블록의 좌측 및 상단에 인접한 영역에 기반하여 수행되는 모드를 의미할 수 있다.
[수학식 10]
numSampT = availT ? nTbW : 0
numSampL = availL ? nTbH : 0
수학식 10에 따르면, numSampT는 현재 블록의 상단 이웃 영역이 가용인 경우에는 nTbW으로 유도되고, 그렇지 않은 경우에는 0으로 유도될 수 있다. 마찬가지로, numSampL은 현재 블록의 좌측 이웃 영역이 가용인 경우에는 nTbH으로 유도되고, 그렇지 않은 경우에는 0으로 유도될 수 있다.
반면, 현재 블록의 인트라 예측 모드가 INTRA_LT_CCLM가 아닌 경우, 다음 수학식 11과 같이 유도될 수 있다.
[수학식 11]
numSampT = ( availT && predModeIntra = = INTRA_T_CCLM ) ? ( nTbW + numTopRight ) : 0
numSampL = ( availL && predModeIntra = = INTRA_L_CCLM ) ? ( nTbH + numLeftBelow ) : 0
수학식 11에서, INTRA_T_CCLM은 성분 간 참조가 현재 블록의 상단에 인접한 영역에 기반하여 수행되는 모드를 의미하고, INTRA_L_CCLM은 성분 간 참조가 현재 블록의 좌측에 인접한 영역에 기반하여 수행되는 모드를 의미할 수 있다. numTopRight은, 색차 블록의 우상단에 인접한 영역에 속한 전부 또는 일부 화소의 개수를 의미할 수 있다. 일부 화소는, 해당 영역의 최하단 화소 라인(row)에 속한 화소 중 가용 화소를 의미할 수 있다. 가용에 대한 판단은, 좌측에서 우측 방향으로 화소의 가용 여부를 순차적으로 판단하며, 이는 비가용 화소가 발견될 때까지 수행될 수 있다. numLeftBelow은, 색차 블록의 좌하단에 인접한 영역에 속한 전부 또는 일부 화소의 개수를 의미할 수 있다. 일부 화소는, 해당 영역의 최우측 화소 라인(column)에 속한 화소 중 가용 화소를 의미할 수 있다. 가용에 대한 판단은, 위에서 아래 방향으로 화소의 가용 여부를 순차적으로 판단하며, 이는 비가용 화소가 발견될 때까지 수행될 수 있다.
도 31을 참조하면, S3110에서 특정된 휘도 영역에 대해서 다운샘플링이 수행될 수 있다(S3120).
상기 다운샘플링은, 1. 휘도 블록에 대한 다운샘플링, 2. 휘도 블록의 좌측 이웃 영역에 대한 다운샘플링, 또는 3. 휘도 블록의 상단 이웃 영역에 대한 다운샘플링 중 적어도 하나를 포함할 수 있으며, 이하 상세히 살펴 보도록 한다.
1. 휘도 블록에 대한 다운샘플링
(실시예 1)
다운샘플링된 휘도 블록의 화소 pDsY[x][y] (x=0..nTbW-1, y=0..nTbH-1)은, 휘도 블록의 대응 화소 pY[2*x][2*y] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소은, 대응 화소의 좌측, 우측, 상단, 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pDsY[x][y]은 다음 수학식 12와 같이 유도될 수 있다.
[수학식 12]
pDsY[ x ][ y ] = ( pY[ 2 * x ][ 2 * y - 1 ] + pY[ 2 * x - 1 ][ 2 * y ] + 4 * pY[ 2 * x ][ 2 * y ] + pY[ 2 * x + 1 ][ 2 * y ] + pY[ 2 * x ][ 2 * y + 1 ] + 4 ) >> 3
다만, 현재 블록의 좌측/상단 이웃 영역이 비가용인 경우가 존재할 수 있다. 만일 현재 블록의 좌측 이웃 영역이 비가용인 경우, 다운샘플링된 휘도 블록의 화소 pDsY[0][y] (y=1..nTbH-1)은, 휘도 블록의 대응 화소 pY[0][2*y] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 상단 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pDsY[0][y] (y=1..nTbH-1)은 다음 수학식 13과 같이 유도될 수 있다.
[수학식 13]
pDsY[ 0 ][ y ] = ( pY[ 0 ][ 2 * y - 1 ] + 2 * pY[ 0 ][ 2 * y ] + pY[ 0 ][ 2 * y + 1 ] + 2 ) >> 2
만일 현재 블록의 상단 이웃 영역이 비가용인 경우, 다운샘플링된 휘도 블록의 화소 pDsY[x][0] (x=1..nTbW-1)은, 휘도 블록의 대응 화소 pY[2*x][0] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측 또는 우측 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pDsY[x][0] (x=1..nTbW-1)은 다음 수학식 14와 같이 유도될 수 있다.
[수학식 14]
pDsY[ x ][ 0 ] = ( pY[ 2 * x - 1 ][ 0 ] + 2 * pY[ 2 * x ][ 0 ] + pY[ 2 * x + 1 ][ 0 ] + 2 ) >> 2
한편, 다운샘플링된 휘도 블록의 화소 pDsY[0][0]은, 휘도 블록의 대응 화소 pY[0][0] 및/또는 주변 화소에 기초하여 유도될 수 있다. 주변 화소의 위치는, 현재 블록의 좌측/상단 이웃 영역의 가용 여부에 따라 상이하게 결정될 수 있다.
예를 들어, 좌측 이웃 영역은 가용하고, 상단 이웃 영역이 가용하지 않은 경우, pDsY[0][0]은 다음 수학식 15와 같이 유도될 수 있다.
[수학식 15]
pDsY[ 0 ][ 0 ] = ( pY[ -1 ][ 0 ] + 2 * pY[ 0 ][ 0 ] + pY[ 1 ][ 0 ] + 2 ) >> 2
반면, 좌측 이웃 영역은 가용하지 않고, 상단 이웃 영역이 가용한 경우, pDsY[0][0]은 다음 수학식 16과 같이 유도될 수 있다.
[수학식 16]
pDsY[ 0 ][ 0 ] = ( pY[ 0 ][ -1 ] + 2 * pY[ 0 ][ 0 ] + pY[ 0 ][ 1 ] + 2 ) >> 2
한편, 좌측 및 상단 이웃 영역 모두 가용하지 않은 경우, pDsY[ 0 ][ 0 ]은 휘도 블록의 대응 화소 pY[0][0]로 설정될 수 있다.
(실시예 2)
다운샘플링된 휘도 블록의 화소 pDsY[x][y] (x=0..nTbW-1, y=0..nTbH-1)은, 휘도 블록의 대응 화소 pY[2*x][2*y] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 하단, 좌측, 우측, 좌하단 또는 우하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pDsY[x][y]은 다음 수학식 17과 같이 유도될 수 있다.
[수학식 17]
pDsY[ x ][ y ] = ( pY[ 2 * x - 1 ][ 2 * y ] + pY[ 2 * x - 1 ][ 2 * y + 1 ] + 2* pY[ 2 * x ][ 2 * y ] + 2*pY[ 2 * x ][ 2 * y + 1 ] + pY[ 2 * x + 1 ][ 2 * y ] + pY[ 2 * x + 1 ][ 2 * y + 1 ] + 4 ) >> 3
다만, 만일 현재 블록의 좌측 이웃 영역이 비가용인 경우, 다운샘플링된 휘도 블록의 화소 pDsY[0][y] (y=0..nTbH-1)은, 휘도 블록의 대응 화소 pY[0][2*y] 및 하단 주변 화소에 기초하여 유도될 수 있다. 예를 들어, 화소 pDsY[0][y] (y=0..nTbH-1)은 다음 수학식 18과 같이 유도될 수 있다.
[수학식 18]
pDsY[ 0 ][ y ] = ( pY[ 0 ][ 2 * y ] + pY[ 0 ][ 2 * y + 1 ] + 1 ) >> 1
휘도 블록의 다운샘플링은, 전술한 실시예 1과 2 중 어느 하나에 기초하여 수행될 수 있다. 이때 소정의 플래그에 기초하여 실시예 1 또는 2 중 어느 하나가 선택될 수 있다. 여기서, 플래그는, 다운샘플링된 휘도 화소가 원 휘도 화소와 동일한 위치를 가지는지 여부를 나타낼 수 있다. 예를 들어, 상기 플래그가 제1 값인 경우, 다운샘플링된 휘도 화소가 원 휘도 화소와 동일한 위치를 가진다. 반면, 상기 플래그가 제2 값인 경우, 다운샘플링된 휘도 화소는 원 휘도 화소와 수평 방향으로는 동일한 위치를 가지나, 수직 방향으로는 하프 펠(half pel)만큼 쉬프트된 위치를 가진다.
2. 휘도 블록의 좌측 이웃 영역에 대한 다운샘플링
(실시예 1)
다운샘플링된 좌측 이웃 영역의 화소 pLeftDsY[y] (y=0..numSampL-1)은, 좌측 이웃 영역의 대응 화소 pY[-2][2*y] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측, 우측, 상단, 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pLeftDsY[y]은 다음 수학식 19와 같이 유도될 수 있다.
[수학식 19]
pLeftDsY[ y ] = ( pY[ -2 ][ 2 * y - 1 ] + pY[ -3 ][ 2 * y ] + 4 * pY[ -2 ][ 2 * y ] + pY[ -1 ][ 2 * y ] + pY[ -2][ 2 * y + 1 ] + 4 ) >> 3
다만, 현재 블록의 좌상단 이웃 영역이 비가용인 경우, 다운샘플링된 좌측이웃 영역의 화소 pLeftDsY[ 0 ]은, 좌측 이웃 영역의 대응 화소 pY[-2][0] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측 또는 우측 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pLeftDsY[ 0 ]은 다음 수학식 20과 같이 유도될 수 있다.
[수학식 20]
pLeftDsY[ 0 ] = ( pY[ -3 ][ 0 ] + 2 * pY[ -2 ][ 0 ] + pY[ -1 ][ 0 ] + 2 ) >> 2
(실시예 2)
다운샘플링된 좌측 이웃 영역의 화소 pLeftDsY[y] (y=0..numSampL-1)은, 좌측 이웃 영역의 대응 화소 pY[-2][2*y] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 하단, 좌측, 우측, 좌하단 또는 우하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pLeftDsY[y]은 다음 수학식 21과 같이 유도될 수 있다.
[수학식 21]
pLeftDsY[ y ] = ( pY[ -1 ][ 2 * y ] + pY[ -1 ][ 2 * y + 1 ] + 2* pY[ -2 ][ 2 * y ] + 2*pY[ -2 ][ 2 * y + 1 ] + pY[ -3 ][ 2 * y ] + pY[ -3 ][ 2 * y + 1 ] + 4 ) >> 3
마찬가지로, 좌측 이웃 영역의 다운샘플링은, 전술한 실시예 1과 2 중 어느 하나에 기초하여 수행될 수 있다. 이때 소정의 플래그에 기초하여 실시예 1 또는 2 중 어느 하나가 선택될 수 있다. 상기 플래그는, 다운샘플링된 휘도 화소가 원 휘도 화소와 동일한 위치를 가지는지 여부를 나타내며, 이는 전술한 바와 같다.
한편, 좌측 이웃 영역에 대한 다운샘플링은, numSampL 값이 0보다 큰 경우에 한하여 수행될 수 있다. numSampL 값이 0보다 큰 경우라 함은, 현재 블록의 좌측 이웃 영역이 가용이고, 현재 블록의 인트라 예측 모드는 INTRA_LT_CCLM 또는 INTRA_L_CCLM인 경우를 의미할 수 있다.
3. 휘도 블록의 상단 이웃 영역에 대한 다운샘플링
(실시예 1)
다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x] (x=0..numSampT-1)은, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는지 여부를 고려하여 유도될 수 있다.
상단 이웃 영역이 휘도 블록과 동일한 CTU에 속하는 경우, 다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x]는 상단 이웃 영역의 대응 화소 pY[2*x][-2] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측, 우측, 상단, 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[x]은 다음 수학식 22와 같이 유도될 수 있다.
[수학식 22]
pTopDsY[ x ] = ( pY[ 2 * x ][ -3 ] + pY[ 2 * x - 1 ][ -2 ] + 4 * pY[ 2 * x ][ -2 ] + pY[ 2 * x + 1 ][ -2 ] + pY[ 2 * x ][ -1 ] + 4 ) >> 3
반면, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는 경우, 다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x]는 상단 이웃 영역의 대응 화소 pY[2*x][-1] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측 또는 우측 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[ x ]은 다음 수학식 23과 같이 유도될 수 있다.
[수학식 23]
pTopDsY[ x ] = ( pY[ 2 * x - 1 ][ -1 ] + 2* pY[ 2 * x ][ -1 ] + pY[ 2 * x + 1 ][ -1 ] + 2 ) >> 2
또는, 현재 블록의 좌상단 이웃 영역이 비가용인 경우, 상기 주변 화소는 대응 화소의 상단 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[ 0 ]은 다음 수학식 24와 같이 유도될 수 있다.
[수학식 24]
pTopDsY[ 0 ] = ( pY[ 0 ][ -3 ] + 2 * pY[ 0 ][ -2 ] + pY[ 0 ][ -1 ] + 2 ) >> 2
또는, 현재 블록의 좌상단 이웃 영역이 비가용이고, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는 경우, 화소 pTopDsY[ 0 ]은 상단 이웃 영역의 화소 pY[ 0 ][ -1 ]로 설정될 수 있다.
(실시예 2)
다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x] (x=0..numSampT-1)은, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는지 여부를 고려하여 유도될 수 있다.
상단 이웃 영역이 휘도 블록과 동일한 CTU에 속하는 경우, 다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x]는 상단 이웃 영역의 대응 화소 pY[2*x][-2] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 하단, 좌측, 우측, 좌하단 또는 우하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[x]은 다음 수학식 25와 같이 유도될 수 있다.
[수학식 25]
pTopDsY[ x ] = ( pY[ 2 * x - 1 ][ -2 ] + pY[ 2 * x - 1 ][ -1 ] + 2* pY[ 2 * x ][ -2 ] + 2*pY[ 2 * x ][ -1 ] + pY[ 2 * x + 1 ][ -2 ] + pY[ 2 * x + 1 ][ -1 ] + 4 ) >> 3
반면, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는 경우, 다운샘플링된 상단 이웃 영역의 화소 pTopDsY[x]는 상단 이웃 영역의 대응 화소 pY[2*x][-1] 및 주변 화소에 기초하여 유도될 수 있다. 주변 화소는, 대응 화소의 좌측 또는 우측 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[ x ]은 다음 수학식 26과 같이 유도될 수 있다.
[수학식 26]
pTopDsY[ x ] = ( pY[ 2 * x - 1 ][ -1 ] + 2* pY[ 2 * x ][ -1 ] + pY[ 2 * x + 1 ][ -1 ] + 2 ) >> 2
또는, 현재 블록의 좌상단 이웃 영역이 비가용인 경우, 상기 주변 화소는 대응 화소의 상단 또는 하단 중 적어도 하나의 방향으로 인접한 화소를 의미할 수 있다. 예를 들어, 화소 pTopDsY[ 0 ]은 다음 수학식 27과 같이 유도될 수 있다.
[수학식 27]
pTopDsY[ 0 ] = ( pY[ 0 ][ -2 ] + pY[ 0 ][ -1 ] + 1 ) >> 1
또는, 현재 블록의 좌상단 이웃 영역이 비가용이고, 상단 이웃 영역이 휘도 블록과 상이한 CTU에 속하는 경우, 화소 pTopDsY[ 0 ]은 상단 이웃 영역의 화소 pY[ 0 ][ -1 ]로 설정될 수 있다.
마찬가지로, 상단 이웃 영역의 다운샘플링은, 전술한 실시예 1과 2 중 어느 하나에 기초하여 수행될 수 있다. 이때 소정의 플래그에 기초하여 실시예 1 또는 2 중 어느 하나가 선택될 수 있다. 상기 플래그는, 다운샘플링된 휘도 화소가 원 휘도 화소와 동일한 위치를 가지는지 여부를 나타내며, 이는 전술한 바와 같다.
한편, 상단 이웃 영역에 대한 다운샘플링은, numSampT 값이 0보다 큰 경우에 한하여 수행될 수 있다. numSampT 값이 0보다 큰 경우라 함은, 현재 블록의 상단 이웃 영역이 가용이고, 현재 블록의 인트라 예측 모드는 INTRA_LT_CCLM 또는 INTRA_T_CCLM인 경우를 의미할 수 있다.
전술한 휘도 블록의 좌측 또는 상단 이웃 영역 중 적어도 하나(이하, 휘도 참조 영역)에 대한 다운샘플링은, 특정 위치의 대응 화소 pY[-2][2*y] 및 주변 화소만을 이용하여 수행될 수 있다. 여기서, 특정 위치는, 색차 블록의 좌측 또는 상단 이웃 영역 중 적어도 하나(이하, 색차 참조 영역)에 속한 복수의 화소 중 선택된 화소의 위치에 기초하여 결정될 수 있다.
상기 선택된 화소는, 색차 참조 영역에서 홀수번째에 위치한 화소이거나 짝수번째에 위치한 화소일 수 있다. 또는, 상기 선택된 화소는, 시작 화소 및 시작 화소로부터 소정의 간격마다 위치한 하나 또는 그 이상의 화소일 수 있다. 여기서, 시작 화소는 색차 참조 영역에서 첫번째, 두번째 또는 세번째에 위치한 화소일 수 있다. 상기 간격은 1개, 2개, 3개, 4개 또는 그 이상의 샘플 간격일 수 있다. 예를 들어, 상기 간격이 1개 샘플 간격인 경우, 선택된 화소는 n번째 화소, (n+2)번째 화소 등을 포함할 수 있다. 선택된 화소의 개수는, 2개, 4개, 6개, 8개 또는 그 이상일 수 있다.
상기 선택된 화소의 개수, 시작 화소 및 간격은, 색차 참조 영역의 길이(즉, numSampL 및/또는 numSampT) 또는 색차 블록의 인트라 예측 모드 중 적어도 하나에 기초하여 가변적으로 결정될 수 있다. 또는, 선택된 화소의 개수는, 색차 참조 영역의 길이 및 색차 블록의 인트라 예측 모드에 관계없이, 부호화/복호화 장치에 기-약속된 고정된 개수(e.g., 4개)일 수 있다.
도 31을 참조하면, 색차 블록의 성분 간 참조를 위한 파라미터를 유도할 수 있다(S3130).
상기 파라미터는 가중치 또는 오프셋 중 적어도 하나를 포함할 수 있다. 상기 파라미터는, 현재 블록의 인트라 예측 모드를 고려하여 결정될 수 있다. 상기 파라미터는, 색차 참조 영역의 선택된 화소 및 휘도 참조 영역의 다운샘플링을 통해 획득된 화소를 이용하여 유도될 수 있다.
구체적으로, 휘도 참조 영역의 다운샘플링을 통해 획득된 n개의 화소 간의 크기 비교를 수행하여, n개의 화소를 2개의 그룹으로 분류할 수 있다. 예를 들어, 제1 그룹은 n개의 화소 중 상대적으로 큰 값을 가진 화소의 그룹이고, 제2 그룹은 n개의 샘플 중 제1 그룹의 화소를을 제외한 나머지 화소의 그룹일 수 있다. 즉, 제2 그룹은 상대적으로 작은 값을 가진 화소의 그룹일 수 있다. 여기서, n은 4, 8, 16 또는 그 이상일 수 있다. 제1 그룹에 속한 화소들의 평균값을 최대값(MaxL)으로 설정하고, 제2 그룹에 속한 화소들의 평균값을 최소값(MinL)으로 설정할 수 있다.
상기 휘도 참조 영역의 다운샘플링을 통해 획득된 n개의 화소에 대한 그룹핑에 따라, 색차 참조 영역의 선택된 화소를 그룹핑할 수 있다. 휘도 참조 영역에 대한 제1 그룹의 화소에 대응하는 색차 참조 영역의 화소를 이용하여, 색차 참조 영역에 대한 제1 그룹을 구성하고, 휘도 참조 영역에 대한 제2 그룹의 화소에 대응하는 색차 참조 영역의 화소를 이용하여, 색차 참조 영역에 대한 제2 그룹을 구성할 수 있다. 마찬가지로, 제1 그룹에 속한 화소들의 평균값을 최대값(MaxC)으로 설정하고, 제2 그룹에 속한 화소들의 평균값을 최소값(MinC)으로 설정할 수 있다.
상기 산출된 최대값(MaxL, MaxC) 및 최소값(MinL, MaxC)을 기반으로, 상기 파라미터의 가중치 및/또는 오프셋을 유도할 수 있다.
색차 블록은, 다운샘플링된 휘도 블록과 파라미터를 기반으로 예측됟 수 있다(S3140).
색차 블록은 다운샘플링된 휘도 블록의 화소에 기-유도된 가중치 또는 오프셋 중 적어도 하나를 적용하여 예측될 수 있다.
다만, 도 31은 휘도 블록의 주변 영역에 대한 다운샘플링 방법의 일예에 불과하며, 다른 다운샘플링/서브샘플링 방법이 적용될 수도 있으며, 이에 대해서는 이하 도 32 내지 도 38을 참조하여 자세히 살펴보도록 한다.
도 32 내지 도 38은 본 발명이 적용되는 일실시예로서, 휘도 블록의 주변 영역에 대한 다운샘플링 및 성분 간 참조를 위한 파라미터 유도 방법을 도시한 것이다.
현재 코딩 유닛의 주변 샘플을 Downsampling 또는 subsampling 중 적어도 하나를 수행한 영상을 기반으로 선형 예측하여 수학식 28과 같이 예측 영상을 생성할 수 있다.
[수학식 28]
Predc(i,j) = (α * recl'(i,j) >> S) + β
수학식 28에서, recl'은 다운샘플링된 휘도 블록의 복원 샘플을 의미하며, Predc은 선형 크로마 예측에 의해 생성된 색차 블록의 예측 샘플을 의미할 수 있다.
현재 코딩 유닛의 주변 샘플은 도 32의 오른쪽 그림과 같이 현재 코딩 유닛의 좌측 경계와 상측 경계에 존재하는 샘플로 구성할 수 있으며, 이를 다운샘플링 (도 32의 오른쪽 그림의 회색 샘플로 다운샘플링)할 수 있으며, 이를 휘도 주변 템플릿 영상이라 부르기로 한다.
이때 수학식 28의 예측 에러를 가장 적게하는 선형 크로마 예측 파라미터 α 및 β 값은 다음 수학식 29와 같이 유도할 수 있다.
[수학식 29]
α = (yB - yA) / (xB - xA)
β = yA - α* xA
여기서 도 33과 같이 xA는 서브 샘플링된 휘도의 주변 샘플(즉, 휘도 주변 템플릿 영상) 중 가장 작은 값을 나타내고, xB는 서브 샘플링된 휘도의 주변 샘플 중 가장 큰 값을 나타낸다. yA는 xA와 대응되는 크로마의 주변 샘플을 나타내고, yB는 xB와 대응되는 크로마의 주변 샘플을 나타낸다.
또는, 도 34와 같이, 휘도 주변 템플릿 영상을 서브 샘플링하여 Max 및 min 값을 유도할 수도 있다. 서브 샘플링을 통해 획득된 n개의 샘플을 2개의 그룹으로 분류할 수 있다. 예를 들어, 제1 그룹은 n개의 샘플 중 상대적으로 큰 값을 가진 샘플의 그룹이고, 제2 그룹은 n개의 샘플 중 제1 그룹의 샘플을 제외한 나머지 샘플의 그룹일 수 있다. 즉, 제2 그룹은 상대적으로 작은 값을 가진 샘플의 그룹일 수 있다. 여기서, n은 4, 8, 16 또는 그 이상일 수 있다. 제1 그룹에 속한 샘플들의 평균값을 최대값(Max)으로 설정하고, 제2 그룹에 속한 샘플들의 평균값을 최소값(Min)으로 설정할 수 있다.
Min 또는 Max 값이 다른 샘플로부터 많이 떨어져 있는 아이솔레이티드 샘플(isolated sample)인 경우, 수학식 29를 이용하여 크로마 예측을 하면 예측 성능이 낮아질 가능성이 크다.
휘도 주변 템플릿 영상을 서브 샘플링 함으로써 아이솔레이티드 샘플이 최대값 또는 최소값이 되는 경우가 적어지고, 예측 성능을 올릴 수 있는 장점이 있다. 또한 최대값 및 최소값을 구하기 위해 비교 연산을 수행해야 하는데, 연산의 수가 4N(최대값 2N 및 최소값 2N)에서 2N(최대값 N 및 최소값 N)번으로 줄어들 수 있다.
휘도 주변 템플릿 영상을 휘도 블록 상측 경계에 인접한 i개 라인과 좌측 경계에 인접한 j개 라인에서 유도할 수 있다. i와 j는 2, 3, 4, 또는 그 이상일 수 있다. i는 j와 동일할 수 있고, i는 j보다 큰 값으로 설정될 수도 있다.
도 35와 같이 상측 경계에 인접한 4개 라인에서 2개 라인이 되도록 서브 샘플링/다운 샘플링을 수행할 수 있고, 좌측 경계에 인접한 4개 라인에서 2개 라인이 되도록 서브 샘플링/다운 샘플링을 수행할 수 있으며, 이를 1차 휘도 템플릿이라고 한다. 1차 휘도 템플릿의 Max 및 min 값을 유도하여, 선형 예측 크로마 파라미터 α 및 β를 유도할 수 있다. 유도된 선형 예측 크로마 파라미터와 휘도 블록의 복원 샘플을 이용하여, 색차 블록에 대한 선형 예측 크로마 예측을 수행할 수 있다. 여기서, 휘도 블록의 복원 샘플은 색차 블록의 해상도에 대응되도록 다운샘플링된 샘플일 수 있다.
도 36과 같이 다운 샘플링을 통해 생성된 1차 휘도 템플릿에서 서브 샘플링을 수행하여, 휘도 주변 템플릿 영상을 생성할 수 있다.
일 예로, 1차 휘도 템플릿 중 상측 라인에서는 x축 좌표가 같은 샘플끼리 동시에 서브 샘플링이 되지 않도록 구성할 수 있다. 마찬가지로, 1차 휘도 템플릿 중 상측 라인에서는 y축 좌표가 같은 샘플을 동시에 서브 샘플링 되지 않도록 구성할 수 있다.
또는, 휘도 블록에서 멀티 라인 인트라 예측 방법을 사용한 경우에는 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)에 따라 휘도 주변 템플릿 영상을 서로 다르게 구성할 수도 있다. 구체적으로 예를 들어, intra_luma_ref_idx 값이 0인 경우에는 도 37의 좌측 그림과 같이 휘도 경계에 인접한 휘도 주변 템플릿 영상을 구성할 수 있고, intra_luam_ref_idx 값이 0이 아닌 경우에는 우측 그림과 같이 휘도 경계와 인접하지 않은 휘도 주변 템플릿 영상을 구성할 수 있다.
또는, 휘도에서 멀티 라인 인트라 예측 방법을 사용한 경우에는 인트라 레퍼런스 라인 인덱스(intra_luma_ref_idx)에 따라 휘도 주변 템플릿 영상 내 샘플을 가중 예측하여 휘도 주변 템플릿 영상의 최대값 및 최소값을 유도할 수 있다. 구체적으로 예를 들어, 상측 2개 라인에서 x축 좌표가 같은 샘플 끼리 가중 예측을 수행하고, 좌측 2개 라인에서 y축 좌표가 같은 샘플끼리 가중 예측을 수행하여 제2 주변 템플릿 샘플을 생성할 수 있다. 제2 주변 템플릿 샘플의 max 및 min 값을 산출하고, 이를 이용하여 선형 예측 크로마 파라미터 α 및 β를 유도할 수 있으며, 선형 예측 크로마 예측을 수행할 수 있다.
제2 주변 템플릿 샘플 생성시 사용되는 가중 예측 파라미터 값은 도 38과 같이 intra_luma_ref_idx 값에 따라 서로 다르게 설정할 수 있다. 구체적으로 예를 들어, intra_luma_ref_idx 값이 0인 경우에는 블록 경계와 인접한 라인에 속한 샘플에 가중치를 크게 설정할 수 있고, intra_luma_ref_idx 값이 0이 아닌 경우에는 블록 경계와 인접하지 않은 라인에 속한 샘플에 가중치를 크게 설정할 수 있다.
도 39 및 도 40은 본 발명이 적용되는 일실시예로서, 복원 블록에 인루프 필터를 적용하는 방법을 도시한 것이다.
인루프 필터링(In-loop filtering)은 양자화 및 부호화 과정에서 발생하는 정보의 손실을 줄이기 위해 복호화 된 영상에 적응적으로 필터링을 수행하는 기술이다. 디블록킹 필터(Deblocking filter), 샘플 적응적 오프셋 필터(sample adaptive offset filter, SAO), 적응적 루프 필터(adaptive loop filter, ALF)는 인루프 필터링의 한 예이다.
제1 복원 영상에 디블록킹 필터, 샘플 적응적 오프셋(Sample Adaptive Offset, SAO) 또는 적응적 루프 필터(adaptive loop filter, ALF) 중 적어도 어느 하나를 수행하여 제2 복원 영상을 생성할 수 있다.
복원 영상에 디블록킹 필터를 적용한 후, SAO 및 ALF를 적용할 수 있다.
비디오 부호화 과정에서 블록 단위로 변환과 양자화를 수행한다. 양자화 과정에서 발생한 손실이 발생하고, 이를 복원한 영상의 경계에서는 불연속이 발생한다. 블록 경계에 나타난 불연속 영상을 블록 화질 열화(blocking artifact)라고 부른다.
Deblocking filter는 제1 영상의 블록 경계에서 발생하는 블록 화질 열화(blocking artifact)를 완화시키고, 부호화 성능을 높여주는 방법이다.
블록 경계에서 필터링을 수행하여 블록 화질 열화를 완화 시킬수 있으며, 도 39와 같이 블록이 인트라 예측 모드로 부호화 되었는지 여부, 또는 이웃한 블록의 움직임 벡터 절대값의 차이가 기 정의된 소정의 문턱값 보다 큰지 여부, 이웃한 블록의 참조 픽쳐가 서로 동일한 지 여부 중 적어도 어느 하나에 기초하여 블록 필터 강도(blocking strength, 이하 BS) 값을 결정할 수 있다. BS 값이 0이면 필터링을 수행하지 않으며, BS 값이 1 또는 2인 경우에 블록 경계에서 필터링을 수행할 수 있다.
주파수 영역에서 양자화를 수행하기 때문에, 물체 가장 자리에 링잉 현상 (ringing artifact)을 발생시키거나, 화소 값이 원본에 비해 일정한 값만큼 커지거나 작아기게 된다. SAO는 제1 복원 영상의 패턴을 고려하여 블록 단위로 특정 오프셋을 더하거나 빼는 방법으로 링잉 현상을 효과적으로 줄일 수 있다. SAO는 복원 영상의 특징에 따라 에지 오프셋(Edge offset, 이하 EO)과 밴드 오프셋(Band offset, BO)으로 구성된다. 에지 오프셋은 주변 화소 샘플 패턴에 따라 현재 샘플에 오프셋을 다르게 더해주는 방법이다. 밴드 오프셋은 영역 안의 비슷한 화소 밝기 값을 가진 화소 집합에 대해 일정 값을 더해 부호화 오류를 줄이는 것이다. 화소 밝기를 32개의 균일한 밴드로 나눠 비슷한 밝기 값을 가지는 화소를 하나의 집합이 되도록 할 수 있다. 예를 들어, 인접한 4개의 밴드를 하나의 범주로 묶을 수 있다. 하나의 범주에서는 동일한 오프셋 값을 사용하도록 설정할 수 있다.
ALF (Adaptive Loop Filter)는 수학식 30과 같이 제1 복원 영상 또는 제1 복원 영상에 deblocking filtering을 수행한 복원 영상에 기 정의된 필터 중 어느 하나를 사용하여 제 2 복원 영상을 생성하는 방법이다.
[수학식 30]
Figure PCTKR2019018643-appb-I000002
이 때 필터는 픽쳐 단위 또는 CTU 단위로 선택할 수 있다.
휘도 성분에서는 다음 도 40과 같이 5x5, 7x7 또는 9x9 다이아몬드 형태 중 어느 하나를 선택할 수 있다. 색차 성분에서는 5x5 다이아몬드 형태만 사용할 수 있도록 제한할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.
본 발명은 비디오 부호화/복호화하기 위해 이용될 수 있다.

Claims (10)

  1. 색차 블록의 인트라 예측 모드를 결정하는 단계;
    상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하는 단계;
    상기 특정된 휘도 영역을 다운샘플링하는 단계; 여기서, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록 또는 상기 휘도 블록에 인접한 이웃 영역 중 적어도 하나를 포함함,
    상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하는 단계; 및
    상기 다운샘플링된 휘도 블록에 상기 파라미터를 적용하여, 상기 색차 블록을 예측하는 단계를 포함하는, 비디오 복호화 방법.
  2. 제1항에 있어서,
    상기 색차 블록의 인트라 예측 모드는, 성분 간 참조 기반의 예측 모드로 구성된 소정의 그룹과 인덱스에 기초하여 유도되고,
    상기 성분 간 참조 기반의 예측 모드는, 상기 색차 블록에 인접한 좌측 및 상단 영역을 모두 참조하는 제1 모드, 상기 색차 블록에 인접한 좌측 영역을 참조하는 제2 모드 또는 상기 색차 블록에 인접한 상단 영역을 참조하는 제3 모드 중 적어도 하나를 포함하는, 비디오 복호화 방법.
  3. 제1항에 있어서,
    상기 휘도 블록에 인접한 이웃 영역은, 상단 이웃 영역과 좌측 이웃 영역 중 적어도 하나를 포함하고,
    상기 상단 이웃 영역은 n개의 화소 라인을 포함하고, 상기 좌측 이웃 영역은 m개의 화소 라인을 포함하는, 비디오 복호화 방법.
  4. 제1항에 있어서,
    상기 휘도 블록에 인접한 이웃 영역에 대한 다운샘플링은, 특정 위치의 휘도 화소 및 상기 휘도 화소의 주변 화소만을 이용하여 수행되는, 비디오 복호화 방법.
  5. 제4항에 있어서,
    상기 특정 위치는, 상기 색차 블록의 이웃 영역에 속한 복수의 화소 중 선택된 화소의 위치에 기초하여 결정되는, 비디오 복호화 방법.
  6. 제5항에 있어서,
    상기 선택된 화소는, 상기 색차 블록의 이웃 영역에서 소정의 간격마다 위치한 하나 또는 그 이상의 화소인, 비디오 복호화 방법.
  7. 제4항에 있어서,
    상기 주변 화소는, 상기 휘도 화소의 좌측, 우측, 상단, 하단, 좌상단, 좌하단, 우상단 또는 우하단 중 적어도 하나의 방향에 위치한 화소인, 비디오 복호화 방법.
  8. 제1항에 있어서, 상기 성분 간 참조를 위한 파라미터를 유도하는 단계는,
    상기 휘도 블록의 이웃 영역에 대한 다운샘플링을 통해 획득된 복수의 화소로부터 최대값 및 최소값을 산출하는 단계를 포함하고,
    상기 성분 간 참조를 위한 파라미터는, 상기 산출된 최대값 및 최소값을 이용하여 유도되는, 비디오 복호화 방법.
  9. 색차 블록의 인트라 예측 모드를 결정하는 단계;
    상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하는 단계;
    상기 특정된 휘도 영역을 다운샘플링하는 단계; 여기서, 상기 휘도 영역은, 상기 색차 블록에 대응하는 휘도 블록 또는 상기 휘도 블록에 인접한 이웃 영역 중 적어도 하나를 포함함,
    상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하는 단계; 및
    상기 다운샘플링된 휘도 블록에 상기 파라미터를 적용하여, 상기 색차 블록을 예측하는 단계를 포함하는, 비디오 부호화 방법.
  10. 비디오 비트스트림을 저장하기 위한 디지털 저장 매체에 있어서,
    색차 블록의 인트라 예측 모드를 결정하고, 상기 색차 블록의 성분 간 참조를 위한 휘도 영역을 특정하며, 상기 특정된 휘도 영역을 다운샘플링하고, 상기 색차 블록의 성분 간 참조를 위한 파라미터를 유도하며, 상기 다운샘플링된 휘도 영역에 상기 파라미터를 적용하여 상기 색차 블록을 예측하는 처리를 실행하는 비디오 복호화 프로그램을 기록한, 디지털 저장 매체.
PCT/KR2019/018643 2018-12-27 2019-12-27 영상 부/복호화 방법 및 장치 Ceased WO2020139039A1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN202410315329.0A CN118200555A (zh) 2018-12-27 2019-12-27 图像编码/解码方法和装置
US17/418,583 US12010299B2 (en) 2018-12-27 2019-12-27 Image encoding/decoding method and device
CN201980092849.7A CN113475063B (zh) 2018-12-27 2019-12-27 图像编码/解码方法和装置
CN202410315325.2A CN118200554A (zh) 2018-12-27 2019-12-27 图像编码/解码方法和装置
CN202410315336.0A CN118200556A (zh) 2018-12-27 2019-12-27 图像编码/解码方法和装置
CN202410315311.0A CN118200553A (zh) 2018-12-27 2019-12-27 图像编码/解码方法和装置
US18/652,697 US20240291973A1 (en) 2018-12-27 2024-05-01 Image encoding/decoding method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0171320 2018-12-27
KR20180171320 2018-12-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/418,583 A-371-Of-International US12010299B2 (en) 2018-12-27 2019-12-27 Image encoding/decoding method and device
US18/652,697 Continuation US20240291973A1 (en) 2018-12-27 2024-05-01 Image encoding/decoding method and device

Publications (1)

Publication Number Publication Date
WO2020139039A1 true WO2020139039A1 (ko) 2020-07-02

Family

ID=71126639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/018643 Ceased WO2020139039A1 (ko) 2018-12-27 2019-12-27 영상 부/복호화 방법 및 장치

Country Status (4)

Country Link
US (2) US12010299B2 (ko)
KR (1) KR20200081327A (ko)
CN (5) CN118200556A (ko)
WO (1) WO2020139039A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102780036B1 (ko) * 2019-03-23 2025-03-12 엘지전자 주식회사 영상 코딩 시스템에서의 인트라 예측 기반 영상 코딩
WO2023055138A1 (ko) * 2021-09-29 2023-04-06 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체
CN119013990A (zh) * 2022-04-12 2024-11-22 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质
CN116016918B (zh) * 2022-11-21 2025-08-29 浙江大华技术股份有限公司 加权色度预测方法、图像编解码方法、编解码器及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140110015A (ko) * 2012-01-04 2014-09-16 미디어텍 싱가폴 피티이. 엘티디. 루마 기반 크로마 인트라 예측의 방법 및 장치
KR20160105944A (ko) * 2012-09-28 2016-09-07 브이아이디 스케일, 인크. 비디오 코딩에서 크로마 신호 향상을 위한 교차-평면 필터링
KR20180037575A (ko) * 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9530189B2 (en) * 2009-12-31 2016-12-27 Nvidia Corporation Alternate reduction ratios and threshold mechanisms for framebuffer compression
US8705134B2 (en) * 2011-01-26 2014-04-22 Michael Robert Campanelli Method of processing an image to clarify text in the image
KR20130049526A (ko) 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
JP6005572B2 (ja) * 2013-03-28 2016-10-12 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム
EP3021578B1 (en) 2013-07-10 2019-01-02 KDDI Corporation Sub-sampling of reference pixels for chroma prediction based on luma intra prediction mode
US10455249B2 (en) 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
US10652575B2 (en) 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US10477240B2 (en) * 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
JP2021005741A (ja) * 2017-09-14 2021-01-14 シャープ株式会社 画像符号化装置及び画像復号装置
GB2567249A (en) * 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140110015A (ko) * 2012-01-04 2014-09-16 미디어텍 싱가폴 피티이. 엘티디. 루마 기반 크로마 인트라 예측의 방법 및 장치
KR20160105944A (ko) * 2012-09-28 2016-09-07 브이아이디 스케일, 인크. 비디오 코딩에서 크로마 신호 향상을 위한 교차-평면 필터링
KR20180037575A (ko) * 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUILLAUME LAROUCHE; JONATHAN TAQUET; CHRISTOPHE GISQUET; PATRICE ONNO: "CE3: Cross-component linear model simplification (Test 5.1)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-TSG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, no. JVET-L0191, 12 October 2018 (2018-10-12), Macao, CN, pages 1 - 4, XP030193702 *
KAI ZHANG; LI ZHANG; HONGBIN LIN; YUE WANG; PENGWEI ZHAO; DINGKUN HONG: "CE3-related: CCLM prediction with single-line neighbouring luma samples", JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16, no. JVET-L329-V2, 12 October 2018 (2018-10-12), Macao, CN, pages 1 - 4, XP030194699 *

Also Published As

Publication number Publication date
CN113475063A (zh) 2021-10-01
CN118200556A (zh) 2024-06-14
CN118200553A (zh) 2024-06-14
CN118200555A (zh) 2024-06-14
KR20200081327A (ko) 2020-07-07
US20220070452A1 (en) 2022-03-03
US20240291973A1 (en) 2024-08-29
US12010299B2 (en) 2024-06-11
CN118200554A (zh) 2024-06-14
CN113475063B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
WO2020096389A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020076116A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020185022A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020111785A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020159198A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020197290A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2020076125A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019083334A1 (ko) 비대칭 서브 블록 기반 영상 부호화/복호화 방법 및 장치
WO2020256442A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2017176030A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018026219A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020096426A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020060316A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2021040321A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020139060A1 (ko) 인트라 예측 기반의 영상 부호화/복호화 방법 및 장치
WO2020096428A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2021054805A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060329A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020222617A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2019182292A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020184979A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020060327A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020060317A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020256377A1 (ko) 서브 블록 분할 기반 영상 부호화/복호화 방법 및 장치
WO2020141904A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19903615

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19903615

Country of ref document: EP

Kind code of ref document: A1