WO2019112071A1 - 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치 - Google Patents

영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치 Download PDF

Info

Publication number
WO2019112071A1
WO2019112071A1 PCT/KR2017/014072 KR2017014072W WO2019112071A1 WO 2019112071 A1 WO2019112071 A1 WO 2019112071A1 KR 2017014072 W KR2017014072 W KR 2017014072W WO 2019112071 A1 WO2019112071 A1 WO 2019112071A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
transform
prediction
current chroma
chroma block
Prior art date
Application number
PCT/KR2017/014072
Other languages
English (en)
French (fr)
Inventor
허진
남정학
유선미
최장원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020207016010A priority Critical patent/KR102418700B1/ko
Priority to PCT/KR2017/014072 priority patent/WO2019112071A1/ko
Priority to US16/769,429 priority patent/US20200374516A1/en
Publication of WO2019112071A1 publication Critical patent/WO2019112071A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to a video coding technique, and more particularly, to a video coding method and apparatus based on efficient conversion of chroma components in a video coding system.
  • HD high definition
  • UHD ultra high definition
  • the present invention provides a method and apparatus for enhancing video coding efficiency.
  • Another object of the present invention is to provide a method and apparatus for deriving chroma block conversion information based on conversion information of a luma block corresponding to the chroma block.
  • an image decoding method performed by a decoding apparatus includes obtaining information about an intra prediction mode of a current chroma block and transform coefficients, generating a prediction sample based on the intra prediction mode of the current chroma block, transforming a corresponding luma block of the current chroma block Generating a residual sample using the transform coefficients of the current chroma block based on the information and generating reconstructed samples based on the predicted samples and the residual samples.
  • a decoding apparatus for performing image decoding.
  • the decoding apparatus includes an entropy decoding unit for obtaining information on an intra-prediction mode of a current chroma block and transform coefficients, a prediction macroblock for generating a prediction sample based on the intra-prediction mode of the current chroma block, A prediction unit for generating a residual sample using the transform coefficients of the current chroma block based on the transform information of the current chroma block and a reconstruction unit for generating reconstruction samples based on the prediction sample and the residual sample, do.
  • a video encoding method performed by an encoding apparatus.
  • the method includes the steps of determining an intra prediction mode for a current chroma block, generating prediction samples and residual samples based on the intra prediction mode of the current chroma block, Generating transform coefficients using the residual samples of the current chroma block based on the transform coefficients and encoding and transmitting the prediction information and the transform coefficients for the current chroma block.
  • a video encoding apparatus includes a prediction unit for determining an intra prediction mode for a current chroma block and generating a prediction sample and a residual sample based on the intra prediction mode of the current chroma block, A transform unit for generating transform coefficients using the residual samples of the current chroma block based on the information of the current chroma block and an entropy encoding unit for encoding the transform coefficients and the prediction information for the current chroma block, do.
  • the present invention it is possible to perform the conversion of the current chroma block based on the conversion information of the corresponding luma block having the same block structure, thereby reducing the amount of bits used for the conversion of the current chroma block, Can be improved.
  • the linear interpolation prediction of the current chroma block can be performed based on whether or not the corresponding luma block having the same block structure is subjected to the linear interpolation prediction, thereby reducing the amount of bits used for predicting the current chroma block And the overall coding efficiency can be improved.
  • FIG. 1 is a view for schematically explaining a configuration of a video encoding apparatus to which the present invention can be applied.
  • FIG. 2 is a schematic view illustrating a configuration of a video decoding apparatus to which the present invention can be applied.
  • Figure 3 illustrates exemplary intra-directional modes of 65 prediction directions.
  • FIG. 4 shows an example of a coding unit divided into a QT structure and a QTBT structure.
  • FIG. 5 shows an example in which a luma component and a chroma component of a block in a picture are divided through different block division structures.
  • FIG. 6 shows an example in which the luma component and the chroma component of the intra-picture block are divided through the same block division structure.
  • FIG. 7 shows an example of applying an adaptive multi-core transform to a current chroma block when the luma component and the chroma component have the same block division structure.
  • FIG. 8 illustrates an example of applying an adaptive multi-core transform to a current block to be encoded.
  • FIG. 9 schematically shows a video encoding method by an encoding apparatus according to the present invention.
  • FIG. 10 schematically shows a video decoding method by a decoding apparatus according to the present invention.
  • a picture generally refers to a unit that represents one image in a specific time zone
  • a slice is a unit that constitutes a part of a picture in coding.
  • One picture may be composed of a plurality of slices, and pictures and slices may be used in combination if necessary.
  • a pixel or a pel may mean a minimum unit of a picture (or image). Also, a 'sample' may be used as a term corresponding to a pixel.
  • a sample may generally represent a pixel or pixel value and may only represent a pixel / pixel value of a luma component or only a pixel / pixel value of a chroma component.
  • a unit represents a basic unit of image processing.
  • a unit may include at least one of a specific area of a picture and information related to the area.
  • the unit may be used in combination with terms such as a block or an area in some cases.
  • an MxN block may represent a set of samples or transform coefficients consisting of M columns and N rows.
  • FIG. 1 is a view for schematically explaining a configuration of a video encoding apparatus to which the present invention can be applied.
  • the video encoding apparatus 100 includes a picture dividing unit 105, a predicting unit 110, a residual processing unit 120, an adding unit 140, a filter unit 150, and a memory 160 .
  • the residual processing unit 120 may include a subtracting unit 121, a transforming unit 122, a quantizing unit 123, a reordering unit 124, an inverse quantizing unit 125 and an inverse transforming unit 126.
  • the picture dividing unit 105 may divide the inputted picture into at least one processing unit.
  • the processing unit may be referred to as a coding unit (CU).
  • the coding unit may be recursively partitioned according to a quad-tree binary-tree (QTBT) structure from the largest coding unit (LCU).
  • QTBT quad-tree binary-tree
  • LCU largest coding unit
  • one coding unit may be divided into a plurality of coding units of deeper depth based on a quadtree structure and / or a binary tree structure.
  • the quadtree structure is applied first and the binary tree structure can be applied later.
  • a binary tree structure may be applied first.
  • the coding procedure according to the present invention can be performed based on the final coding unit which is not further divided.
  • the maximum coding unit may be directly used as the final coding unit based on the coding efficiency or the like depending on the image characteristics, or the coding unit may be recursively divided into lower-depth coding units Lt; / RTI > may be used as the final coding unit.
  • the coding procedure may include a procedure such as prediction, conversion, and restoration, which will be described later.
  • the processing unit may include a coding unit (CU) prediction unit (PU) or a transform unit (TU).
  • the coding unit may be split from the largest coding unit (LCU) into coding units of deeper depth along the quad tree structure.
  • LCU largest coding unit
  • the maximum coding unit may be directly used as the final coding unit based on the coding efficiency or the like depending on the image characteristics, or the coding unit may be recursively divided into lower-depth coding units Lt; / RTI > may be used as the final coding unit.
  • SCU smallest coding unit
  • the coding unit can not be divided into smaller coding units than the minimum coding unit.
  • the term " final coding unit " means a coding unit on which the prediction unit or the conversion unit is partitioned or divided.
  • a prediction unit is a unit that is partitioned from a coding unit, and may be a unit of sample prediction. At this time, the prediction unit may be divided into sub-blocks.
  • the conversion unit may be divided along the quad-tree structure from the coding unit, and may be a unit for deriving a conversion coefficient and / or a unit for deriving a residual signal from the conversion factor.
  • the coding unit may be referred to as a coding block (CB)
  • the prediction unit may be referred to as a prediction block (PB)
  • the conversion unit may be referred to as a transform block (TB).
  • the prediction block or prediction unit may refer to a specific area in the form of a block in a picture and may include an array of prediction samples.
  • a transform block or transform unit may refer to a specific region in the form of a block within a picture, and may include an array of transform coefficients or residual samples.
  • the prediction unit 110 may perform a prediction on a current block to be processed (hereinafter, referred to as a current block), and may generate a predicted block including prediction samples for the current block.
  • the unit of prediction performed in the prediction unit 110 may be a coding block, a transform block, or a prediction block.
  • the prediction unit 110 may determine whether intra prediction or inter prediction is applied to the current block. For example, the prediction unit 110 may determine whether intra prediction or inter prediction is applied in units of CU.
  • the prediction unit 110 may derive a prediction sample for a current block based on a reference sample outside the current block in a picture to which the current block belongs (hereinafter referred to as a current picture). At this time, the prediction unit 110 may derive a prediction sample based on (i) an average or interpolation of neighboring reference samples of the current block, (ii) The prediction sample may be derived based on a reference sample existing in a specific (prediction) direction with respect to the prediction sample among the samples. (i) may be referred to as a non-directional mode or a non-angle mode, and (ii) may be referred to as a directional mode or an angular mode.
  • the prediction mode may have, for example, 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planar mode (Planar mode).
  • the prediction unit 110 may determine a prediction mode applied to a current block using a prediction mode applied to a neighboring block.
  • the prediction unit 110 may derive a prediction sample for a current block based on a sample specified by a motion vector on a reference picture.
  • the prediction unit 110 may derive a prediction sample for a current block by applying one of a skip mode, a merge mode, and a motion vector prediction (MVP) mode.
  • the prediction unit 110 can use motion information of a neighboring block as motion information of a current block.
  • difference residual between the predicted sample and the original sample is not transmitted unlike the merge mode.
  • MVP mode a motion vector of a current block can be derived by using a motion vector of a neighboring block as a motion vector predictor to use as a motion vector predictor of a current block.
  • a neighboring block may include a spatial neighboring block existing in a current picture and a temporal neighboring block existing in a reference picture.
  • the reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic).
  • the motion information may include a motion vector and a reference picture index.
  • Information such as prediction mode information and motion information may be (entropy) encoded and output in the form of a bit stream.
  • the highest picture on the reference picture list may be used as a reference picture.
  • the reference pictures included in the picture order count can be sorted on the basis of the picture order count (POC) difference between the current picture and the corresponding reference picture.
  • POC picture order count
  • the POC corresponds to the display order of the pictures and can be distinguished from the coding order.
  • the subtraction unit 121 generates residual samples that are the difference between the original sample and the predicted sample. When the skip mode is applied, a residual sample may not be generated as described above.
  • the transforming unit 122 transforms the residual samples on a transform block basis to generate a transform coefficient.
  • the transforming unit 122 can perform the transform according to the size of the transform block and a prediction mode applied to the coding block or the prediction block spatially overlapping the transform block. For example, if intraprediction is applied to the coding block or the prediction block that overlaps the transform block and the transform block is a 4 ⁇ 4 residue array, the residual sample is transformed into a discrete sine transform (DST) In other cases, the residual samples can be converted using a DCT (Discrete Cosine Transform) conversion kernel.
  • DST discrete sine transform
  • the quantization unit 123 may quantize the transform coefficients to generate quantized transform coefficients.
  • the reordering unit 124 rearranges the quantized transform coefficients.
  • the reordering unit 124 may rearrange the block-shaped quantized transform coefficients into a one-dimensional vector form through a scanning method of coefficients.
  • the reordering unit 124 may be a part of the quantization unit 123, although the reordering unit 124 is described as an alternative configuration.
  • the entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may include, for example, an encoding method such as exponential Golomb, context-adaptive variable length coding (CAVLC), context-adaptive binary arithmetic coding (CABAC)
  • CAVLC context-adaptive variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • the entropy encoding unit 130 may encode the information necessary for video restoration (such as the value of a syntax element) together with the quantized transform coefficient or separately.
  • the entropy encoded information may be transmitted or stored in units of NAL (network abstraction layer) units in the form of a bit stream.
  • NAL network abstraction layer
  • the inverse quantization unit 125 inversely quantizes the quantized values (quantized transform coefficients) in the quantization unit 123 and the inverse transformation unit 126 inversely quantizes the inversely quantized values in the inverse quantization unit 125, .
  • the adder 140 combines the residual sample and the predicted sample to reconstruct the picture.
  • the residual samples and the prediction samples are added in units of blocks so that a reconstruction block can be generated.
  • the adding unit 140 may be a part of the predicting unit 110, Meanwhile, the addition unit 140 may be referred to as a restoration unit or a restoration block generation unit.
  • the filter unit 150 may apply a deblocking filter and / or a sample adaptive offset. Through deblocking filtering and / or sample adaptive offsets, artifacts in the block boundary in the reconstructed picture or distortion in the quantization process can be corrected.
  • the sample adaptive offset can be applied on a sample-by-sample basis and can be applied after the process of deblocking filtering is complete.
  • the filter unit 150 may apply an ALF (Adaptive Loop Filter) to the restored picture.
  • the ALF may be applied to the reconstructed picture after the deblocking filter and / or sample adaptive offset is applied.
  • the memory 160 may store restored pictures (decoded pictures) or information necessary for encoding / decoding.
  • the reconstructed picture may be a reconstructed picture whose filtering procedure has been completed by the filter unit 150.
  • the stored restored picture may be used as a reference picture for (inter) prediction of another picture.
  • the memory 160 may store (reference) pictures used for inter prediction. At this time, the pictures used for inter prediction can be designated by a reference picture set or a reference picture list.
  • FIG. 2 is a schematic view illustrating a configuration of a video decoding apparatus to which the present invention can be applied.
  • the video decoding apparatus 200 includes an entropy decoding unit 210, a residual processing unit 220, a predicting unit 230, an adding unit 240, a filter unit 250, and a memory 260 .
  • the residual processing unit 220 may include a rearrangement unit 221, an inverse quantization unit 222, and an inverse transformation unit 223.
  • the video decoding apparatus 200 can restore video in response to a process in which video information is processed in the video encoding apparatus.
  • the video decoding apparatus 200 can perform video decoding using a processing unit applied in the video encoding apparatus.
  • the processing unit block of video decoding may be, for example, a coding unit and, in another example, a coding unit, a prediction unit or a conversion unit.
  • the coding unit may be partitioned along the quad tree structure and / or the binary tree structure from the maximum coding unit.
  • a prediction unit and a conversion unit may be further used as the case may be, in which case the prediction block is a block derived or partitioned from the coding unit and may be a unit of sample prediction. At this time, the prediction unit may be divided into sub-blocks.
  • the conversion unit may be divided along the quad tree structure from the coding unit and may be a unit that derives the conversion factor or a unit that derives the residual signal from the conversion factor.
  • the entropy decoding unit 210 may parse the bitstream and output information necessary for video restoration or picture restoration. For example, the entropy decoding unit 210 decodes information in a bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, and calculates a value of a syntax element necessary for video restoration, a quantized value Lt; / RTI >
  • a coding method such as exponential Golomb coding, CAVLC, or CABAC
  • the CABAC entropy decoding method includes receiving a bean corresponding to each syntax element in a bitstream, decoding decoding target information of the decoding target syntax element, decoding information of a surrounding and decoding target block, or information of a symbol / A context model is determined and an occurrence probability of a bin is predicted according to the determined context model to perform arithmetic decoding of the bean to generate a symbol corresponding to the value of each syntax element have.
  • the CABAC entropy decoding method can update the context model using the information of the decoded symbol / bin for the context model of the next symbol / bean after determining the context model.
  • the residual value i.e., the quantized transform coefficient, which is entropy-decoded in the entropy decoding unit 210, 221).
  • the reordering unit 221 may rearrange the quantized transform coefficients into a two-dimensional block form.
  • the reordering unit 221 may perform reordering in response to the coefficient scanning performed in the encoding apparatus.
  • the rearrangement unit 221 may be a part of the inverse quantization unit 222, although the rearrangement unit 221 has been described as an alternative configuration.
  • the inverse quantization unit 222 may dequantize the quantized transform coefficients based on the (inverse) quantization parameters, and output the transform coefficients. At this time, the information for deriving the quantization parameter may be signaled from the encoding device.
  • the inverse transform unit 223 may invert the transform coefficients to derive the residual samples.
  • the prediction unit 230 may predict a current block and may generate a predicted block including prediction samples of the current block.
  • the unit of prediction performed in the prediction unit 230 may be a coding block, a transform block, or a prediction block.
  • the prediction unit 230 may determine whether intra prediction or inter prediction is to be applied based on the prediction information.
  • a unit for determining whether to apply intra prediction or inter prediction may differ from a unit for generating a prediction sample.
  • units for generating prediction samples in inter prediction and intra prediction may also be different.
  • whether inter prediction or intra prediction is to be applied can be determined in units of CU.
  • the prediction mode may be determined in units of PU to generate prediction samples.
  • a prediction mode may be determined in units of PU, and prediction samples may be generated in units of TU.
  • the prediction unit 230 may derive a prediction sample for the current block based on the surrounding reference samples in the current picture.
  • the prediction unit 230 may apply a directional mode or a non-directional mode based on the neighbor reference samples of the current block to derive a prediction sample for the current block.
  • a prediction mode to be applied to the current block may be determined using the intra prediction mode of the neighboring block.
  • the prediction unit 230 may derive a prediction sample for a current block based on a sample specified on a reference picture by a motion vector on a reference picture.
  • the prediction unit 230 may derive a prediction sample for a current block by applying a skip mode, a merge mode, or an MVP mode.
  • motion information necessary for inter-prediction of a current block provided in the video encoding apparatus for example, information on a motion vector, a reference picture index, and the like may be acquired or derived based on the prediction information
  • motion information of a neighboring block can be used as motion information of the current block.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • the prediction unit 230 may construct a merge candidate list using the motion information of the available neighboring blocks and use the information indicated by the merge index on the merge candidate list as the motion vector of the current block.
  • the merge index may be signaled from the encoding device.
  • the motion information may include a motion vector and a reference picture. When the motion information of temporal neighboring blocks is used in the skip mode and the merge mode, the highest picture on the reference picture list can be used as a reference picture.
  • the difference between the predicted sample and the original sample is not transmitted.
  • a motion vector of a current block can be derived using a motion vector of a neighboring block as a motion vector predictor.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • a merge candidate list may be generated using a motion vector of the reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block that is a temporally neighboring block.
  • the motion vector of the candidate block selected in the merge candidate list is used as the motion vector of the current block.
  • the prediction information may include a merge index indicating a candidate block having an optimal motion vector selected from the candidate blocks included in the merge candidate list.
  • the predicting unit 230 can derive the motion vector of the current block using the merge index.
  • a motion vector predictor candidate list is generated by using a motion vector of the reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block which is a temporally neighboring block . That is, the motion vector of the reconstructed spatial neighboring block and / or the motion vector corresponding to the neighboring block Col may be used as a motion vector candidate.
  • the information on the prediction may include a predicted motion vector index indicating an optimal motion vector selected from the motion vector candidates included in the list.
  • the predicting unit 230 can use the motion vector index to select a predictive motion vector of the current block from the motion vector candidates included in the motion vector candidate list.
  • the predicting unit of the encoding apparatus can obtain the motion vector difference (MVD) between the motion vector of the current block and the motion vector predictor, and can output it as a bit stream. That is, MVD can be obtained by subtracting the motion vector predictor from the motion vector of the current block.
  • the predicting unit 230 may obtain the motion vector difference included in the information on the prediction, and derive the motion vector of the current block through addition of the motion vector difference and the motion vector predictor.
  • the prediction unit may also acquire or derive a reference picture index or the like indicating the reference picture from the information on the prediction.
  • the adder 240 may add a residual sample and a prediction sample to reconstruct a current block or a current picture.
  • the adder 240 may add the residual samples and the prediction samples on a block-by-block basis to reconstruct the current picture.
  • the adder 240 has been described as an alternative configuration, but the adder 240 may be a part of the predictor 230.
  • the addition unit 240 may be referred to as a restoration unit or a restoration block generation unit.
  • the filter unit 250 may apply deblocking filtered sample adaptive offsets, and / or ALFs, to the reconstructed pictures.
  • the sample adaptive offset may be applied on a sample-by-sample basis and may be applied after deblocking filtering.
  • the ALF may be applied after deblocking filtering and / or sample adaptive offsets.
  • the memory 260 may store restored pictures (decoded pictures) or information necessary for decoding.
  • the reconstructed picture may be a reconstructed picture whose filtering procedure has been completed by the filter unit 250.
  • the memory 260 may store pictures used for inter prediction.
  • the pictures used for inter prediction may be designated by a reference picture set or a reference picture list.
  • the reconstructed picture can be used as a reference picture for another picture.
  • the memory 260 may output the restored picture according to the output order.
  • the intra-prediction mode may include two non-directional intra-prediction modes and 33 directional intra-prediction modes.
  • the non-directional intra-prediction modes may include a planar intra-prediction mode and a DC intra-prediction mode, and the directional intra-prediction modes may include intra-prediction modes 2 to 34.
  • the planar intra prediction mode may be referred to as a planar mode, and the DC intra prediction mode may be referred to as a DC mode.
  • the intra prediction mode 10 indicates a horizontal intra prediction mode or a horizontal mode
  • the intra prediction mode 26 indicates a vertical intra prediction mode or a vertical mode
  • a directional intra mode angular intra mode can be expressed by an angle.
  • the relative angle corresponding to each intra-prediction mode can be expressed with reference to the horizontal reference angle 0 [deg.] Corresponding to the intra-prediction mode # 10, and based on the vertical reference angle 0 [ To express a relative angle corresponding to each intra prediction mode.
  • the intra-prediction mode may include two non-directional intra-prediction modes and 65 directional intra-prediction modes.
  • the non-directional intra-prediction modes may include a planar intra-prediction mode and a DC intra-prediction mode, and the directional intra-prediction modes may include intra-prediction modes 2 to 66.
  • Figure 3 illustrates exemplary intra-directional modes of 65 prediction directions.
  • an intra-prediction mode having a horizontal directionality and an intra-prediction mode having a vertical directionality can be distinguished from the intra-prediction mode # 34 having a left-side diagonal prediction direction.
  • H and V in Fig. 3 indicate the horizontal direction and the vertical direction, respectively, and the numbers from -32 to 32 indicate displacements of 1/32 unit on the sample grid position.
  • the intra-prediction modes 2 to 33 have a horizontal direction, and the intra-prediction modes # 34 to # 66 have a vertical direction.
  • the intra prediction mode 18 and the intra prediction mode 50 indicate the horizontal intra prediction mode and the vertical intra prediction mode, respectively, and the intra intra prediction mode and the intra intra prediction mode
  • the prediction direction can be expressed by an angle.
  • the relative angle corresponding to each intra-prediction mode can be expressed based on the horizontal reference angle 0 corresponding to the intra-prediction mode # 18, and the relative angle corresponding to the intra-prediction mode # To express a relative angle corresponding to each intra prediction mode.
  • one coding unit can be divided into a prediction block of a square shape, and intra prediction for the prediction block can be performed.
  • one coding unit may be divided into prediction blocks of non-square shape to improve coding efficiency.
  • the structure in which the one coding unit is divided into a square shape prediction block may be referred to as a quad tree (QT) structure and is divided into prediction blocks of the non-square shape
  • QTBT quadtree binary tree
  • FIG. 4 shows an example of a coding unit divided into a QT structure and a QTBT structure.
  • 4A illustrates a coding block divided into a prediction block of a square shape according to the QT structure.
  • FIG. 4A illustrates a coding block divided into prediction blocks of a non-square shape according to the QTBT structure.
  • the QTBT structure may divide a coding block based on the QT structure and further divide the coding block into a binary tree (BT) structure based on split flag syntax.
  • the QTBT structure may represent a divided structure configured by combining a BT structure with the QT structure, the coding block may be divided through the QT structure, and a leaf node of the QT structure Can be further divided through the BT structure.
  • the solid line blocks in FIG. 4 (b) can represent square blocks divided through the QT structure, and the dotted blocks can represent non-square blocks divided through the BT structure in the QT structure.
  • intraprediction is performed in units of a prediction unit (PU) of a square or non-square shape, and conversion is performed in units of a square-shaped transform unit (TU)
  • the coding process including prediction and conversion may be performed based on one processing unit without distinguishing between the PU and the TU.
  • the processing unit may be represented as a coding unit (CU).
  • the CU may be divided into square blocks and non-square CUs through a QTBT structure, and intra prediction and transform processes may be performed on the CUs.
  • the CU may be divided through the QT structure, and the leaf node of the QT structure may be further divided through the BT structure.
  • the leaf node may represent a CU that is no longer divided in the QT structure, and the leaf node may be called a leaf node.
  • the luma component and the chroma component of the picture may have different block division structures in order to improve the prediction accuracy and improve the coding efficiency have.
  • the input image may include a luma component, a chroma Cb component, and a chroma Cr component.
  • the luma component, the chroma Cb component, and the chroma Cr component may be divided through different block division structures, and the block A of the luma component and the chroma Cb component corresponding to the block A
  • the block C of the block B and the chrominance component Cr may have different block shapes.
  • the block A, the block B, and the block C may be subjected to different intraprediction modes.
  • the block corresponding to the block may be derived based on the upper left position of the block.
  • the adaptive multi-core transformation can represent a method of additionally using DCT (discrete cosine transform) type 2, discrete sine transform (DST) type 7, DCT type 8, and / or DST type 1 additionally.
  • DCT discrete cosine transform
  • the AMT modifies the spatial domain residual signal (or residual block) based on a plurality of conversion kernels selected from the DCT type 2, the DST type 7, the DCT type 8, and the DST type 1, To modified transform coefficients (or first order transform coefficients).
  • a vertical conversion kernel and a horizontal conversion kernel for a target block among the conversion kernels can be selected, and the vertical conversion for the target block and the horizontal
  • the horizontal conversion of the target block may be performed based on the conversion kernel.
  • the horizontal conversion may represent a conversion of horizontal components of the target block
  • the vertical conversion may represent a conversion of vertical components of the target block.
  • a spatial domain to frequency domain transform is applied to a residual signal (or a residual block) based on the DCT type 2 to obtain modified transform coefficients (or a linear transform Coefficients) may be generated.
  • the adaptive multi-core transform is applied, the spatial domain for a residual signal (or residual block) based on DCT type 2, DST type 7, DCT type 8, and / or DST type 1,
  • the transform to the frequency domain may be applied to produce modified transform coefficients (or primary transform coefficients).
  • the conversion index may indicate a conversion type of a block on which conversion is performed.
  • DCT type 2, DST type 7, DCT type 8, and DST type 1 and the like can be called a conversion type, a conversion kernel, or a conversion core.
  • the conversion types for the block of the luma component and the block of the chroma component corresponding to the block of the luma component may be different,
  • a separate transform index for a block of chroma components may be generated to require a large amount of bits, so that only blocks of the luma component are applied to the block of chroma components without applying an adaptive multi-core transform based on the adaptive multi- Conversion can be performed.
  • the luma and chroma components A separate non-separable secondary transform index may be generated for overbits. That is, when the luma component and the chroma component have different block division structures, each residual signal (or residual block) may have different characteristics with respect to each of the luma component and the chroma component, The conversion can be performed based on the NSST kernel different from the luminance component and the chrominance component.
  • a secondary transformation index indicating the NSST kernel of each of the luminance component and the chrominance component can be generated, and thus an over bit can be generated.
  • the NSST transforms the primary transform coefficients derived through the DCT type 2 or AMT based on a non-separable transform matrix and transforms the transform coefficients for the residual signal Lt; / RTI > transform coefficients).
  • the non-separating conversion matrix may represent a matrix for converting the vertical and horizontal components of the primary conversion coefficients at once without separating them. That is, the non-separating conversion matrix may represent a matrix for performing vertical conversion and horizontal conversion at one time.
  • the NSST can represent a transformation method of transforming the first-order transform coefficients based on the non-segregation transform matrix without transforming the vertical and horizontal components of the first-order transform coefficients to generate transform coefficients (or secondary transform coefficients) .
  • the size of the non-separation transform matrix may vary depending on the size of a target block to be transformed. For example, when the width or height of the target block is 8 or more, a non-separation transform matrix of 8x8 size can be derived, and if the width or height of the target block is 4 , A non-isolated transformation matrix of size 4x4 can be derived.
  • the linear interpolation intra prediction may be performed based on prediction samples (or positions of prediction samples) of the current block among neighbor samples including left neighboring samples and upper neighboring samples of the current block in which intra prediction is performed,
  • the intra prediction is generated by interpolating the first reference sample located in the prediction direction of the intra prediction mode of the current block and the second reference sample located in the direction opposite to the prediction direction of the intra prediction mode of the current block .
  • the linear interpolation intra prediction may be referred to as linear interpolation prediction.
  • the present invention proposes a method of applying an adaptive multiple core transform (AMT) applied to only a luma component to a chroma component in an existing method.
  • AMT adaptive multiple core transform
  • an adaptive multi-core transform index of a luma block corresponding to a current chroma block may be derived, and the adaptive multi-core transform index of the luma block may be used for the AMT of the current chroma block.
  • FIG. 7 shows an example of applying an adaptive multi-core transform to a current chroma block when the luma component and the chroma component have the same block division structure.
  • a luma block corresponding to a current chroma block to be encoded / decoded can be derived, and if adaptive multi-core conversion is used in the luma block, the adaptive multi-core conversion index May be induced and applied to the chroma block.
  • the adaptive multi-core transform is not used in the luma block, a transform performed based on the existing DCT type 2 can be applied to the chroma block.
  • the corresponding luma block Y (710) can be derived based on the position of the upper left sample of the chroma block C cb (720) or the chroma block C cr (730), specifically, the chroma block C a block of luma components having cb 720 or a top left sample of the location corresponding to the location of the top left sample of the chroma block C cr 730 may be derived to the corresponding luma block Y 710.
  • the adaptation of the chroma block C cb 720 or the chroma block C cr 730 based on the adaptive multi-core transformation flag of the corresponding luma block Y 710 It is possible to determine whether or not to apply multi-core conversion.
  • the adaptive multi-core conversion flag may indicate whether adaptive multi-core conversion is applied to the corresponding block.
  • an adaptive multi-core transform may be applied to the corresponding luma block Y 710, If the value of the adaptive multi-core transform flag of Y 710 is zero, the adaptive multi-core transform may not be applied to the corresponding luma block Y 710.
  • the adaptive multi-core transform is used in the corresponding luma block Y 710, May be derived and used to transform the chroma block C cb (720) or the chroma block C cr (730).
  • the syntax element of the adaptive multi-core transform index used in the corresponding luma block Y (710) may be expressed as YAMTIdx.
  • Conversion of the chroma block C cb (720) or the chroma block C cr (730) may be performed based on DCT type 2.
  • FIG. 8 illustrates an example of applying an adaptive multi-core transform to a current block to be encoded.
  • the current block is a luma block (S800). If the current block is a luma block, it may be determined whether or not the adaptive multi-core conversion of the current block is applied based on an adaptive multiple core transform flag (AMT flag) for the current block. Accordingly, if the current block is a luma block, it may be determined whether the AMT flag of the current block is 1 (S810).
  • AMT flag adaptive multiple core transform flag
  • the AMT index of the current block may be parsed if the value of the AMT flag of the current block is 1 and the AMT index of the current block may be parsed based on the AMT index, An adaptive multi-core transformation may be performed (S820). If the value of the AMT flag of the current block is not 1, the current block may be converted based on the DCT type 2 (S830).
  • the current block may be a chroma block rather than a luma block. That is, if the current block is not a luma block, it may be determined whether adaptive multi-core conversion of the corresponding luma block corresponding to the current block is applied (S840).
  • the adaptive multi-core conversion adaptation of the corresponding luma block may be determined based on the AMT flag of the corresponding luma block. For example, if the value of the AMT flag of the corresponding luma block is 1, the corresponding luma block may be adaptive multi-core transformed, and if the value of the AMT flag of the corresponding luma block is zero, The corresponding luma block may not be adaptive multi-core transformed.
  • the current block may be transformed based on the DCT type 2 (S830).
  • an AMT index of the corresponding luma block of the current block may be derived, and an adaptive multi-core transform (S850).
  • the present invention proposes a method for efficiently applying the non-separable secondary transform (NSST) applied to the luma component and the chroma component to the chroma component in the conventional method.
  • NST non-separable secondary transform
  • the characteristics of the luma component and the chroma component may be very similar, and the non-separation secondary conversion may be applied to the chroma component through the following method The coding efficiency can be further improved.
  • information about the non-separating quadrature transformation of the chroma block and the corresponding corresponding luma block may be derived and used to transform the chroma block.
  • the chroma block C cb 720 or the chroma block C cr 730 of FIG. 7 described above is encoded / decoded
  • the chroma block C cb 720 or the chroma block C cr 730 A corresponding luma block Y 710 that has already been encoded / decoded at the encoding / decoding time of the luma block can be derived.
  • the non-separable quadratic transformation applied to the corresponding luma block Y 710 may be applied directly to the chroma block C cb 720 or the chroma block C cr 730 .
  • the non-separable quadratic transformation of the chroma block C cb (720) or the chroma block C cr (730) may be performed based on the non-separating transformation matrix of the corresponding luma block Y (710).
  • a non-separable secondary transform index (NSST index) indicating the non-separation transform matrix of the corresponding luma block Y (710) may be derived, and the non-separating secondary transform index may be derived from the chroma block Can be used for the non-separating secondary transformation of Cb (720) or the chroma block C cr (730). That is, the NSST index of the corresponding luma block Y 710 can be derived, and the chroma block C cb (720) or the chroma block C cr (730) can be derived based on the non- A non-separating secondary transformation can be performed.
  • the signaled NSST index need not be transmitted, cb C (720) or to reduce the amount of bits for the non-isolated secondary conversion of the chroma blocks C cr (730) it is possible to improve the overall coding efficiency.
  • a flag may be sent to the chroma block indicating whether the same non-separable quadratic conversion as the corresponding luma block is performed, and whether to apply the non-separable quadratic conversion of the corresponding luma block based on the flag may be determined. For example, when the chroma block C cb 720 or the chroma block C cr 730 of FIG.
  • the value of the flag is encoded as 1 /
  • a separate NSST index for performing the non-separating quadrature transformation of the chroma block Ccb (720) or the chroma block Cr (730) may not be transmitted.
  • the NSST index of the corresponding luma block Y 710 may be derived, and the chroma block C cb 720 or the chroma block C cr 730 may be derived based on the non- Lt; / RTI > can be performed.
  • the value of the flag may be encoded / decoded to zero, and the NSST index of the chroma block C cb 720 or the chroma block C cr 730 may be further transmitted.
  • the chroma block C cb (720) or the chroma block C cr (730) may be based on the chroma block C cb (720) or the non-separating transformation matrix indicated by the NSST index of the chroma block C cr (730) Lt; / RTI > can be performed.
  • the block of the luma component and the chroma component corresponding to the block of the luma component may have the same shape
  • the block of component and the block of chroma component may have similar properties.
  • the block linear interpolation prediction of the chroma component we propose a method to perform interpolation prediction more efficiently.
  • the linear interpolation prediction may be referred to as linear interpolation intra prediction.
  • the linear interpolation intraprediction can be performed only on the luma component. That is, whether to apply the linear interpolation intra prediction to the luma component from the viewpoint of rate distortion optimization (RDO) can be determined. In this way, whether or not the linear interpolation intra prediction is applied to the luma component and the optimal intra prediction mode can be selected.
  • the linear interpolation prediction flag indicating whether or not the linear interpolation prediction is applied can be encoded / decoded only for the luma component, and the linear interpolation prediction can be applied only to the luma component based on the linear interpolation prediction flag .
  • the linear interpolation prediction may be applied independently for the luma component and the chroma component. From the bit rate distortion optimization point of view, whether to apply the linear interpolation intraprediction of each of the luma component and the chroma component can be determined. In this case, a total of four bit rate distortion costs can be calculated for one intra prediction mode.
  • the intra prediction is performed on the luma component and the chroma component based on the intra prediction mode
  • the intra prediction is performed on the luma component based on the intra prediction mode
  • the linear interpolation intraprediction for the luma component is performed based on the intra prediction mode
  • the intra prediction for the chroma component is performed when the linear interpolation intra prediction for the chroma component is performed
  • the respective bit rate distortion cost can be calculated.
  • a linear interpolation prediction flag indicating whether or not linear interpolation prediction is applied can be encoded / decoded for each of the luma component and the chroma component, and based on the luma component and the linear interpolation prediction flag for each chroma component
  • the linear interpolation prediction for the luma component and the chroma component may be independently determined.
  • the method of independently determining whether or not to apply the linear interpolation prediction to the luma component and the chroma component may be higher in complexity than the method in which the linear interpolation prediction is applied only to the luma component described above, May be selected, through which higher encoding / decoding efficiency may be derived.
  • whether to apply the linear interpolation prediction to the chroma component may be determined based on whether or not the luma component is subjected to linear interpolation intra prediction. Specifically, for example, whether the linear interpolation intra-prediction application of the corresponding block, which is a block of the luma component in terms of bit rate distortion optimization, can be determined, and based on whether the linear interpolation intra prediction is applied to the corresponding block, The linear interpolation intra prediction may be applied to the current block which is a block of the current block.
  • the linear interpolation intra prediction when the linear interpolation intra prediction is applied to the corresponding block, the linear interpolation intra prediction can be applied to the current block, and when the linear interpolation intra prediction is not applied to the corresponding block, Linear interpolation intra prediction may not be applied.
  • the application of the linear interpolation intra prediction to the corresponding block may be determined based on the linear interpolation prediction flag of the corresponding block.
  • the corresponding block may represent a luma block corresponding to the current block.
  • linear interpolation prediction flag indicating whether the corresponding block is subjected to the linear interpolation intra prediction can be encoded / decoded, and whether or not the linear interpolation intra prediction is applied to the current block based on the linear interpolation prediction flag of the corresponding block Can be determined.
  • the method of applying the linear interpolation prediction for the chroma component based on whether or not the luma component is subjected to the linear interpolation intra prediction is similar to the method of applying the linear interpolation intra prediction to the luma component, It is also possible to determine whether or not the linear interpolation prediction is applied to the chroma component based on the linear interpolation prediction flag of the luma component so that only the luma component mentioned above is subjected to the linear interpolation intra prediction And a method of independently determining whether to apply the linear interpolation prediction to the luma component and the chroma component.
  • FIG. 9 schematically shows a video encoding method by an encoding apparatus according to the present invention.
  • the method disclosed in Fig. 9 can be performed by the encoding apparatus disclosed in Fig.
  • S900 to S910 of FIG. 9 may be performed by the predicting unit of the encoding apparatus
  • S920 may be performed by the converting unit of the encoding apparatus
  • S930 may be performed by the entropy encoding unit Lt; / RTI >
  • the encoding apparatus determines an intra prediction mode for the current chroma block (S900).
  • the encoding apparatus may perform various intra prediction modes to derive an intra prediction mode having an optimal RD cost into the intra prediction mode for the current chroma block.
  • the intra prediction mode may be one of two non-directional prediction modes and one of 33 directional prediction modes.
  • the two non-directional prediction modes may include an intra-DC mode and an intra-planar mode.
  • the intra prediction mode may be one of two non-directional intra prediction modes and 65 directional intra prediction modes.
  • the two non-directional prediction modes may include an intra-DC mode and an intra-planar mode.
  • the 65 directional intra prediction modes may include vertical direction intra prediction modes and horizontal direction intra prediction modes.
  • the vertical direction intra prediction modes may include intra prediction mode # 34 to intra prediction mode # 66
  • the horizontal direction intra prediction modes may include intra prediction mode # 2 to # 33.
  • the encoding apparatus can determine whether to perform linear interpolation prediction of the current chroma block. For example, whether or not to perform the linear interpolation prediction of the current chroma block can be determined independently of whether the corresponding luma block of the current chroma block is to be subjected to the linear interpolation prediction. In this case, the encoding apparatus can compare the RD cost of performing the linear interpolation prediction and the RD cost of performing the existing intra prediction, and when the RD cost of performing the linear interpolation prediction is the optimal RD cost, It can be determined that the linear interpolation prediction is performed on the current chroma block.
  • the encoding apparatus may determine whether to perform the linear interpolation prediction of the current chroma block based on whether the corresponding luma block performs the linear interpolation prediction. In this case, when the linear interpolation prediction is performed on the corresponding luma block, it can be determined that the linear interpolation prediction is performed on the current chroma block, and when the linear interpolation prediction is not performed on the corresponding luma block, It may be determined that the linear interpolation prediction is not performed on the current chroma block. A linear interpolation prediction flag of the corresponding luma block indicating whether to perform linear interpolation prediction of the corresponding luma block can be generated.
  • the linear interpolation prediction flag may indicate that linear interpolation intra prediction is performed on the corresponding luma block, and when the value of the linear interpolation prediction flag is 0, The flag may indicate that linear interpolation intra prediction is not performed on the corresponding luma block.
  • the corresponding luma block may represent a block of luma components corresponding to the current chroma block.
  • the corresponding luma block may be derived based on the location of the upper left sample of the chroma block. Specifically, a block of luma components having upper left samples at positions corresponding to positions of upper left samples of the chroma block may be derived to the corresponding luma block.
  • the encoding apparatus generates a prediction sample and a residual sample based on the intra prediction mode of the current chroma block (S910).
  • the encoding device may derive surrounding samples of the current chroma block.
  • the surrounding samples may include left peripheral samples, upper left peripheral samples, and upper peripheral samples.
  • the left neighboring samples, the left upper neighbor sample, and the upper neighbor samples may be derived from neighboring blocks already reconstructed at the decoding time of the current chroma block.
  • the left neighbor samples are p [-1] [0] -1] to [p-1] [N-1], the upper left neighbor sample is p [-1] 1].
  • the encoding apparatus may derive a reference sample located in the prediction direction of the intra prediction mode based on the prediction sample (or the position of the prediction sample) among the neighboring samples.
  • the encoding apparatus may generate a predicted sample of the target sample based on the reference sample.
  • the encoding apparatus may copy a sample value of the target sample to derive a sample value of the prediction sample.
  • the encoding device may perform the linear interpolation prediction to generate a prediction sample of the current chroma block.
  • the encoding apparatus may derive a first reference sample located in a prediction direction of the intra-prediction mode and a second reference sample located in a direction opposite to the prediction direction based on a prediction sample of the current chroma block,
  • the prediction sample may be generated based on interpolation (or linear interpolation) of the first reference sample and the second reference sample.
  • the encoding apparatus may generate a residual sample based on the prediction sample.
  • the encoding device may generate a residual sample based on a comparison of the original chroma block of the original picture with the current chroma block of the current picture. In this case, the difference between the original sample and the predicted sample may be the residual sample.
  • the encoding apparatus generates transform coefficients using the residual samples of the current chroma block based on the transform information of the corresponding luma block of the current chroma block (S920).
  • the encoding device may perform the conversion of the current chroma block based on the conversion information of the corresponding luma block. If the current chroma block and the corresponding luma block have the same block division structure, the residual sample of the current chroma block is transformed based on the transform information of the corresponding luma block of the current chroma block, The transform coefficients may be generated.
  • the encoding apparatus may transform the residual samples based on DCT (Discrete Cosine Transform) type 2 to generate modified transform coefficients (or first order transform coefficients), and the modified transform coefficients (Or secondary transform coefficients) of the current chroma block by performing a non-separable secondary transform (NSST) on the transform coefficients (or the primary transform coefficients).
  • DCT Discrete Cosine Transform
  • the encoding device may perform an adaptive multiple core transform (AMT) on the residual samples to generate modified transform coefficients (or first order transform coefficients), and the modified transform (Or secondary transform coefficients) of the current chroma block by performing a non-separable secondary transform (NSST) on coefficients (or primary transform coefficients).
  • AMT adaptive multiple core transform
  • the encoding device applies an adaptive multi-core transform to the current chroma block based on the adaptive multi-core transform information of the corresponding luma block Can be performed.
  • the adaptive multi-core transform may represent a transform performed on a plurality of transform kernels for a corresponding block (e.g., the corresponding luma block or the current chroma block).
  • the encoding device may derive a plurality of transform kernels for the current chroma block based on the adaptive multi-kernel transform index of the corresponding luma block, and may generate the residual samples based on the plurality of transform kernels To generate the modified transform coefficients (or the first transform coefficients).
  • the plurality of conversion kernels may be conversion kernels indicated by the adaptive multi-core conversion index among DCT (Discrete Cosine Transform) type 2, DCT type 8, DST (discrete sine transform) type 1 and DST type 7.
  • the encoding apparatus determines whether to perform the adaptive multi-core conversion of the current chroma block based on whether the corresponding luma block performs adaptive multi-core conversion, that is, transforms the residual samples based on the plurality of conversion kernels To determine whether to generate the modified transform coefficients (or primary transform coefficients). For example, when an adaptive multi-core transformation is performed on the corresponding luma block, a plurality of transformation kernels for the current chroma block may be derived based on the adaptive multi-core transformation index of the corresponding luma block, The residual samples of the current chroma block may be transformed based on the plurality of transform kernels to generate the modified transform coefficients (or first order transform coefficients).
  • the adaptive multi-core transform is not performed on the corresponding luma block, the residual samples of the current chroma block are transformed based on the DCT type 2, and the modified transform coefficients (or the primary transform coefficients Can be generated.
  • An adaptive multi-core conversion flag of the corresponding luma block may be generated that indicates whether a residual sample of the corresponding luma block is converted based on the plurality of conversion kernels.
  • non-separable secondary transform for the transform coefficients may be performed to generate transform coefficients of the current chroma block.
  • the encoding device may perform non-separable quadratic conversion on the current chroma block based on the non-separable quadrature conversion information of the corresponding luma block. That is, the encoding device may perform a non-separable quadratic transformation on the modified transform coefficients of the current chroma block based on the non-separable quadrature transform information of the corresponding luma block to generate transform coefficients of the current chroma block .
  • the non-separable quadratic transformation is a quadratic transformation of the modified transformation coefficients (or the primary transformation coefficients) based on a non-separable transform matrix, Coefficients).
  • the non-separating conversion matrix may represent a matrix for converting the vertical and horizontal components of the primary conversion coefficients at once without separating them. That is, the non-separating conversion matrix may represent a matrix for performing vertical conversion and horizontal conversion at one time.
  • the NSST can represent a transformation method of transforming the first-order transform coefficients based on the non-segregation transform matrix without transforming the vertical and horizontal components of the first-order transform coefficients to generate transform coefficients (or secondary transform coefficients) .
  • the encoding device may derive a non-separable secondary transform (NSST) index of the corresponding luma block, and a non-separable transform matrix referred to by the non-separating secondary transformation index,
  • the transform coefficients (or the primary transform coefficients) of the current chroma block may be transformed based on the transform coefficients (or the primary transform coefficients).
  • the encoding apparatus encodes the prediction information and the transform coefficients for the current chroma block and transmits the encoded information (S930).
  • the encoding apparatus may encode the prediction information for the current chroma block and output it as a bit stream.
  • the prediction information may include information on the intra prediction mode of the current chroma block.
  • the encoding apparatus generates information on the intra prediction mode indicating the intra prediction mode, and encodes the intra prediction mode information to output the bitstream.
  • the information on the intra prediction mode may include information directly indicating the intra prediction mode for the current chroma block or may include information on an intra prediction mode derived on the basis of the intra prediction mode of the left or upper block of the current chroma block. And may include information indicating a candidate in the candidate list.
  • the prediction information may include a flag indicating whether the non-separated secondary transformation index of the corresponding luma block of the current chroma block is used. If the flag indicates that the non-isolated secondary transformation index of the corresponding luma block is used, then the non-isolated secondary transformation index of the corresponding luma block may be derived and the flag may be derived from the corresponding non- If the index is not used, the prediction information may include a non-separating quadratic conversion index of the current chroma block. The non-separating secondary transformation index of the current chroma block may point to a non-separating transformation matrix for the non-separating quadrature transformation of the current chroma block. If the value of the flag is 1, the flag may indicate that the nonseparated secondary transformation index of the corresponding luma block is used, and if the value of the flag is 0, It may indicate that the secondary conversion index is not used.
  • the prediction information may include a linear interpolation prediction flag indicating whether to perform linear interpolation prediction of the current chroma block. Wherein if the linear interpolation prediction flag indicates that linear interpolation prediction is to be performed on the current chroma block, then the linear interpolation prediction may be performed on the current chroma block and the linear interpolation prediction flag may be applied to the current chroma block, The linear interpolation prediction may not be performed on the current chroma block.
  • the linear interpolation prediction flag may indicate that linear interpolation prediction is performed on the current chroma block, and when the value of the linear interpolation prediction flag is 0, May indicate that linear interpolation prediction is not performed on the current chroma block.
  • the syntax element for the linear interpolation prediction flag may be referred to as LIP_FLAG.
  • prediction information and conversion information for the corresponding luma block of the current chroma block may be transmitted.
  • the transform information may include an adaptive multi-core transform index of the corresponding luma block.
  • the adaptive multi-core transform index may include transform kernels used in an adaptive multi-core transform of the corresponding luma block among DCT (Discrete Cosine Transform) type 2, DCT type 8, DST (discrete sine transform) type 1 and DST type 7 .
  • the conversion information may include an adaptive multi-core conversion flag of the corresponding luma block.
  • the adaptive multi-core conversion flag may indicate whether to perform the adaptive multi-core conversion of the corresponding luma block. That is, the adaptive multi-core conversion flag may indicate whether a residual sample of the corresponding luma block is converted based on the plurality of conversion kernels. If the value of the adaptive multi-core conversion flag is 1, the adaptive multi-core conversion flag may indicate that a residual sample of the corresponding luma block is converted based on the plurality of conversion kernels, If the value of the translation flag is zero, the adaptive multi-core translation flag may indicate that the residual sample of the corresponding luma block is not translated based on the plurality of translation kernels.
  • the transform information may include a non-separable secondary transform (NSST) index of the corresponding luma block.
  • NSST non-separable secondary transform
  • the non-isolated secondary transformation index of the corresponding luma block may point to a non-separating transformation matrix used for the non-separating quadratic transformation.
  • the prediction information may include a linear interpolation prediction flag indicating whether linear interpolation prediction of the corresponding luma block is performed. Wherein if the linear interpolation prediction flag indicates that linear interpolation prediction is to be performed on the corresponding luma block, then the linear interpolation prediction may be performed on the corresponding luma block and the linear interpolation prediction flag may be applied to the corresponding luma block, The linear interpolation prediction may not be performed on the corresponding luma block.
  • the linear interpolation prediction flag may indicate that linear interpolation prediction is performed on the corresponding luma block, and when the value of the linear interpolation prediction flag is 0, May indicate that linear interpolation prediction is not performed on the corresponding luma block.
  • the syntax element for the linear interpolation prediction flag may be referred to as LIP_FLAG.
  • FIG. 10 schematically shows a video decoding method by a decoding apparatus according to the present invention.
  • the method disclosed in Fig. 10 can be performed by the decoding apparatus disclosed in Fig. More specifically, for example, S1000 in FIG. 10 may be performed by an entropy decoding unit of the decoding apparatus, S1010 to S1020 may be performed by a predicting unit of the decoding apparatus, and S1030 is a prediction unit of the decoding apparatus.
  • the decoding apparatus obtains information on the intra prediction mode of the current chroma block and the transform coefficients (S1000).
  • the decoding apparatus can obtain the information on the intra prediction mode and the transform coefficients through entropy decoding.
  • the decoding apparatus can obtain prediction information on the current chroma block through a bitstream.
  • the predictive information may include information directly indicating the intra prediction mode for the current chroma block or may be an intra prediction mode candidate list generated based on the intra prediction mode of the left or upper block of the current chroma block. And may include information indicating one candidate.
  • the decoding apparatus may derive an intra prediction mode for the current chroma block based on the obtained prediction information.
  • the intra prediction mode may be one of two non-directional prediction modes and one of 33 directional prediction modes. As described above, the two non-directional prediction modes may include an intra-DC mode and an intra-planar mode. Or the intra prediction mode may be one of two non-directional intra prediction modes and 65 directional intra prediction modes.
  • the two non-directional prediction modes may include an intra-DC mode and an intra-planar mode.
  • the 65 directional intra prediction modes may include vertical direction intra prediction modes and horizontal direction intra prediction modes.
  • the vertical direction intra prediction modes may include intra prediction mode # 34 to intra prediction mode # 66
  • the horizontal direction intra prediction modes may include intra prediction mode # 2 to # 33.
  • a linear interpolation prediction flag indicating whether or not linear interpolation prediction of the current chroma block is performed may be included. Whether the linear interpolation prediction of the current chroma block is performed may be determined based on the linear interpolation prediction flag. That is, whether to perform the linear interpolation prediction of the current chroma block can be derived based on the linear interpolation prediction flag. If the linear interpolation prediction flag indicates that linear interpolation prediction is to be performed on the current chroma block, the linear interpolation prediction may be performed on the current chroma block, and the linear interpolation prediction flag may be used to perform linear interpolation prediction on the current chroma block The linear interpolation prediction may not be performed on the current chroma block.
  • the linear interpolation prediction flag may indicate that linear interpolation prediction is performed on the current chroma block, and when the value of the linear interpolation prediction flag is 0, May indicate that linear interpolation prediction is not performed on the current chroma block.
  • the syntax element for the linear interpolation prediction flag may be referred to as LIP_FLAG.
  • a flag indicating whether to use the non-separating secondary conversion index of the corresponding luma block can be obtained through the bitstream. If the flag indicates that the non-isolated secondary transformation index of the corresponding luma block is used, then the non-isolated secondary transformation index of the corresponding luma block may be derived and the flag may be derived from the corresponding non- If the index is not used, the non-partitioned secondary transformation index of the current chroma block may be obtained through the bitstream.
  • the non-separating secondary transformation index of the current chroma block may point to a non-separating transformation matrix for the non-separating quadrature transformation of the current chroma block.
  • the flag may indicate that the nonseparated secondary transformation index of the corresponding luma block is used, and if the value of the flag is 0, It may indicate that the secondary conversion index is not used. In this case, the non-separable secondary transformation index of the current chroma block may be obtained through the bitstream.
  • the decoding apparatus generates a prediction sample based on the intra prediction mode of the current chroma block (S1010).
  • the decoding device may derive surrounding samples of the current chroma block.
  • the surrounding samples may include left peripheral samples, upper left peripheral samples, and upper peripheral samples.
  • the left neighboring samples, the left upper neighbor sample, and the upper neighbor samples may be derived from neighboring blocks already reconstructed at the decoding time of the current chroma block. If the size of the current chroma block is NxN and the x component of the top-left sample of the current chroma block is 0 and the y component is 0, the left neighbor samples are p [-1] [0] -1] to [p-1] [N-1], the upper left neighbor sample is p [-1] 1].
  • the decoding apparatus may derive a reference sample located in the prediction direction of the intra prediction mode based on the prediction sample (or the position of the prediction sample) among the surrounding samples.
  • the decoding apparatus may generate a predicted sample of the target sample based on the reference sample.
  • the decoding apparatus may derive a sample value of the prediction sample by copying the sample value of the target sample.
  • the decoding apparatus may determine whether to perform linear interpolation prediction of the current chroma block. For example, whether to perform the linear interpolation prediction of the current chroma block may be determined based on the linear interpolation prediction flag of the current chroma block. If the linear interpolation prediction flag indicates that linear interpolation prediction is to be performed on the current chroma block, the linear interpolation prediction may be performed on the current chroma block, and the linear interpolation prediction flag may be used to perform linear interpolation prediction on the current chroma block The linear interpolation prediction may not be performed on the current chroma block.
  • the decoding apparatus may determine whether to perform the linear interpolation prediction of the current chroma block based on whether or not to perform the linear interpolation prediction of the corresponding luma block. In this case, when the linear interpolation prediction is performed on the corresponding luma block, it can be determined that the linear interpolation prediction is performed on the current chroma block, and when the linear interpolation prediction is not performed on the corresponding luma block, It may be determined that the linear interpolation prediction is not performed on the current chroma block.
  • a linear interpolation prediction flag of the corresponding luma block indicating whether to perform a linear interpolation prediction of the corresponding luma block can be derived, and whether or not the linear interpolation prediction of the current chroma block is performed can be determined by linear interpolation of the corresponding luma block It can be judged based on the prediction flag.
  • the linear interpolation prediction flag may indicate whether the corresponding luma block performs the linear interpolation prediction.
  • the linear interpolation prediction can be performed on the current chroma block, and when the value of the linear interpolation prediction flag of the corresponding luma block is 0, The linear interpolation prediction may not be performed on the current chroma block.
  • the corresponding luma block may represent a block of luma components corresponding to the current chroma block.
  • the corresponding luma block may be derived based on the location of the upper left sample of the chroma block. Specifically, a block of luma components having upper left samples at positions corresponding to positions of upper left samples of the chroma block may be derived to the corresponding luma block.
  • the decoding apparatus may perform the linear interpolation prediction to generate a prediction sample of the current chroma block.
  • the decoding apparatus can derive a first reference sample located in a prediction direction of the intra-prediction mode and a second reference sample located in a direction opposite to the prediction direction based on a prediction sample of the current chroma block,
  • the prediction sample may be generated based on interpolation (or linear interpolation) of the first reference sample and the second reference sample.
  • the decoding apparatus generates a residual sample using the transform coefficients of the current chroma block based on the transform information of the corresponding luma block of the current chroma block (S1020).
  • the decoding apparatus may perform inverse transformation of the current chroma block based on the conversion information of the corresponding luma block.
  • the decoding apparatus may generate the modified transform coefficients (or the first transform coefficients) of the current chroma block by inversely transforming the transform coefficients based on the non-separable quadrature transform information of the corresponding luma block And may generate the residual samples of the current chroma block by inversely transforming the modified transform coefficients (or first order transform coefficients) based on DCT (Discrete Cosine Transform) type 2.
  • DCT Discrete Cosine Transform
  • the decoding device may generate the modified transform coefficients (or the primary transform coefficients) of the current chroma block by inversely transforming the transform coefficients based on the non-isolated quadrature transform information of the corresponding luma block,
  • the residual samples of the current chroma block can be generated by performing inverse transform on the modified transform coefficients based on adaptive multiple core transform (AMT) information of a luma block. If the current chroma block and the corresponding luma block have the same block division structure, the residual sample of the current chroma block is inversely transformed based on the transform information of the corresponding luma block of the current chroma block,
  • the transform coefficients may be generated.
  • the encoding device when a non-separable secondary transform (NSST) is performed on the corresponding luma block, the encoding device performs non-separable secondary transformation on the current chroma block based on the non- A non-separable secondary inverse transform can be performed.
  • the non-separating secondary inverse transform generates the transform coefficients (or the primary transform coefficients) by inversely transforming the transform coefficients (or the secondary transform coefficients) based on a non-separable transform matrix Can be represented by the inverse transform.
  • the non-separating conversion matrix may represent a matrix for converting the vertical and horizontal components of the primary conversion coefficients at once without separating them.
  • the non-separating conversion matrix may represent a matrix for performing vertical conversion and horizontal conversion at one time.
  • the non-separable second order inverse transform is performed by transforming the transform coefficients (or the first-order transforms) by inversely transforming the transform coefficients (or the second-order transform coefficients) Coefficients). ≪ / RTI >
  • the decoding apparatus may derive a non-separable secondary transform (NSST) index of the corresponding luma block, and a non-separable matrix referred to by the non-separating secondary transformation index, (Or secondary transform coefficients) of the current chroma block based on the inverse transform coefficients (or primary transform coefficients).
  • NST non-separable secondary transform
  • Or secondary transform coefficients of the current chroma block based on the inverse transform coefficients (or primary transform coefficients).
  • a flag indicating whether to use the non-separating secondary transformation index of the corresponding luma block can be obtained through the bitstream. For example, if the flag indicates that the non-partitioned secondary transformation index of the corresponding luma block is to be used, then the non-partitioned secondary transformation index of the corresponding luma block may be derived, If the non-partitioned secondary transformation index is not used, the non-partitioned secondary transformation index of the current chroma block may be obtained through the bitstream. If the value of the flag is 1, the flag may indicate that the nonseparated secondary transformation index of the corresponding luma block is used, and if the value of the flag is 0, It may indicate that the secondary conversion index is not used.
  • the modified transform coefficients are generated, the modified transform coefficients (or primary transform coefficients) are transformed based on adaptive multiple core transform (AMT) information of the corresponding luma block, So that the residual sample of the current chroma block can be generated.
  • AMT adaptive multiple core transform
  • the decoding device may perform an adaptive multi-core inverse transform on the current chroma block based on the adaptive multi-core transform information of the corresponding luma block.
  • the adaptive multi-core inverse transform may represent an inverse transform performed based on a plurality of transform kernels for a corresponding block (e.g., the corresponding luma block or the current chroma block).
  • a decoding device may derive a plurality of transform kernels for the current chroma block based on an adaptive multi-kernel transform index of the corresponding luma block, and based on the plurality of transform kernels, (Or the primary transform coefficients) to generate the residual samples.
  • the plurality of conversion kernels may be conversion kernels indicated by the adaptive multi-core conversion index among DCT (Discrete Cosine Transform) type 2, DCT type 8, DST (discrete sine transform) type 1 and DST type 7.
  • the decoding apparatus determines whether or not the adaptive multi-core conversion of the current chroma block is performed based on whether or not the corresponding luma block performs the adaptive multi-core conversion, that is, Primary transform coefficients) to determine whether to generate the residual samples.
  • the adaptive multi-core conversion that is, Primary transform coefficients
  • a plurality of transformation kernels for the current chroma block may be derived based on the adaptive multi-core transformation index of the corresponding luma block
  • the modified transform coefficients (or first order transform coefficients) of the current chroma block may be inversely transformed based on the plurality of transform kernels to generate the residual samples.
  • the modified transform coefficients (or primary transform coefficients) of the current chroma block are inversely transformed based on the DCT type 2, A sample can be generated.
  • An adaptive multi-core transform flag of the corresponding luma block indicating whether the modified transform coefficients (or primary transform coefficients) of the corresponding luma block is inversely transformed based on the plurality of transform kernels can be derived. That is, based on the adaptive multi-core conversion flag of the corresponding luma block, it may be determined whether the current chroma block performs adaptive multi-core conversion.
  • the adaptive multi-core conversion flag may indicate whether the modified transform coefficients (or the primary transform coefficients) of the corresponding luma block are inversely transformed based on the plurality of transform kernels.
  • a decoding device may derive an adaptive multi-core conversion flag of the corresponding luma block, and based on the plurality of conversion kernels based on the adaptive multi-core conversion flag, (Or the primary transform coefficients) to determine whether to generate the residual samples.
  • the adaptive multi-core transform flag indicates that the modified transform coefficients (or primary transform coefficients) of the corresponding luma block are inversely transformed based on the plurality of transform kernels
  • the adaptive multi- A plurality of transformation kernels for the current chroma block may be derived based on a core transformation index
  • the modified transformation coefficients (or primary transformation coefficients) of the current chroma block may be derived based on the plurality of transformation kernels
  • the residual samples can be generated.
  • the adaptive multi-core transform flag indicates that the modified transform coefficients (or primary transform coefficients) of the corresponding luma block are not inversely transformed based on the plurality of transform kernels
  • the modified transform coefficients (or primary transform coefficients) of the current chroma block may be inversely transformed to generate the residual samples. That is, if the value of the adaptive multi-core transformation flag is 1, a plurality of transformation kernels for the current chroma block may be derived based on the adaptive multi-core transformation index of the corresponding luma block, The modified transform coefficients (or primary transform coefficients) of the current chroma block may be inversely transformed based on transform kernels to generate the residual samples. If the value of the adaptive multi-core transform flag is 0, the modified transform coefficients (or primary transform coefficients) of the current chroma block are inversely transformed based on the DCT type 2 to generate the residual samples .
  • the decoding apparatus generates a restoration sample based on the prediction sample and the residual sample (S 1030).
  • the decoding apparatus may generate a reconstructed sample by adding the prediction sample and the residual sample, and may generate a reconstructed picture based on the reconstructed sample.
  • the decoding apparatus can apply an in-loop filtering procedure such as deblocking filtering and / or SAO procedure to the restored picture in order to improve subjective / objective picture quality as necessary.
  • the present invention it is possible to perform the conversion of the current chroma block based on the conversion information of the corresponding luma block having the same block structure, thereby reducing the amount of bits used for the conversion of the current chroma block, The coding efficiency can be improved.
  • the linear interpolation prediction of the current chroma block can be performed based on whether or not the corresponding luma block having the same block structure is subjected to the linear interpolation prediction, and the bit amount used for predicting the current chroma block Can be reduced, and the overall coding efficiency can be improved.
  • the above-described method according to the present invention can be implemented in software, and the encoding apparatus and / or decoding apparatus according to the present invention can perform image processing of, for example, a TV, a computer, a smart phone, a set- Device.
  • the above-described method may be implemented by a module (a process, a function, and the like) that performs the above-described functions.
  • the module is stored in memory and can be executed by the processor.
  • the memory may be internal or external to the processor and may be coupled to the processor by any of a variety of well known means.
  • the processor may comprise an application-specific integrated circuit (ASIC), other chipset, logic circuitry and / or a data processing device.
  • the memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and / or other storage devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에 따른 디코딩 장치에 의하여 수행되는 영상 디코딩 방법은 현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득하는 단계, 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성하는 단계, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계, 및 상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성하는 단계를 포함하는 것을 특징으로 한다.

Description

영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
본 발명은 영상 코딩 기술에 관한 것으로서 보다 상세하게는 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 코딩 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다.
이에 따라, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술이 요구된다.
본 발명의 기술적 과제는 영상 코딩 효율을 높이는 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 크로마 블록의 변환 정보를 상기 크로마 블록과 대응하는 루마 블록의 변환 정보를 기반으로 도출하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 크로마 블록과 대응하는 루마 블록의 변환 정보를 기반으로 크로마 블록에 적응적 다중 핵심 변환 및 비분리 이차 변환을 수행하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 기술적 과제는 크로마 블록과 대응하는 루마 블록의 선형 보간 예측 수행 여부를 기반으로 크로마 블록의 선형 보간 예측을 수행하는 방법 및 장치를 제공함에 있다.
본 발명의 일 실시예에 따르면, 디코딩 장치에 의하여 수행되는 영상 디코딩 방법이 제공된다. 상기 방법은 현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득하는 단계, 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성하는 단계, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계, 및 상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 다른 일 실시예에 따르면, 영상 디코딩을 수행하는 디코딩 장치가 제공된다. 상기 디코딩 장치는 현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득하는 엔트로피 디코딩부, 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성하고, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 예측부, 및 상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성하는 복원부를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 인코딩 장치에 의하여 수행되는 비디오 인코딩 방법을 제공한다. 상기 방법은 현재 크로마 블록에 대한 인트라 예측 모드를 결정하는 단계, 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플 및 레지듀얼 샘플을 생성하는 단계, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플을 이용하여 변환 계수들을 생성하는 단계, 및 상기 현재 크로마 블록에 대한 예측 정보 및 상기 변환 계수들을 인코딩하여 전송하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 비디오 인코딩 장치를 제공한다. 상기 인코딩 장치는 현재 크로마 블록에 대한 인트라 예측 모드를 결정하고, 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플 및 레지듀얼 샘플을 생성하는 예측부, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플을 이용하여 변환 계수들을 생성하는 변환부, 및 상기 현재 크로마 블록에 대한 예측 정보 및 상기 변환 계수들을 인코딩하여 전송하는 엔트로피 인코딩부를 포함하는 것을 특징으로 한다.
본 발명에 따르면 동일한 블록 구조를 갖는 대응 루마 블록의 변환 정보를 기반으로 현재 크로마 블록의 변환을 수행할 수 있고, 이를 통하여 현재 크로마 블록의 변환을 위하여 사용되는 비트량을 줄일 수 있고, 전반적인 코딩 효율을 향상시킬 수 있다.
본 발명에 따르면 동일한 블록 구조를 갖는 대응 루마 블록의 선형 보간 예측 수행 여부를 기반으로 현재 크로마 블록의 선형 보간 예측을 수행할 수 있고, 이를 통하여 현재 크로마 블록의 예측을 위하여 사용되는 비트량을 줄일 수 있고, 전반적인 코딩 효율을 향상시킬 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2는 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3은 65개의 예측 방향의 인트라 방향성 모드들을 예시적으로 나타낸다.
도 4는 QT 구조 및 QTBT 구조로 분할된 코딩 유닛의 일 예를 나타낸다.
도 5는 픽처 내 블록의 루마 성분과 크로마 성분이 서로 다른 블록 분할 구조를 통하여 분할된 일 예를 나타낸다.
도 6은 픽처 내 블록의 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 통하여 분할된 일 예를 나타낸다.
도 7은 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 현재 크로마 블록에 적응적 다중 핵심 변환을 적용하는 일 예를 나타낸다.
도 8은 현재 인코딩하고자 하는 현재 블록에 적응적 다중 핵심 변환을 적용하는 일 예를 나타낸다.
도 9는 본 발명에 따른 인코딩 장치에 의한 비디오 인코딩 방법을 개략적으로 나타낸다.
도 10은 본 발명에 따른 디코딩 장치에 의한 비디오 디코딩 방법을 개략적으로 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정 실시예에 한정하려고 하는 것이 아니다. 본 명세서에서 상용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 도는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
본 명세서에서 픽처(picture)는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, 슬라이스(slice)는 코딩에 있어서 픽처의 일부를 구성하는 단위이다. 하나의 픽처는 복수의 슬라이스로 구성될 수 있으며, 필요에 따라서 픽처 및 슬라이스는 서로 혼용되어 사용될 수 있다.
픽셀(pixel) 또는 펠(pel)은 하나의 픽처(또는 영상)을 구성하는 최소의 단위를 의미할 수 있다. 또한, 픽셀에 대응하는 용어로서 '샘플(sample)'이 사용될 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 휘도(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 채도(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다.
유닛(unit)은 영상 처리의 기본 단위를 나타낸다. 유닛은 픽처의 특정 영역 및 해당 영역에 관련된 정보 중 적어도 하나를 포함할 수 있다. 유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 1을 참조하면, 비디오 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 레지듀얼 처리부(120), 가산부(140), 필터부(150) 및 메모리(160)을 포함할 수 있다. 레지듀얼 처리부(120)는 감산부(121), 변환부(122), 양자화부(123), 재정렬부(124), 역양자화부(125) 및 역변환부(126)를 포함할 수 있다.
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 유닛(processing unit)으로 분할할 수 있다.
일 예로, 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 이 경우 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 QTBT (Quad-tree binary-tree) 구조에 따라 재귀적으로(recursively) 분할될 수 있다. 예를 들어, 하나의 코딩 유닛은 쿼드 트리 구조 및/또는 바이너리 트리 구조를 기반으로 하위(deeper) 뎁스의 복수의 코딩 유닛들로 분할될 수 있다. 이 경우 예를 들어 쿼드 트리 구조가 먼저 적용되고 바이너리 트리 구조가 나중에 적용될 수 있다. 또는 바이너리 트리 구조가 먼저 적용될 수도 있다. 더 이상 분할되지 않는 최종 코딩 유닛을 기반으로 본 발명에 따른 코딩 절차가 수행될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 여기서 코딩 절차라 함은 후술하는 예측, 변환, 및 복원 등의 절차를 포함할 수 있다.
다른 예로, 처리 유닛은 코딩 유닛(coding unit, CU) 예측 유닛(prediction unit, PU) 또는 변환 유닛(transform unit, TU)을 포함할 수도 있다. 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 쿼드 트리 구조를 따라서 하위(deeper) 뎁스의 코딩 유닛들로 분할(split)될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 최소 코딩 유닛(smallest coding unit, SCU)이 설정된 경우 코딩 유닛은 최소 코딩 유닛보다 더 작은 코딩 유닛으로 분할될 수 없다. 여기서 최종 코딩 유닛이라 함은 예측 유닛 또는 변환 유닛으로 파티셔닝 또는 분할되는 기반이 되는 코딩 유닛을 의미한다. 예측 유닛은 코딩 유닛으로부터 파티셔닝(partitioning)되는 유닛으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록(sub block)으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 유닛일 수 있다. 이하, 코딩 유닛은 코딩 블록(coding block, CB), 예측 유닛은 예측 블록(prediction block, PB), 변환 유닛은 변환 블록(transform block, TB) 으로 불릴 수 있다. 예측 블록 또는 예측 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 예측 샘플의 어레이(array)를 포함할 수 있다. 또한, 변환 블록 또는 변환 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 변환 계수 또는 레지듀얼 샘플의 어레이를 포함할 수 있다.
예측부(110)는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(110)에서 수행되는 예측의 단위는 코딩 블록일 수 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(110)는 현재 블록에 인트라 예측이 적용되는지 인터 예측이 적용되는지를 결정할 수 있다. 일 예로, 예측부(110)는 CU 단위로 인트라 예측 또는 인터 예측이 적용되는지를 결정할 수 있다.
인트라 예측의 경우에, 예측부(110)는 현재 블록이 속하는 픽처(이하, 현재 픽처) 내의 현재 블록 외부의 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 예측부(110)는 (i) 현재 블록의 주변(neighboring) 참조 샘플들의 평균(average) 혹은 인터폴레이션(interpolation)을 기반으로 예측 샘플을 유도할 수 있고, (ii) 현재 블록의 주변 참조 샘플들 중 예측 샘플에 대하여 특정 (예측) 방향에 존재하는 참조 샘플을 기반으로 상기 예측 샘플을 유도할 수도 있다. (i)의 경우는 비방향성 모드 또는 비각도 모드, (ii)의 경우는 방향성(directional) 모드 또는 각도(angular) 모드라고 불릴 수 있다. 인트라 예측에서 예측 모드는 예를 들어 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비방향성 모드는 DC 예측 모드 및 플래너 모드(Planar 모드)를 포함할 수 있다. 예측부(110)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측의 경우에, 예측부(110)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플을 기반으로, 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(110)는 스킵(skip) 모드, 머지(merge) 모드, 및 MVP(motion vector prediction) 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 스킵 모드와 머지 모드의 경우에, 예측부(110)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차(레지듀얼)가 전송되지 않는다. MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(Motion Vector Predictor)로 이용하여 현재 블록의 움직임 벡터 예측자로 이용하여 현재 블록의 움직임 벡터를 유도할 수 있다.
인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처(reference picture)에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)라고 불릴 수도 있다. 움직임 정보(motion information)는 움직임 벡터와 참조 픽처 인덱스를 포함할 수 있다. 예측 모드 정보와 움직임 정보 등의 정보는 (엔트로피) 인코딩되어 비트스트림 형태로 출력될 수 있다.
스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트(reference picture list) 상의 최상위 픽처가 참조 픽처로서 이용될 수도 있다. 참조 픽처 리스트(Picture Order Count)에 포함되는 참조 픽처들은 현재 픽처와 해당 참조 픽처 간의 POC(Picture order count) 차이 기반으로 정렬될 수 있다. POC는 픽처의 디스플레이 순서에 대응하며, 코딩 순서와 구분될 수 있다.
감산부(121)는 원본 샘플과 예측 샘플 간의 차이인 레지듀얼 샘플을 생성한다. 스킵 모드가 적용되는 경우에는, 상술한 바와 같이 레지듀얼 샘플을 생성하지 않을 수 있다.
변환부(122)는 변환 블록 단위로 레지듀얼 샘플을 변환하여 변환 계수(transform coefficient)를 생성한다. 변환부(122)는 해당 변환 블록의 사이즈와, 해당 변환 블록과 공간적으로 겹치는 코딩 블록 또는 예측 블록에 적용된 예측 모드에 따라서 변환을 수행할 수 있다. 예컨대, 상기 변환 블록과 겹치는 상기 코딩 블록 또는 상기 예측 블록에 인트라 예측이 적용되었고, 상기 변환 블록이 4×4의 레지듀얼 어레이(array)라면, 레지듀얼 샘플은 DST(Discrete Sine Transform) 변환 커널을 이용하여 변환되고, 그 외의 경우라면 레지듀얼 샘플은 DCT(Discrete Cosine Transform) 변환 커널을 이용하여 변환할 수 있다.
양자화부(123)는 변환 계수들을 양자화하여, 양자화된 변환 계수를 생성할 수 있다.
재정렬부(124)는 양자화된 변환 계수를 재정렬한다. 재정렬부(124)는 계수들 스캐닝(scanning) 방법을 통해 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있다. 여기서 재정렬부(124)는 별도의 구성으로 설명하였으나, 재정렬부(124)는 양자화부(123)의 일부일 수 있다.
엔트로피 인코딩부(130)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩은 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 인코딩 방법을 포함할 수 있다. 엔트로피 인코딩부(130)는 양자화된 변환 계수 외 비디오 복원에 필요한 정보들(예컨대 신택스 요소(syntax element)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 엔트로피 인코딩된 정보들은 비트스트림 형태로 NAL(network abstraction layer) 유닛 단위로 전송 또는 저장될 수 있다.
역양자화부(125)는 양자화부(123)에서 양자화된 값(양자화된 변환 계수)들을 역양자화하고, 역변환부(126)는 역양자화부(125)에서 역양자화된 값들을 역변환하여 레지듀얼 샘플을 생성한다.
가산부(140)는 레지듀얼 샘플과 예측 샘플을 합쳐서 픽처를 복원한다. 레지듀얼 샘플과 예측 샘플은 블록 단위로 더해져서 복원 블록이 생성될 수 있다. 여기서 가산부(140)는 별도의 구성으로 설명하였으나, 가산부(140)는 예측부(110)의 일부일 수 있다. 한편, 가산부(140)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
복원된 픽처(reconstructed picture)에 대하여 필터부(150)는 디블록킹 필터 및/또는 샘플 적응적 오프셋(sample adaptive offset)을 적용할 수 있다. 디블록킹 필터링 및/또는 샘플 적응적 오프셋을 통해, 복원 픽처 내 블록 경계의 아티팩트나 양자화 과정에서의 왜곡이 보정될 수 있다. 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링의 과정이 완료된 후 적용될 수 있다. 필터부(150)는 ALF(Adaptive Loop Filter)를 복원된 픽처에 적용할 수도 있다. ALF는 디블록킹 필터 및/또는 샘플 적응적 오프셋이 적용된 후의 복원된 픽처에 대하여 적용될 수 있다.
메모리(160)는 복원 픽처(디코딩된 픽처) 또는 인코딩/디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(150)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 상기 저장된 복원 픽처는 다른 픽처의 (인터) 예측을 위한 참조 픽처로 활용될 수 있다. 예컨대, 메모리(160)는 인터 예측에 사용되는 (참조) 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트(reference picture set) 혹은 참조 픽처 리스트(reference picture list)에 의해 지정될 수 있다.
도 2는 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2를 참조하면, 비디오 디코딩 장치(200)는 엔트로피 디코딩부(210), 레지듀얼 처리부(220), 예측부(230), 가산부(240), 필터부(250) 및 메모리(260)을 포함할 수 있다. 여기서 레지듀얼 처리부(220)는 재정렬부(221), 역양자화부(222), 역변환부(223)을 포함할 수 있다.
비디오 정보를 포함하는 비트스트림이 입력되면, 비디오 디코딩 장치(200)는 비디오 인코딩 장치에서 비디오 정보가 처리된 프로세스에 대응하여 비디오를 복원할 수 있다.
예컨대, 비디오 디코딩 장치(200)는 비디오 인코딩 장치에서 적용된 처리 유닛을 이용하여 비디오 디코딩을 수행할 수 있다. 따라서 비디오 디코딩의 처리 유닛 블록은 일 예로 코딩 유닛일 수 있고, 다른 예로 코딩 유닛, 예측 유닛 또는 변환 유닛일 수 있다. 코딩 유닛은 최대 코딩 유닛으로부터 쿼드 트리 구조 및/또는 바이너리 트리 구조를 따라서 분할될 수 있다.
예측 유닛 및 변환 유닛이 경우에 따라 더 사용될 수 있으며, 이 경우 예측 블록은 코딩 유닛으로부터 도출 또는 파티셔닝되는 블록으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 또는 변환 계수로부터 레지듀얼 신호를 유도하는 유닛일 수 있다.
엔트로피 디코딩부(210)는 비트스트림을 파싱하여 비디오 복원 또는 픽처 복원에 필요한 정보를 출력할 수 있다. 예컨대, 엔트로피 디코딩부(210)는 지수 골롬 부호화, CAVLC 또는 CABAC 등의 코딩 방법을 기초로 비트스트림 내 정보를 디코딩하고, 비디오 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값 들을 출력할 수 있다.
보다 상세하게, CABAC 엔트로피 디코딩 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 디코딩 대상 구문 요소 정보와 주변 및 디코딩 대상 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 문맥(context) 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)를 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 디코딩 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 디코딩된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다.
엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측에 관한 정보는 예측부(230)로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(221)로 입력될 수 있다.
재정렬부(221)는 양자화되어 있는 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 재정렬부(221)는 인코딩 장치에서 수행된 계수 스캐닝에 대응하여 재정렬을 수행할 수 있다. 여기서 재정렬부(221)는 별도의 구성으로 설명하였으나, 재정렬부(221)는 역양자화부(222)의 일부일 수 있다.
역양자화부(222)는 양자화되어 있는 변환 계수들을 (역)양자화 파라미터를 기반으로 역양자화하여 변환 계수를 출력할 수 있다. 이 때, 양자화 파라미터를 유도하기 위한 정보는 인코딩 장치로부터 시그널링될 수 있다.
역변환부(223)는 변환 계수들을 역변환하여 레지듀얼 샘플들을 유도할 수 있다.
예측부(230)는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(230)에서 수행되는 예측의 단위는 코딩 블록일 수도 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(230)는 상기 예측에 관한 정보를 기반으로 인트라 예측을 적용할 것인지 인터 예측을 적용할 것인지를 결정할 수 있다. 이 때, 인트라 예측과 인터 예측 중 어느 것을 적용할 것인지를 결정하는 단위와 예측 샘플을 생성하는 단위는 상이할 수 있다. 아울러, 인터 예측과 인트라 예측에 있어서 예측 샘플을 생성하는 단위 또한 상이할 수 있다. 예를 들어, 인터 예측과 인트라 예측 중 어느 것을 적용할 것인지는 CU 단위로 결정할 수 있다. 또한 예를 들어, 인터 예측에 있어서 PU 단위로 예측 모드를 결정하고 예측 샘플을 생성할 수 있고, 인트라 예측에 있어서 PU 단위로 예측 모드를 결정하고 TU 단위로 예측 샘플을 생성할 수도 있다.
인트라 예측의 경우에, 예측부(230)는 현재 픽처 내의 주변 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(230)는 현재 블록의 주변 참조 샘플을 기반으로 방향성 모드 또는 비방향성 모드를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 주변 블록의 인트라 예측 모드를 이용하여 현재 블록에 적용할 예측 모드가 결정될 수도 있다.
인터 예측의 경우에, 예측부(230)는 참조 픽처 상에서 움직임 벡터에 의해 참조 픽처 상에서 특정되는 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(230)는 스킵(skip) 모드, 머지(merge) 모드 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이때, 비디오 인코딩 장치에서 제공된 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 상기 예측에 관한 정보를 기반으로 획득 또는 유도될 수 있다
스킵 모드와 머지 모드의 경우에, 주변 블록의 움직임 정보가 현재 블록의 움직임 정보로 이용될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
예측부(230)는 가용한 주변 블록의 움직임 정보로 머지 후보 리스트를 구성하고, 머지 인덱스가 머지 후보 리스트 상에서 지시하는 정보를 현재 블록의 움직임 벡터로 사용할 수 있다. 머지 인덱스는 인코딩 장치로부터 시그널링될 수 있다. 움직임 정보는 움직임 벡터와 참조 픽처를 포함할 수 있다. 스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트 상의 최상위 픽처가 참조 픽처로서 이용될 수 있다.
스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차이(레지듀얼)이 전송되지 않는다.
MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor)로 이용하여 현재 블록의 움직임 벡터가 유도될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
일 예로, 머지 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 머지 후보 리스트가 생성될 수 있다. 머지 모드에서는 머지 후보 리스트에서 선택된 후보 블록의 움직임 벡터가 현재 블록의 움직임 벡터로 사용된다. 상기 예측에 관한 정보는 상기 머지 후보 리스트에 포함된 후보 블록들 중에서 선택된 최적의 움직임 벡터를 갖는 후보 블록을 지시하는 머지 인덱스를 포함할 수 있다. 이 때, 예측부(230)는 상기 머지 인덱스를 이용하여, 현재 블록의 움직임 벡터를 도출할 수 있다.
다른 예로, MVP(Motion Vector Prediction) 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 움직임 벡터 예측자 후보 리스트가 생성될 수 있다. 즉, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터는 움직임 벡터 후보로 사용될 수 있다. 상기 예측에 관한 정보는 상기 리스트에 포함된 움직임 벡터 후보 중에서 선택된 최적의 움직임 벡터를 지시하는 예측 움직임 벡터 인덱스를 포함할 수 있다. 이 때, 예측부(230)는 상기 움직임 벡터 인덱스를 이용하여, 움직임 벡터 후보 리스트에 포함된 움직임 벡터 후보 중에서, 현재 블록의 예측 움직임 벡터를 선택할 수 있다. 인코딩 장치의 예측부는 현재 블록의 움직임 벡터와 움직임 벡터 예측자 간의 움직임 벡터 차분(MVD)을 구할 수 있고, 이를 인코딩하여 비트스트림 형태로 출력할 수 있다. 즉, MVD는 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 뺀 값으로 구해질 수 있다. 이 때, 예측부(230)는 상기 예측에 관한 정보에 포함된 움직임 벡터 차분을 획득하고, 상기 움직임 벡터 차분과 상기 움직임 벡터 예측자의 가산을 통해 현재 블록의 상기 움직임 벡터를 도출할 수 있다. 예측부는 또한 참조 픽처를 지시하는 참조 픽처 인덱스 등을 상기 예측에 관한 정보로부터 획득 또는 유도할 수 있다.
가산부(240)는 레지듀얼 샘플과 예측 샘플을 더하여 현재 블록 혹은 현재 픽처를 복원할 수 있다. 가산부(240)는 레지듀얼 샘플과 예측 샘플을 블록 단위로 더하여 현재 픽처를 복원할 수도 있다. 스킵 모드가 적용된 경우에는 레지듀얼이 전송되지 않으므로, 예측 샘플이 복원 샘플이 될 수 있다. 여기서는 가산부(240)를 별도의 구성으로 설명하였으나, 가산부(240)는 예측부(230)의 일부일 수도 있다. 한편, 가산부(240)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
필터부(250)는 복원된 픽처에 디블록킹 필터링 샘플 적응적 오프셋, 및/또는 ALF 등을 적용할 수 있다. 이 때, 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링 이후 적용될 수도 있다. ALF는 디블록킹 필터링 및/또는 샘플 적응적 오프셋 이후 적용될 수도 있다.
메모리(260)는 복원 픽처(디코딩된 픽처) 또는 디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(250)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 예컨대, 메모리(260)는 인터 예측에 사용되는 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트 혹은 참조 픽처 리스트에 의해 지정될 수도 있다. 복원된 픽처는 다른 픽처에 대한 참조 픽처로서 이용될 수 있다. 또한, 메모리(260)는 복원된 픽처를 출력 순서에 따라서 출력할 수도 있다.
한편, 인트라 예측 모드는 2개의 비방향성 인트라 예측 모드들과 33개의 방향성 인트라 예측 모드들을 포함할 수 있다. 상기 비방향성 인트라 예측 모드들은 플래너(planar) 인트라 예측 모드 및 DC 인트라 예측 모드를 포함할 수 있고, 상기 방향성 인트라 예측 모드들은 2번 내지 34번 인트라 예측 모드들을 포함할 수 있다. 상기 플래너 인트라 예측 모드는 플래너 모드라고 불릴 수 있고, 상기 DC 인트라 예측 모드는 DC 모드라고 불릴 수 있다. 또한, 10번 인트라 예측 모드는 수평 인트라 예측 모드(horizontal intra prediction mode) 또는 수평 모드, 26번 인트라 예측 모드는 수직 인트라 예측 모드(vertical intra prediction mode) 또는 수직 모드를 나타내며 이를 기준으로 방향성 인트라 모드(angular intra mode)의 예측 방향을 각도로 표현할 수 있다. 다시 말하자면, 10번 인트라 예측 모드에 대응하는 수평기준각도 0˚를 기준으로 하여 각 인트라 예측 모드에 대응하는 상대적 각도를 표현할 수 있고, 26번 인트라 예측 모드에 대응하는 수직기준각도 0˚를 기준으로 하여 각 인트라 예측 모드에 대응하는 상대적 각도를 표현할 수 있다.
또한, 고화질의 비디오에 대한 수요가 늘어나고 있고, 이에 따른 비디오 코덱의 효율을 높이기 위해 방향성 인트라 예측 방향의 수가 65개로 증가할 수 있다. 즉, 인트라 예측 모드는 2개의 비방향성 인트라 예측 모드들과 65개의 방향성 인트라 예측 모드들을 포함할 수 있다. 상기 비방향성 인트라 예측 모드들은 플래너(planar) 인트라 예측 모드 및 DC 인트라 예측 모드를 포함할 수 있고, 상기 방향성 인트라 예측 모드들은 2번 내지 66번 인트라 예측 모드들을 포함할 수 있다.
도 3은 65개의 예측 방향의 인트라 방향성 모드들을 예시적으로 나타낸다.
도 3을 참조하면, 좌상 대각 예측 방향을 갖는 34번 인트라 예측 모드를 중심으로 수평 방향성(horizontal directionality)을 갖는 인트라 예측 모드와 수직 방향성(vertical directionality)을 갖는 인트라 예측 모드를 구분할 수 있다. 도 3의 H와 V는 각각 수평 방향성과 수직 방향성을 의미하며, -32 ~ 32의 숫자는 샘플 그리드 포지션(sample grid position) 상에서 1/32 단위의 변위를 나타낸다. 2번 내지 33번 인트라 예측 모드는 수평 방향성, 34번 내지 66번 인트라 예측 모드는 수직 방향성을 갖는다. 18번 인트라 예측 모드와 50번 인트라 예측 모드는 각각 수평 인트라 예측 모드(horizontal intra prediction mode), 수직 인트라 예측 모드(vertical intra prediction mode)를 나타내며 이를 기준으로 방향성 인트라 예측 모드(angular intra prediction mode)의 예측 방향을 각도로 표현할 수 있다. 다시 말하자면, 18번 인트라 예측 모드에 대응하는 수평기준각도 0˚를 기준으로 하여 각 인트라 예측 모드에 대응하는 상대적 각도를 표현할 수 있고, 50번 인트라 예측 모드에 대응하는 수직기준각도 0˚를 기준으로 하여 각 인트라 예측 모드에 대응하는 상대적 각도를 표현할 수 있다.
상술한 내용과 같이 인트라 예측이 수행되는 경우, 하나의 코딩 유닛은 정방형 형태(square shape)의 예측 블록으로 분할될 수 있고, 상기 예측 블록에 대한 인트라 예측이 수행될 수 있다. 또는 코딩 효율을 향상시키기 위하여 상기 하나의 코딩 유닛은 비정방형 형태(non-square shape)의 예측 블록으로 분할될 수도 있다. 상기 하나의 코딩 유닛이 정방형 형태(square shape)의 예측 블록으로 분할되는 구조는 쿼드 트리(quad tree, QT) 구조라고 나타낼 수 있으며, 상기 비정방형 형태(non-square shape)의 예측 블록으로 분할되는 구조는 쿼드 트리 바이너리 트리(quard tree binary tree, QTBT) 구조라고 나타낼 수 있다.
도 4는 QT 구조 및 QTBT 구조로 분할된 코딩 유닛의 일 예를 나타낸다. 도 4의 (a)는 상기 QT 구조에 따라 정방형 형태(square shape)의 예측 블록으로 분할된 코딩 블록을 나타낼 수 있다. 또한, 도 4의 (a)는 상기 QTBT 구조에 따라 비정방형 형태(non-square shape)의 예측 블록으로 분할된 코딩 블록을 나타낼 수 있다. 상기 QTBT 구조는 상기 QT 구조를 기반으로 코딩 블록을 분할하고, 상기 코딩 블록을 분할 플래그 정보(split flag syntax)를 기반으로 바이너리 트리(binary tree, BT) 구조로 추가적으로 분할하는 구조를 나타낼 수 있다. 다시 말해, 상기 QTBT 구조는 상기 QT 구조에 BT 구조가 결합된 형태로 구성된 분할 구조를 나타낼 수 있고, 상기 코딩 블록은 상기 QT 구조를 통하여 분할될 수 있고, 상기 QT 구조의 리프 노드(leaf node)는 추가적으로 BT 구조를 통하여 분할될 수 있다. 도 4의 (b)의 실선으로 구분된 블록은 QT 구조를 통하여 분할된 정방형 블록을 나타낼 수 있고, 점선으로 구분된 블록은 QT 구조에 추가적인 BT 구조를 통하여 분할된 비정방형 블록을 나타낼 수 있다.
한편, 기존의 방법에서는 정방형 형태 또는 비정방형 형태의 예측 유닛(prediction unit, PU) 단위로 인트라 예측이 수행되고, 정방형 형태의 변환 유닛(transform unit, TU) 단위로 변환이 수행되었으나, 본 발명에 따르면 상기 PU 및 상기 TU의 구분 없이 하나의 처리 유닛을 기반으로 상기 예측 및 변환을 포함한 코딩 과정이 수행될 수 있다. 상기 처리 유닛은 코딩 유닛(coding unit, CU)으로 나타낼 수 있다. 예를 들어, 상기 CU는 QTBT 구조를 통하여 정방형 블록 및 비정방형 형태의 CU들로 분할될 수 있고, 상기 CU들 각각에 대한 인트라 예측 및 변환(transform) 과정이 수행될 수 있다. 구체적으로, 상기 CU는 상기 QT 구조를 통하여 분할될 수 있고, 상기 QT 구조의 리프 노드(leaf node)는 추가적으로 BT 구조를 통하여 분할될 수 있다. 여기서, 상기 리프 노드는 상기 QT 구조에서 더 이상 분할되지 않는 CU를 나타낼 수 있고, 상기 리프 노드는 말단 노드라고 불릴 수도 있다.
한편, 입력 영상의 픽처가 상술한 QTBT 구조를 통하여 분할되는 경우, 예측 정확도를 향상시켜 코딩 효율을 높이기 위하여 상기 픽처의 루마(luma) 성분과 크로마(chroma) 성분은 서로 다른 블록 분할 구조를 가질 수 있다.
도 5는 픽처 내 블록의 루마 성분과 크로마 성분이 서로 다른 블록 분할 구조를 통하여 분할된 일 예를 나타낸다. 도 5를 참조하면 상기 입력 영상은 루마 성분, 크로마 Cb 성분, 및 크로마 Cr 성분을 포함할 수 있다. 도 5에 도시된 것과 같이 상기 루마 성분, 크로마 Cb 성분, 및 크로마 Cr 성분은 서로 다른 블록 분할 구조를 통하여 분할될 수 있고, 이에 상기 루마 성분의 블록 A와 상기 블록 A와 대응하는 크로마 Cb 성분의 블록 B 및 크로마 Cr 성분의 블록 C는 서로 다른 블록 형태를 가질 수 있는바, 상기 블록 A, 상기 블록 B 및 상기 블록 C는 서로 다른 인트라 예측 모드가 적용될 수 있다. 여기서, 블록과 대응하는 블록은 상기 블록의 좌상단 위치를 기반으로 도출될 수 있다. 상기 블록 A, 상기 블록 B 및 상기 블록 C가 서로 다른 블록 형태를 갖고 서로 다른 인트라 예측 모드가 적용되는 경우, 후술하는 바와 같은 다양한 문제들이 발생될 수 있다.
첫째로, 루마 성분과 크로마 성분의 블록 분할 구조가 다른 경우, 적응적 다중 핵심 변환(adaptive multiple core transform, AMT)을 수행하기 위해서는 루마 성분과 크로마 성분에 대한 별도의 변환 인덱스가 생성되어 많은 비트량이 필요할 수 있고, 이에 크로마 성분에 대해서는 적응적 다중 핵심 변환을 적용하지 않고 루마 성분에만 적응적 다중 핵심 변환을 기반으로 변환이 수행될 수 있다. 여기서, 적응적 다중 핵심 변환은 DCT(discrete Cosine Transform) 타입 2과 DST(discrete Sine Transform) 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 추가적으로 사용하여 변환하는 방식을 나타낼 수 있다. 즉, 상기 AMT는 상기 DCT 타입 2, 상기 DST 타입 7, 상기 DCT 타입 8 및 상기 DST 타입 1 중 선택된 복수의 변환 커널들을 기반으로 공간 도메인의 레지듀얼 신호(또는 레지듀얼 블록)를 주파수 도메인의 수정된(modified) 변환 계수들(또는 1차 변환 계수들)로 변환하는 변환 방법을 나타낼 수 있다. 상기 적응적 다중 핵심 변환이 수행되는 경우, 상기 변환 커널들 중 대상 블록에 대한 수직 변환 커널 및 수평 변환 커널이 선택될 수 있고, 상기 수직 변환 커널을 기반으로 상기 대상 블록에 대한 수직 변환 및 상기 수평 변환 커널을 기반으로 상기 대상 블록에 대한 수평 변환이 수행될 수 있다. 여기서, 상기 수평 변환은 상기 대상 블록의 수평 성분들에 대한 변환을 나타낼 수 있고, 상기 수직 변환은 상기 대상 블록의 수직 성분들에 대한 변환을 나타낼 수 있다.
구체적으로, 기존의 변환 방법이 적용되는 경우, DCT 타입 2를 기반으로 레지듀얼 신호(또는 레지듀얼 블록)에 대한 공간 도메인에서 주파수 도메인으로의 변환이 적용되어 수정된 변환 계수들(또는 1차 변환 계수들)이 생성될 수 있다. 이와 달리, 상기 적응적 다중 핵심 변환이 적용되는 경우, DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1 등을 기반으로 레지듀얼 신호(또는 레지듀얼 블록)에 대한 공간 도메인에서 주파수 도메인으로의 변환이 적용되어 수정된 변환 계수들(또는 1차 변환 계수들)이 생성될 수 있다. 상기 변환 인덱스는 변환이 수행되는 블록의 변환 타입(type)을 가리킬 수 있다. 여기서, DCT 타입 2, DST 타입 7, DCT 타입 8, 및 DST 타입 1 등은 변환 타입, 변환 커널(kernel) 또는 변환 코어(core)라고 불릴 수 있다.
따라서, 루마 성분과 크로마 성분의 블록 분할 구조가 다른 경우, 루마 성분의 블록과 상기 루마 성분의 블록에 대응하는 크로마 성분의 블록에 대한 변환 타입들이 다를 수 있고, 따라서, 상기 루마 성분의 블록과 상기 크로마 성분의 블록에 대한 별도의 변환 인덱스가 생성되어 많은 비트량이 필요할 수 있으므로, 상기 크로마 성분의 블록에 대해서는 적응적 다중 핵심 변환을 적용하지 않고 상기 루마 성분의 블록에만 적응적 다중 핵심 변환을 기반으로 변환이 수행될 수 있다.
둘째로, 루마 성분과 크로마 성분의 블록 분할 구조가 다른 경우, 루마 성분과 크로마 성분에 대하여 비분리 이차 변환(non-separable secondary transform, NSST)을 기반으로 변환을 수행하기 위해서는 루마 성분과 크로마 성분에 대한 별도의 비분리 이차 변환 인덱스(non-separable secondary transform index)가 생성되어 오버비트(overbit)가 발생될 수 있다. 즉, 루마 성분과 크로마 성분이 서로 다른 블록 분할 구조를 가지는 경우, 상기 루마 성분 및 상기 크로마 성분 각각에 대하여 각각의 레지듀얼 신호(또는 레지듀얼 블록)은 서로 다른 특성을 가질 수 있고, 이로 인하여 상기 휘도 성분과 상기 색차 성분에 서로 다른 NSST 커널을 기반으로 변환이 수행될 수 있다. 따라서, 상기 휘도 성분 및 상기 색차 성분 각각의 NSST 커널을 가리키는 이차 변환 인덱스가 생성될 수 있고, 이로 인하여 오버 비트가 발생될 수 있다. 여기서, NSST는 상기 DCT 타입 2 또는 AMT 를 통하여 도출된 1차 변환 계수들을 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 2차 변환하여 상기 레지듀얼 신호에 대한 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환을 나타낼 수 있다. 여기서, 상기 비분리 변환 매트릭스는 상기 1차 변환 계수들의 수직 성분 및 수평 성분을 분리하지 않고 한번에 변환하는 매트릭스를 나타낼 수 있다. 즉, 상기 비분리 변환 매트릭스는 수직 변환 및 수평 변환을 한번에 수행하는 매트릭스를 나타낼 수 있다. 다시 말해, 상기 NSST는 비분리 변환 매트릭스를 기반으로 상기 1차 변환 계수들의 수직 성분 및 수평 성분 분리하지 않고 같이 변환하여 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환 방법을 나타낼 수 있다. 한편, 상기 비분리 변환 매트릭스의 사이즈는 변환이 수행되는 대상 블록의 사이즈에 따라서 달라질 있다. 예를 들어, 상기 대상 블록의 폭(width) 또는 높이(height)가 8 이상인 경우, 8x8 사이즈의 비분리 변환 매트릭스가 도출될 수 있고, 상기 대상 블록의 폭(width) 또는 높이(height)가 4 인 경우, 4x4 사이즈의 비분리 변환 매트릭스가 도출될 수 있다.
셋째로, 루마 성분과 크로마 성분의 블록 분할 구조가 다른 경우, 선형 보간 인트라 예측(linear interpolation intra prediction)이 상기 루마 성분과 상기 크로마 성분 중 어느 성분에 대하여 적용되는지 또는 모든 성분에 적용되는지 여부가 결정되어야 하는 문제가 발생될 수 있다. 즉, 상기 루마 성분 및 상기 크로마 성분의 블록 분할 구조가 다른 경우, 상기 루마 성분 및 상기 크로마 성분은 서로 블록 형태 등이 달라 상기 루마 성분 및 상기 크로마 성분에 대하여 상기 선형 보간 인트라 예측 적용 여부가 결정되어야 한다. 여기서, 상기 선형 보간 인트라 예측은 인트라 예측이 수행되는 현재 블록의 좌측 주변 샘플들 및 상측 주변 샘플들을 포함하는 주변 샘플들 중 상기 현재 블록의 예측 샘플(또는 예측 샘플의 위치)을 기준으로 상기 현재 블록의 인트라 예측 모드의 예측 방향에 위치하는 제1 참조 샘플과, 상기 현재 블록의 인트라 예측 모드의 예측 방향의 반대 방향에 위치하는 제2 참조 샘플과의 보간을 통하여 상기 예측 샘플을 생성하는 인트라 예측을 나타낼 수 있다. 또한, 상기 선형 보간 인트라 예측은 선형 보간 예측(linear interpolation prediction)이라고 불릴 수도 있다.
상술한 내용과 같이 상기 루마 성분과 상기 크로마 성분의 블록 분할 구조가 다른 경우, 다양한 문제가 발생할 수 있는바, 본 발명에서는 루마 성분과 크로마 성분의 블록 분할 구조가 동일한 경우에 상술한 문제들을 해결하는 방안을 제안한다.
도 6은 픽처 내 블록의 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 통하여 분할된 일 예를 나타낸다. 도 6을 참조하면 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 가질 수 있고, 이를 통하여 상기 루마 성분과 크로마 성분의 특성은 매우 유사할 수 있다. 즉, 상기 루마 성분의 블록과 상기 루마 성분의 블록과 대응하는 크로마 성분의 블록은 동일한 형태를 가질 수 있고, 이에 상기 루마 성분의 블록과 상기 크로마 성분의 블록은 유사한 특성을 가질 수 있다. 이에, 본 발명에서는 기존 방법에서 루마 성분에만 적용된 적응적 다중 핵심 변환(adaptive multiple core transform, AMT)을 크로마 성분에 적용하는 방법을 제안한다.
예를 들어, 현재 크로마 블록에 대응하는 루마 블록의 적응적 다중 핵심 변환 인덱스가 도출될 수 있고, 상기 루마 블록의 상기 적응적 다중 핵심 변환 인덱스가 상기 현재 크로마 블록의 AMT에 사용될 수 있다.
도 7은 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 현재 크로마 블록에 적응적 다중 핵심 변환을 적용하는 일 예를 나타낸다. 도 7을 참조하면 현재 인코딩/디코딩하고자 하는 크로마 블록에 대응하는 루마 블록이 도출될 수 있고, 이후에 상기 루마 블록에 적응적 다중 핵심 변환이 사용되는 경우, 상기 루마 블록의 적응적 다중 핵심 변환 인덱스가 유도되어 상기 크로마 블록에 적용될 수 있다. 한편, 상기 루마 블록에 적응적 다중 핵심 변환이 사용되지 않는 경우, 기존의 DCT 타입 2를 기반으로 수행되는 변환이 상기 크로마 블록에 적용될 수 있다.
구체적으로, 도 7을 참조하면 크로마 블록 Ccb(720) 또는 크로마 블록 Ccr(730)이 인코딩/디코딩되는 경우, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 인코딩/디코딩 시점에 이미 인코딩/디코딩된 대응 루마 블록 Y(710)가 도출될 수 있다. 예를 들어, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 좌상단 샘플의 위치를 기반으로 상기 대응 루마 블록 Y(710)가 도출될 수 있는바, 구체적으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 좌상단 샘플의 위치와 대응하는 위치의 좌상단 샘플을 갖는 루마 성분의 블록이 상기 대응 루마 블록 Y(710)으로 도출될 수 있다.
상기 대응 루마 블록 Y(710)이 도출된 경우, 상기 대응 루마 블록 Y(710)의 적응적 다중 핵심 변환 플래그를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 적응적 다중 핵심 변환 적용 여부가 결정될 수 있다. 여기서, 상기 적응적 다중 핵심 변환 플래그는 해당 블록의 적응적 다중 핵심 변환 적용 여부를 나타낼 수 있다. 예를 들어, 상기 대응 루마 블록 Y(710)의 상기 적응적 다중 핵심 변환 플래그의 값이 1인 경우, 상기 대응 루마 블록 Y(710)에 적응적 다중 핵심 변환이 적용될 수 있고, 상기 대응 루마 블록 Y(710)의 상기 적응적 다중 핵심 변환 플래그의 값이 0인 경우, 상기 대응 루마 블록 Y(710)에 적응적 다중 핵심 변환이 적용되지 않을 수 있다.
따라서, 상기 대응 루마 블록 Y(710)의 상기 적응적 다중 핵심 변환 플래그의 값이 1인 경우, 상기 대응 루마 블록 Y(710)에 상기 적응적 다중 핵심 변환이 사용되었으므로 상기 대응 루마 블록 Y(710)에 사용된 적응적 다중 핵심 변환 인덱스가 유도되어 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 변환에 사용될 수 있다. 여기서, 상기 대응 루마 블록 Y(710)에 사용된 상기 적응적 다중 핵심 변환 인덱스의 신텍스 요소는 YAMTIdx 로 나타낼 수 있다. 한편, 대응 루마 블록 Y(710)의 상기 적응적 다중 핵심 변환 플래그의 값이 0인 경우, 상기 대응 루마 블록 Y(710)에 상기 적응적 다중 핵심 변환이 사용되지 않았으므로 기존의 기본 변환 커널인 DCT 타입 2를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 변환이 수행될 수 있다.
도 8은 현재 인코딩하고자 하는 현재 블록에 적응적 다중 핵심 변환을 적용하는 일 예를 나타낸다. 도 8을 참조하면 상기 현재 블록이 루마 블록인지 여부가 판단될 수 있다(S800). 상기 현재 블록이 루마 블록인 경우, 상기 현재 블록에 대한 적응적 다중 핵심 변환 플래그(adaptive multiple core transform flag, AMT flag)를 기반으로 상기 현재 블록의 적응적 다중 핵심 변환 적용 여부가 판단될 수 있다. 따라서, 상기 현재 블록이 루마 블록인 경우, 상기 현재 블록의 AMT 플래그의 값이 1인지 판단될 수 있다(S810). 상기 현재 블록의 AMT 플래그의 값이 1인 경우, 상기 현재 블록의 적응적 다중 핵심 변환 인덱스(adaptive multiple core transform index, AMT index)가 파싱될 수 있고, 상기 AMT 인덱스를 기반으로 상기 현재 블록에 대한 적응적 다중 핵심 변환이 수행될 수 있다(S820). 또한, 상기 현재 블록의 AMT 플래그의 값이 1이 아닌 경우, DCT 타입 2를 기반으로 상기 현재 블록의 변환이 수행될 수 있다(S830).
한편, 상기 현재 블록은 루마 블록이 아닌 크로마 블록일 수도 있다. 즉, 상기 현재 블록이 루마 블록이 아닌 경우, 상기 현재 블록에 대응하는 대응 루마 블록의 적응적 다중 핵심 변환 적용 여부가 판단될 수 있다(S840). 상기 대응 루마 블록의 적응적 다중 핵심 변환 적용 여부는 상기 대응 루마 블록의 AMT 플래그를 기반으로 판단될 수 있다. 예를 들어, 상기 대응 루마 블록의 상기 AMT 플래그의 값이 1인 경우, 상기 대응 루마 블록은 적응적 다중 핵심 변환이 적용될 수 있고, 상기 대응 루마 블록의 상기 AMT 플래그의 값이 0인 경우, 상기 대응 루마 블록은 적응적 다중 핵심 변환이 적용되지 않을 수 있다.
상기 대응 루마 블록에 상기 적응적 다중 핵심 변환이 적용되지 않은 경우, 상기 DCT 타입 2를 기반으로 상기 현재 블록의 변환이 수행될 수 있다(S830). 또한, 상기 대응 루마 블록에 상기 적응적 다중 핵심 변환이 적용된 경우, 상기 현재 블록의 상기 대응 루마 블록의 AMT 인덱스가 도출될 수 있고, 상기 AMT 인덱스를 기반으로 상기 현재 블록에 대한 적응적 다중 핵심 변환이 수행될 수 있다(S850).
한편, 상술한 내용과 같이 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 상기 루마 성분의 블록과 상기 루마 성분의 블록과 대응하는 크로마 성분의 블록은 동일한 형태를 가질 수 있고, 이에 상기 루마 성분의 블록과 상기 크로마 성분의 블록은 유사한 특성을 가질 수 있다. 이에, 본 발명에서는 기존 방법에서 상기 루마 성분 및 크로마 성분에 각각 적용되는 비분리 이차 변환(non-separable secondary transform, NSST)을 보다 효율적으로 상기 크로마 성분에 적용하는 방법을 제안한다.
상기 루마 성분과 상기 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 상기 루마 성분과 상기 크로마 성분의 특성은 매우 유사할 수 있고, 이에 다음과 같은 방법을 통하여 크로마 성분에 상기 비분리 이차 변환을 적용하는 것이 코딩 효율을 보다 향상시킬 수 있다.
일 예로, 크로마 블록과 대응하는 대응 루마 블록의 비분리 이차 변환에 대한 정보가 도출되어 상기 크로마 블록의 변환에 사용될 수 있다. 예를 들어, 상술한 도 7의 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)이 인코딩/디코딩되는 경우, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 인코딩/디코딩 시점에 이미 인코딩/디코딩된 대응 루마 블록 Y(710)가 도출될 수 있다. 상기 대응 루마 블록 Y(710)이 도출된 경우, 상기 대응 루마 블록 Y(710)에 적용된 비분리 이차 변환이 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)에 그대로 적용될 수 있다. 다시 말해, 상기 대응 루마 블록 Y(710)의 비분리 변환 매트릭스를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환이 수행될 수 있다. 이 경우, 상기 대응 루마 블록 Y(710)의 비분리 변환 매트릭스를 가리키는 비분리 이차 변환 인덱스(non-separable secondary transform index, NSST index)가 도출될 수 있고, 상기 비분리 이차 변환 인덱스가 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환에 사용될 수 있다. 즉, 상기 대응 루마 블록 Y(710)의 상기 NSST 인덱스가 도출될 수 있고, 상기 NSST 인덱스가 가리키는 비분리 변환 매트릭스를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환이 수행될 수 있다. 따라서, 기존의 방법에서 전송되던 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환을 수행하기 위하여 시그널링되던 NSST 인덱스가 전송될 필요가 없고, 이를 통하여 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환을 위한 비트량을 줄이고 전반적인 코딩 효율을 향상시킬 수 있다.
또한, 크로마 블록에 상기 대응 루마 블록과 동일한 비분리 이차 변환이 수행되는지 여부를 나타내는 플래그가 전송될 수 있고, 상기 플래그를 기반으로 상기 대응 루마 블록의 비분리 이차 변환 적용 여부가 결정될 수 있다. 예를 들어, 상술한 도 7의 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)이 인코딩/디코딩되는 경우, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)에 상기 대응 루마 블록 Y(710)의 비분리 이차 변환과 동일한 비분리 이차 변환이 적용되는지를 나타내는 플래그가 수신될 수 있고, 상기 플래그를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)에 상기 대응 루마 블록 Y(710)의 비분리 이차 변환과 동일한 비분리 이차 변환이 적용되는지 여부가 판단될 수 있다.
상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)에 상기 대응 루마 블록 Y(710)의 비분리 이차 변환과 동일한 비분리 이차 변환이 적용되는 경우, 상기 플래그의 값은 1로 인코딩/디코딩될 수 있고, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환을 수행하기 위한 별도의 NSST 인덱스는 전송되지 않을 수 있다. 이 경우, 상기 대응 루마 블록 Y(710)의 상기 NSST 인덱스가 도출될 수 있고, 상기 NSST 인덱스가 가리키는 비분리 변환 매트릭스를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환이 수행될 수 있다.
또한, 상술한 도 7의 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)에 상기 대응 루마 블록 Y(710)의 비분리 이차 변환과 동일한 비분리 이차 변환이 적용되지 않는 경우, 상기 플래그의 값은 0으로 인코딩/디코딩될 수 있고, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 NSST 인덱스가 추가로 전송될 수 있다. 이 경우, 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 상기 NSST 인덱스가 가리키는 비분리 변환 매트릭스를 기반으로 상기 크로마 블록 Ccb(720) 또는 상기 크로마 블록 Ccr(730)의 비분리 이차 변환이 수행될 수 있다.
한편, 상술한 내용과 같이 루마 성분과 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 상기 루마 성분의 블록과 상기 루마 성분의 블록과 대응하는 크로마 성분의 블록은 동일한 형태를 가질 수 있고, 이에 상기 루마 성분의 블록과 상기 크로마 성분의 블록은 유사한 특성을 가질 수 있다. 이에, 본 발명에서는 상기 루마 성분의 블록과 상기 크로마 성분의 블록이 유사한 특성을 가짐을 고려하여 상기 루마 성분과 상기 크로마 성분이 동일한 블록 분할 구조를 갖는 경우, 상기 크로마 성분의 블록 선형 보간 예측(linear interpolation prediction)을 보다 효율적으로 수행하는 방법을 제안한다. 상기 선형 보간 예측은 선형 보간 인트라 예측(linear interpolation intra prediction)이라고 불릴 수도 있다.
일 예로, 상기 루마 성분에만 상기 선형 보간 인트라 예측이 수행될 수 있다. 즉, 비트율 왜곡 최적화(Rate distortion optimization, RDO) 관점에서 상기 루마 성분의 상기 선형 보간 인트라 예측 적용 여부가 결정될 수 있다. 이를 통하여, 상기 루마 성분의 상기 선형 보간 인트라 예측 적용 여부 및 최적의 인트라 예측 모드가 선택될 수 있다. 따라서, 이 경우, 선형 보간 예측의 적용 여부를 나타내는 선형 보간 예측 플래그는 상기 루마 성분에 대해서만 인코딩/디코딩될 수 있고, 상기 선형 보간 예측 플래그를 기반으로 상기 루마 성분에만 상기 선형 보간 예측이 적용될 수 있다.
다른 일 예로, 상기 루마 성분과 상기 크로마 성분에 대하여 독립적으로 상기 선형 보간 예측이 적용될 수 있다. 비트율 왜곡 최적화 관점에서 상기 루마 성분 및 상기 크로마 성분 각각의 상기 선형 보간 인트라 예측 적용 여부가 결정될 수 있다. 이 경우, 하나의 인트라 예측 모드에 대하여 총 4번 의 비트율 왜곡 코스트(Rate distortion cost)가 계산될 수 있다. 즉, 상기 인트라 예측 모드를 기반으로 상기 루마 성분 및 상기 크로마 성분에 대한 기존의 인트라 예측이 수행되는 경우, 상기 인트라 예측 모드를 기반으로 상기 루마 성분에 대한 기존의 인트라 예측이 수행되고, 상기 크로마 성분에 대한 상기 선형 보간 인트라 예측이 수행되는 경우, 상기 인트라 예측 모드를 기반으로 상기 루마 성분에 대한 상기 선형 보간 인트라 예측이 수행되고, 상기 크로마 성분에 대한 기존의 인트라 예측이 수행되는 경우, 및 상기 인트라 예측 모드를 기반으로 상기 루마 성분 및 상기 크로마 성분에 대한 상기 선형 보간 인트라 예측이 수행되는 경우 각각의 비트율 왜곡 코스트가 계산될 수 있다. 이 경우, 선형 보간 예측의 적용 여부를 나타내는 선형 보간 예측 플래그는 상기 루마 성분 및 상기 크로마 성분 각각에 대하여 인코딩/디코딩될 수 있고, 상기 루마 성분 및 상기 크로마 성분 각각에 대한 선형 보간 예측 플래그를 기반으로 상기 루마 성분 및 상기 크로마 성분에 대한 상기 선형 보간 예측이 독립적으로 결정될 수 있다. 상기 루마 성분과 상기 크로마 성분에 대한 선형 보간 예측 적용 여부를 독립적으로 결정하는 방법은, 상술한 루마 성분에만 상기 선형 보간 예측이 적용하는 방법에 비하여 복잡도는 높을 수 있지만, 더 많은 경우들이 비교되어 최적의 모드가 선택될 수 있고, 이를 통하여 보다 높은 인코딩/디코딩 효율이 도출될 수 있다.
다른 일 예로, 상기 루마 성분의 선형 보간 인트라 예측 적용 여부를 기반으로 상기 크로마 성분에 대한 상기 선형 보간 예측 적용 여부가 결정될 수 있다. 구체적으로, 예를 들어, 비트율 왜곡 최적화 관점에서 상기 루마 성분의 블록인 대응 블록의 상기 선형 보간 인트라 예측 적용 여부가 결정될 수 있고, 상기 대응 블록의 상기 선형 보간 인트라 예측 적용 여부를 기반으로 상기 크로마 성분의 블록인 현재 블록에 대한 상기 선형 보간 인트라 예측 적용 여부가 결정될 수 있다. 즉, 상기 대응 블록에 상기 선형 보간 인트라 예측이 적용되는 경우, 상기 현재 블록에도 상기 선형 보간 인트라 예측이 적용될 수 있고, 상기 대응 블록에 상기 선형 보간 인트라 예측이 적용되지 않는 경우, 상기 현재 블록에도 상기 선형 보간 인트라 예측이 적용되지 않을 수 있다. 상기 대응 블록의 상기 선형 보간 인트라 예측 적용 여부는 상기 대응 블록의 선형 보간 예측 플래그를 기반으로 판단될 수 있다. 여기서, 상기 대응 블록은 상기 현재 블록과 대응하는 루마 블록을 나타낼 수 있다.
이 경우, 상기 대응 블록의 선형 보간 인트라 예측 적용 여부를 나타내는 선형 보간 예측 플래그만 인코딩/디코딩될 수 있고, 상기 대응 블록의 상기 선형 보간 예측 플래그를 기반으로 상기 현재 블록의 선형 보간 인트라 예측 적용 여부가 결정될 수 있다.
상술한 루마 성분의 선형 보간 인트라 예측 적용 여부를 기반으로 상기 크로마 성분에 대한 선형 보간 예측을 적용하는 방법은 상기 루마 성분에만 상기 선형 보간 인트라 예측을 적용하는 방법과 같이 상기 루마 성분의 선형 보간 예측 플래그만이 인코딩/디코딩될 수 있지만, 상기 루마 성분의 상기 선형 보간 예측 플래그를 기반으로 상기 크로마 성분에 대한 선형 보간 예측 적용 여부도 판단될 수 있는바, 앞에서 언급된 상기 루마 성분에만 상기 선형 보간 인트라 예측을 적용하는 방법과 상기 루마 성분과 상기 크로마 성분에 대한 선형 보간 예측 적용 여부를 독립적으로 결정하는 방법의 중간 방법이라고 할 수 있다.
도 9는 본 발명에 따른 인코딩 장치에 의한 비디오 인코딩 방법을 개략적으로 나타낸다. 도 9에서 개시된 방법은 도 1에서 개시된 인코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 9의 S900 내지 S910은 상기 인코딩 장치의 예측부에 의하여 수행될 수 있고, S920은 상기 인코딩 장치의 변환부에 의하여 수행될 수 있고, S930은 상기 인코딩 장치의 엔트로피 인코딩부에 의하여 수행될 수 있다.
인코딩 장치는 현재 크로마 블록에 대한 인트라 예측 모드를 결정한다(S900). 인코딩 장치는 다양한 인트라 예측 모드들을 수행하여 최적의 RD 코스트를 갖는 인트라 예측 모드를 상기 현재 크로마 블록에 대한 인트라 예측 모드로 도출할 수 있다. 상기 인트라 예측 모드는 2개의 비방향성 예측 모드들과 33개의 방향성 예측 모드들 중 하나일 수 있다. 상기 2개의 비방향성 예측 모드들은 인트라 DC 모드 및 인트라 플래너 모드를 포함할 수 있음은 상술한 바와 같다. 또는 상기 인트라 예측 모드는 2개의 비방향성 인트라 예측 모드들과 65개의 방향성 인트라 예측 모드들 중 하나일 수 있다. 상기 2개의 비방향성 예측 모드들은 인트라 DC 모드 및 인트라 플래너 모드를 포함할 수 있음은 상술한 바와 같다. 또한, 상기 65개의 방향성 인트라 예측 모드들은 수직 방향성 인트라 예측 모드들과 수평 방향성 인트라 예측 모드들을 포함할 수 있다. 상기 수직 방향성 인트라 예측 모드들은 34번 인트라 예측 모드 내지 66번 인트라 예측 모드를 포함할 수 있고, 상기 수평 방향성 인트라 예측 모드들은 2번 인트라 예측 모드 내지 33번 인트라 예측 모드를 포함할 수 있다.
한편, 인코딩 장치는 상기 현재 크로마 블록의 선형 보간 예측(linear interpolation prediction)의 수행 여부를 결정할 수 있다. 예를 들어, 상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부를 상기 현재 크로마 블록의 대응 루마 블록의 상기 선형 보간 예측 수행 여부와 독립적으로 결정할 수 있다. 이 경우, 인코딩 장치는 선형 보간 예측을 수행하는 경우와 기존의 인트라 예측을 수행하는 경우의 RD 코스트를 비교할 수 있고, 상기 선형 보간 예측을 수행하는 경우의 RD 코스트가 최적의 RD 코스트인 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되는 것으로 판단할 수 있다. 또한, 다른 예로, 인코딩 장치는 상기 대응 루마 블록의 선형 보간 예측 수행 여부를 기반으로 상기 현재 크로마 블록의 선형 보간 예측 수행 여부를 판단할 수 있다. 이 경우, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행되는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되는 것으로 판단될 수 있고, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행되지 않는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되지 않는 것으로 판단될 수 있다. 상기 대응 루마 블록의 선형 보간 예측 수행 여부를 나타내는 상기 대응 루마 블록의 선형 보간 예측 플래그가 생성될 수 있다. 상기 선형 보간 예측 플래그의 값이 1인 경우, 상기 선형 보간 예측 플래그는 상기 대응 루마 블록에 선형 보간 인트라 예측이 수행됨을 나타낼 수 있고, 상기 선형 보간 예측 플래그의 값이 0인 경우, 상기 선형 보간 예측 플래그는 상기 대응 루마 블록에 선형 보간 인트라 예측이 수행되지 않음을 나타낼 수 있다. 여기서, 상기 대응 루마 블록은 상기 현재 크로마 블록과 대응하는 루마 성분의 블록을 나타낼 수 있다. 상기 대응 루마 블록은 상기 크로마 블록의 좌상단 샘플의 위치를 기반으로 도출될 수 있다. 구체적으로, 상기 크로마 블록의 좌상단 샘플의 위치와 대응하는 위치의 좌상단 샘플을 갖는 루마 성분의 블록이 상기 대응 루마 블록으로 도출될 수 있다.
인코딩 장치는 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플 및 레지듀얼 샘플을 생성한다(S910). 인코딩 장치는 상기 현재 크로마 블록의 주변 샘플들을 도출할 수 있다. 상기 주변 샘플들은 좌측 주변 샘플들, 좌상측 주변 샘플, 및 상측 주변 샘플들을 포함할 수 있다. 상기 좌측 주변 샘플들, 상기 좌상측 주변 샘플, 및 상기 상측 주변 샘플들은 상기 현재 크로마 블록의 디코딩 시점에 이미 복원된 주변 블록들로부터 도출될 수 있다. 여기서, 상기 현재 크로마 블록의 사이즈가 NxN이고, 상기 현재 크로마 블록의 좌상단(top-left) 샘플의 x성분이 0 및 y성분이 0인 경우, 상기 좌측 주변 샘플들은 p[-1][0] 내지 p[-1][N-1], 상기 좌상측 주변 샘플은 p[-1][-1], 상기 상측 주변 샘플들은 p[0][-1] 내지 p[N-1][-1] 일 수 있다.
인코딩 장치는 상기 주변 샘플들 중 상기 예측 샘플(또는 예측 샘플의 위치)을 기준으로 상기 인트라 예측 모드의 예측 방향에 위치하는 참조 샘플을 도출할 수 있다. 인코딩 장치는 상기 참조 샘플을 기반으로 상기 대상 샘플의 예측 샘플(predicted sample)을 생성할 수 있다. 인코딩 장치는 상기 대상 샘플의 샘플값을 복사하여 상기 예측 샘플의 샘플값을 도출할 수 있다.
한편, 상기 현재 크로마 블록에 상기 선형 보간 인트라 예측이 수행되는 것으로 판단된 경우, 인코딩 장치는 상기 선형 보간 예측을 수행하여 상기 현재 크로마 블록의 예측 샘플을 생성할 수 있다. 구체적으로, 인코딩 장치는 상기 현재 크로마 블록의 예측 샘플을 기준으로 상기 인트라 예측 모드의 예측 방향에 위치하는 제1 참조 샘플 및 상기 예측 방향의 반대 방향에 위치하는 제2 참조 샘플을 도출할 수 있고, 상기 제1 참조 샘플과 상기 제2 참조 샘플의 보간(또는 선형 보간)을 기반으로 상기 예측 샘플을 생성할 수 있다.
인코딩 장치는 상기 예측 샘플을 기반으로 레지듀얼 샘플을 생성할 수 있다. 인코딩 장치는 현재 픽처에 대한 원본 픽처의 원본 크로마 블록과 상기 현재 크로마 블록의 비교를 기반으로 레지듀얼 샘플을 생성할 수 있다. 이 경우 원본 샘플과 상기 예측 샘플 간의 차이가 상기 레지듀얼 샘플이 될 수 있다.
인코딩 장치는 상기 현재 크로마 블록의 상기 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플을 이용하여 변환 계수들을 생성한다(S920). 인코딩 장치는 상기 대응 루마 블록의 상기 변환 정보를 기반으로 상기 현재 크로마 블록의 변환을 수행할 수 있다. 한편, 상기 현재 크로마 블록과 상기 대응 루마 블록의 블록 분할 구조가 동일한 경우, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플이 변환되어 상기 현재 크로마 블록의 상기 변환 계수들이 생성될 수도 있다. 예를 들어, 인코딩 장치는 DCT(Discrete Cosine Transform) 타입 2를 기반으로 상기 레지듀얼 샘플을 변환하여 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있고, 상기 수정된 변환 계수들(또는 1차 변환 계수들)에 대한 비분리 이차 변환(non-separable secondary transform, NSST)을 수행하여 상기 현재 크로마 블록의 변환 계수들(또는 2차 변환 계수들)을 생성할 수 있다. 또는, 인코딩 장치는 상기 레지듀얼 샘플에 대한 적응적 다중 핵심 변환(adaptive multiple core transform, AMT)을 수행하여 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있고, 상기 수정된 변환 계수들(또는 1차 변환 계수들)에 대한 비분리 이차 변환(non-separable secondary transform, NSST)을 수행하여 상기 현재 크로마 블록의 변환 계수들(또는 2차 변환 계수들)을 생성할 수 있다.
구체적으로, 예를 들어, 상기 대응 루마 블록에 적응적 다중 핵심 변환이 수행된 경우, 인코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 정보를 기반으로 상기 현재 크로마 블록에 적응적 다중 핵심 변환을 수행할 수 있다. 상기 적응적 다중 핵심 변환은 해당 블록(예를 들어, 상기 대응 루마 블록 또는 상기 현재 크로마 블록)에 대한 복수의 변환 커널(transform kernel)들을 기반으로 수행되는 변환을 나타낼 수 있다. 예를 들어, 인코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들을 도출할 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 레지듀얼 샘플을 변환하여 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있다. 여기서, 상기 복수의 변환 커널들은 DCT(Discrete Cosine Transform) 타입 2, DCT 타입 8, DST(discrete Sine Transform) 타입 1, DST 타입 7 중 상기 적응적 다중 핵심 변환 인덱스가 가리키는 변환 커널들일 수 있다.
한편, 인코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 수행 여부를 기반으로 상기 현재 크로마 블록의 적응적 다중 핵심 변환 수행 여부, 즉, 상기 복수의 변환 커널들을 기반으로 상기 레지듀얼 샘플을 변환하여 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할지 여부를 결정할 수 있다. 예를 들어, 상기 대응 루마 블록에 적응적 다중 핵심 변환이 수행된 경우, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들이 도출될 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플이 변환되어 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 생성될 수 있다. 또한, 상기 대응 루마 블록에 적응적 다중 핵심 변환이 수행되지 않은 경우, 상기 DCT 타입 2를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플이 변환되어 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 생성될 수 있다. 상기 대응 루마 블록의 레지듀얼 샘플이 상기 복수의 변환 커널들을 기반으로 변환되는지 여부를 나타내는 상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그가 생성될 수 있다.
한편, 상기 수정된 변환 계수들이 생성된 경우, 상기 수정된 변환 계수들에 대한 비분리 이차 변환(non-separable secondary transform, NSST)이 수행되어 상기 현재 크로마 블록의 변환 계수들이 생성될 수 있다.
예를 들어, 상기 대응 루마 블록에 상기 비분리 이차 변환이 수행된 경우, 인코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환 정보를 기반으로 상기 현재 크로마 블록에 비분리 이차 변환을 수행할 수 있다. 즉, 인코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들에 대한 비분리 이차 변환을 수행하여 상기 현재 크로마 블록의 변환 계수들을 생성할 수 있다. 여기서, 상기 비분리 이차 변환은 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 2차 변환하여 상기 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환을 나타낼 수 있다. 여기서, 상기 비분리 변환 매트릭스는 상기 1차 변환 계수들의 수직 성분 및 수평 성분을 분리하지 않고 한번에 변환하는 매트릭스를 나타낼 수 있다. 즉, 상기 비분리 변환 매트릭스는 수직 변환 및 수평 변환을 한번에 수행하는 매트릭스를 나타낼 수 있다. 다시 말해, 상기 NSST는 비분리 변환 매트릭스를 기반으로 상기 1차 변환 계수들의 수직 성분 및 수평 성분 분리하지 않고 같이 변환하여 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환 방법을 나타낼 수 있다.
구체적으로, 인코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환(non-separable secondary transform, NSST) 인덱스를 도출할 수 있고, 상기 비분리 이차 변환 인덱스가 가리키는 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 변환하여 상기 현재 크로마 블록의 변환 계수들(또는 2차 변환 계수들)을 생성할 수 있다.
한편, 인코딩 장치는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스의 사용 여부를 나타내는 플래그를 생성할 수 있다. 예를 들어, 상기 플래그의 값이 1인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타낼 수 있고, 상기 플래그의 값이 0인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타낼 수 있다.
인코딩 장치는 상기 현재 크로마 블록에 대한 예측 정보 및 상기 변환 계수들을 인코딩하여 전송한다(S930). 인코딩 장치는 상기 현재 크로마 블록에 대한 예측 정보를 인코딩하여 비트스트림 형태로 출력할 수 있다. 상기 예측 정보는 상기 현재 크로마 블록의 상기 인트라 예측 모드에 관한 정보를 포함할 수 있다. 인코딩 장치는 상기 인트라 예측 모드를 나타내는 인트라 예측 모드에 관한 정보를 생성하고, 인코딩하여 비트스트림 형태로 출력할 수 있다. 상기 인트라 예측 모드에 관한 정보는 상기 현재 크로마 블록에 대한 인트라 예측 모드를 직접적으로 가리키는 정보를 포함할 수도 있고, 또는 상기 현재 크로마 블록의 좌측 또는 상측 블록의 인트라 예측 모드를 기반으로 도출된 인트라 예측 모드 후보 리스트 중에서 어느 하나의 후보를 가리키는 정보를 포함할 수도 있다.
또한, 상기 예측 정보는 상기 현재 크로마 블록의 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스의 사용 여부를 나타내는 플래그를 포함할 수 있다. 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타내는 경우, 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 도출될 수 있고, 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타내는 경우, 상기 예측 정보는 상기 현재 크로마 블록의 비분리 이차 변환 인덱스를 포함할 수 있다. 상기 현재 크로마 블록의 상기 비분리 이차 변환 인덱스는 상기 현재 크로마 블록의 비분리 이차 변환을 위한 비분리 변환 매트릭스를 가리킬 수 있다. 상기 플래그의 값이 1인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타낼 수 있고, 상기 플래그의 값이 0인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타낼 수 있다.
또한, 상기 예측 정보는 상기 현재 크로마 블록의 선형 보간 예측(linear interpolation prediction)의 수행 여부를 나타내는 선형 보간 예측 플래그(linear interpolation prediction flag)를 포함할 수 있다. 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행됨을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행될 수 있고, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행되지 않음을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되지 않을 수 있다. 상기 선형 보간 예측 플래그의 값이 1인 경우, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행됨을 나타낼 수 있고, 상기 선형 보간 예측 플래그의 값이 0인 경우, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행되지 않음을 나타낼 수 있다. 상기 선형 보간 예측 플래그에 대한 신텍스 요소는 LIP_FLAG 라고 나타낼 수 있다.
한편, 상기 현재 크로마 블록의 상기 대응 루마 블록에 대한 예측 정보 및 변환 정보가 전송될 수 있다. 예를 들어, 상기 변환 정보는 상기 대응 루마 블록의 적응적 다중 핵심 변환 인덱스를 포함할 수 있다. 상기 적응적 다중 핵심 변환 인덱스는 DCT(Discrete Cosine Transform) 타입 2, DCT 타입 8, DST(discrete Sine Transform) 타입 1, DST 타입 7 중 상기 대응 루마 블록의 적응적 다중 핵심 변환에 사용되는 변환 커널들을 나타낼 수 있다.
또한, 상기 변환 정보는 상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그를 포함할 수 있다. 상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 적응적 다중 핵심 변환 수행 여부를 나타낼 수 있다. 즉, 상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 레지듀얼 샘플이 상기 복수의 변환 커널들을 기반으로 변환되는지 여부를 나타낼 수 있다. 상기 적응적 다중 핵심 변환 플래그의 값이 1인 경우, 상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 레지듀얼 샘플이 상기 복수의 변환 커널들을 기반으로 변환됨을 나타낼 수 있고, 상기 적응적 다중 핵심 변환 플래그의 값이 0인 경우, 상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 레지듀얼 샘플이 상기 복수의 변환 커널들을 기반으로 변환되지 않음을 나타낼 수 있다.
또한, 상기 변환 정보는 상기 대응 루마 블록의 비분리 이차 변환(non-separable secondary transform, NSST) 인덱스를 포함할 수 있다. 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스는 비분리 이차 변환에 사용되는 비분리 변환 매트릭스를 가리킬 수 있다.
또한, 상기 예측 정보는 상기 대응 루마 블록의 선형 보간 예측(linear interpolation prediction)의 수행 여부를 나타내는 선형 보간 예측 플래그(linear interpolation prediction flag)를 포함할 수 있다. 상기 선형 보간 예측 플래그가 상기 대응 루마 블록에 선형 보간 예측이 수행됨을 나타내는 경우, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행될 수 있고, 상기 선형 보간 예측 플래그가 상기 대응 루마 블록에 선형 보간 예측이 수행되지 않음을 나타내는 경우, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행되지 않을 수 있다. 상기 선형 보간 예측 플래그의 값이 1인 경우, 상기 선형 보간 예측 플래그가 상기 대응 루마 블록에 선형 보간 예측이 수행됨을 나타낼 수 있고, 상기 선형 보간 예측 플래그의 값이 0인 경우, 상기 선형 보간 예측 플래그가 상기 대응 루마 블록에 선형 보간 예측이 수행되지 않음을 나타낼 수 있다. 상기 선형 보간 예측 플래그에 대한 신텍스 요소는 LIP_FLAG 라고 나타낼 수 있다.
도 10은 본 발명에 따른 디코딩 장치에 의한 비디오 디코딩 방법을 개략적으로 나타낸다. 도 10에서 개시된 방법은 도 2에서 개시된 디코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 10의 S1000은 상기 디코딩 장치의 엔트로피 디코딩부에 의하여 수행될 수 있고, S1010 내지 S1020은 상기 디코딩 장치의 예측부에 의하여 수행될 수 있고, S1030은 상기 디코딩 장치의 예측부에 의하여 수행될 수 있다.
디코딩 장치는 현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득한다(S1000). 디코딩 장치는 엔트로피 디코딩을 통하여 상기 인트라 예측 모드에 대한 정보 및 상기 변환 계수들을 획득할 수 있다.
디코딩 장치는 비트스트림을 통하여 상기 현재 크로마 블록에 대한 예측 정보를 획득할 수 있다. 상기 예측 정보는 상기 현재 크로마 블록에 대한 인트라 예측 모드를 직접적으로 가리키는 정보를 포함할 수도 있고, 또는 상기 현재 크로마 블록의 좌측 또는 상측 블록의 인트라 예측 모드를 기반으로 도출된 인트라 예측 모드 후보 리스트 중에서 어느 하나의 후보를 가리키는 정보를 포함할 수도 있다. 디코딩 장치는 상기 획득된 예측 정보를 기반으로 상기 현재 크로마 블록에 대한 인트라 예측 모드를 도출할 수 있다. 상기 인트라 예측 모드는 2개의 비방향성 예측 모드들과 33개의 방향성 예측 모드들 중 하나일 수 있다. 상기 2개의 비방향성 예측 모드들은 인트라 DC 모드 및 인트라 플래너 모드를 포함할 수 있음은 상술한 바와 같다. 또는 상기 인트라 예측 모드는 2개의 비방향성 인트라 예측 모드들과 65개의 방향성 인트라 예측 모드들 중 하나일 수 있다. 상기 2개의 비방향성 예측 모드들은 인트라 DC 모드 및 인트라 플래너 모드를 포함할 수 있음은 상술한 바와 같다. 또한, 상기 65개의 방향성 인트라 예측 모드들은 수직 방향성 인트라 예측 모드들과 수평 방향성 인트라 예측 모드들을 포함할 수 있다. 상기 수직 방향성 인트라 예측 모드들은 34번 인트라 예측 모드 내지 66번 인트라 예측 모드를 포함할 수 있고, 상기 수평 방향성 인트라 예측 모드들은 2번 인트라 예측 모드 내지 33번 인트라 예측 모드를 포함할 수 있다.
한편, 상기 현재 크로마 블록의 선형 보간 예측(linear interpolation prediction)의 수행 여부를 나타내는 선형 보간 예측 플래그(linear interpolation prediction flag)를 포함할 수 있다. 상기 선형 보간 예측 플래그를 기반으로 상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부가 판단될 수 있다. 즉, 상기 선형 보간 예측 플래그를 기반으로 상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부가 도출될 수 있다. 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행됨을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행될 수 있고, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행되지 않음을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되지 않을 수 있다. 상기 선형 보간 예측 플래그의 값이 1인 경우, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행됨을 나타낼 수 있고, 상기 선형 보간 예측 플래그의 값이 0인 경우, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행되지 않음을 나타낼 수 있다. 상기 선형 보간 예측 플래그에 대한 신텍스 요소는 LIP_FLAG 라고 나타낼 수 있다.
또한, 상기 비트스트림을 통하여 대응 루마 블록의 비분리 이차 변환 인덱스의 사용 여부를 나타내는 플래그가 획득될 수 있다. 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타내는 경우, 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 도출될 수 있고, 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타내는 경우, 상기 비트스트림을 통하여 상기 현재 크로마 블록의 비분리 이차 변환 인덱스가 획득될 수 있다. 상기 현재 크로마 블록의 상기 비분리 이차 변환 인덱스는 상기 현재 크로마 블록의 비분리 이차 변환을 위한 비분리 변환 매트릭스를 가리킬 수 있다. 상기 플래그의 값이 1인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타낼 수 있고, 상기 플래그의 값이 0인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타낼 수 있다. 이 경우, 상기 현재 크로마 블록의 비분리 이차 변환 인덱스가 상기 비트스트림을 통하여 획득될 수 있다.
디코딩 장치는 상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성한다(S1010). 디코딩 장치는 상기 현재 크로마 블록의 주변 샘플들을 도출할 수 있다. 상기 주변 샘플들은 좌측 주변 샘플들, 좌상측 주변 샘플, 및 상측 주변 샘플들을 포함할 수 있다. 상기 좌측 주변 샘플들, 상기 좌상측 주변 샘플, 및 상기 상측 주변 샘플들은 상기 현재 크로마 블록의 디코딩 시점에 이미 복원된 주변 블록들로부터 도출될 수 있다. 여기서, 상기 현재 크로마 블록의 사이즈가 NxN이고, 상기 현재 크로마 블록의 좌상단(top-left) 샘플의 x성분이 0 및 y성분이 0인 경우, 상기 좌측 주변 샘플들은 p[-1][0] 내지 p[-1][N-1], 상기 좌상측 주변 샘플은 p[-1][-1], 상기 상측 주변 샘플들은 p[0][-1] 내지 p[N-1][-1] 일 수 있다.
디코딩 장치는 상기 주변 샘플들 중 상기 예측 샘플(또는 예측 샘플의 위치)을 기준으로 상기 인트라 예측 모드의 예측 방향에 위치하는 참조 샘플을 도출할 수 있다. 디코딩 장치는 상기 참조 샘플을 기반으로 상기 대상 샘플의 예측 샘플(predicted sample)을 생성할 수 있다. 디코딩 장치는 상기 대상 샘플의 샘플값을 복사하여 상기 예측 샘플의 샘플값을 도출할 수 있다.
한편, 디코딩 장치는 상기 현재 크로마 블록의 선형 보간 예측(linear interpolation prediction)의 수행 여부를 판단할 수 있다. 예를 들어, 상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부는 상기 현재 크로마 블록의 선형 보간 예측 플래그를 기반으로 판단될 수 있다. 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행됨을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행될 수 있고, 상기 선형 보간 예측 플래그가 상기 현재 크로마 블록에 선형 보간 예측이 수행되지 않음을 나타내는 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되지 않을 수 있다.
또한, 다른 예로, 디코딩 장치는 상기 대응 루마 블록의 선형 보간 예측 수행 여부를 기반으로 상기 현재 크로마 블록의 선형 보간 예측 수행 여부를 판단할 수 있다. 이 경우, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행되는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되는 것으로 판단될 수 있고, 상기 대응 루마 블록에 상기 선형 보간 예측이 수행되지 않는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되지 않는 것으로 판단될 수 있다. 예를 들어, 상기 대응 루마 블록의 선형 보간 예측 수행 여부를 나타내는 상기 대응 루마 블록의 선형 보간 예측 플래그가 도출될 수 있고, 상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부는 상기 대응 루마 블록의 선형 보간 예측 플래그를 기반으로 판단될 수 있다. 상기 선형 보간 예측 플래그는 상기 대응 루마 블록의 상기 선형 보간 예측 수행 여부를 나타낼 수 있다. 상기 대응 루마 블록의 상기 선형 보간 예측 플래그의 값이 1인 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행될 수 있고, 상기 대응 루마 블록의 상기 선형 보간 예측 플래그의 값이 0인 경우, 상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되지 않을 수 있다. 여기서, 상기 대응 루마 블록은 상기 현재 크로마 블록과 대응하는 루마 성분의 블록을 나타낼 수 있다. 상기 대응 루마 블록은 상기 크로마 블록의 좌상단 샘플의 위치를 기반으로 도출될 수 있다. 구체적으로, 상기 크로마 블록의 좌상단 샘플의 위치와 대응하는 위치의 좌상단 샘플을 갖는 루마 성분의 블록이 상기 대응 루마 블록으로 도출될 수 있다.
한편, 상기 현재 크로마 블록에 상기 선형 보간 인트라 예측이 수행되는 것으로 판단된 경우, 디코딩 장치는 상기 선형 보간 예측을 수행하여 상기 현재 크로마 블록의 예측 샘플을 생성할 수 있다. 구체적으로, 디코딩 장치는 상기 현재 크로마 블록의 예측 샘플을 기준으로 상기 인트라 예측 모드의 예측 방향에 위치하는 제1 참조 샘플 및 상기 예측 방향의 반대 방향에 위치하는 제2 참조 샘플을 도출할 수 있고, 상기 제1 참조 샘플과 상기 제2 참조 샘플의 보간(또는 선형 보간)을 기반으로 상기 예측 샘플을 생성할 수 있다.
디코딩 장치는 상기 현재 크로마 블록의 상기 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성한다(S1020). 디코딩 장치는 상기 대응 루마 블록의 상기 변환 정보를 기반으로 상기 현재 크로마 블록의 역변환을 수행할 수 있다. 예를 들어, 디코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환 정보를 기반으로 상기 변환 계수들을 역변환하여 상기 현재 크로마 블록의 수정된(modified) 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있고, DCT(Discrete Cosine Transform) 타입 2를 기반으로 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 역변환하여 상기 현재 크로마 블록의 상기 레지듀얼 샘플을 생성할 수 있다. 또는, 디코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환 정보를 기반으로 상기 변환 계수들을 역변환하여 상기 현재 크로마 블록의 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있고, 상기 대응 루마 블록의 적응적 다중 핵심 변환(adaptive multiple core transform, AMT) 정보를 기반으로 상기 수정된 변환 계수들에 대한 역변환을 수행하여 상기 현재 크로마 블록의 상기 레지듀얼 샘플을 생성할 수 있다. 한편, 상기 현재 크로마 블록과 상기 대응 루마 블록의 블록 분할 구조가 동일한 경우, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 레지듀얼 샘플이 역변환되어 상기 현재 크로마 블록의 변환 계수들이 생성될 수도 있다.
구체적으로, 상기 대응 루마 블록에 비분리 이차 변환(non-separable secondary transform, NSST)이 수행된 경우, 인코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환 정보를 기반으로 상기 현재 크로마 블록에 비분리 이차 역변환(non-separable secondary inverse transform)을 수행할 수 있다. 상기 비분리 이차 역변환은 상기 변환 계수들(또는 2차 변환 계수들)을 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 역변환하여 수정된 변환 계수들(또는 1차 변환 계수들)을 생성하는 역변환을 나타낼 수 있다. 여기서, 상기 비분리 변환 매트릭스는 상기 1차 변환 계수들의 수직 성분 및 수평 성분을 분리하지 않고 한번에 변환하는 매트릭스를 나타낼 수 있다. 즉, 상기 비분리 변환 매트릭스는 수직 변환 및 수평 변환을 한번에 수행하는 매트릭스를 나타낼 수 있다. 다시 말해, 상기 비분리 이차 역변환은 비분리 변환 매트릭스를 기반으로 상기 변환 계수들(또는 2차 변환 계수들)의 수직 성분 및 수평 성분 분리하지 않고 같이 역변환하여 수정된 변환 계수들(또는 1차 변환 계수들)을 생성하는 역변환을 나타낼 수 있다.
예를 들어, 디코딩 장치는 상기 대응 루마 블록의 비분리 이차 변환(non-separable secondary transform, NSST) 인덱스를 도출할 수 있고, 상기 비분리 이차 변환 인덱스가 가리키는 비분리 변환 매트릭스(non-separable matrix)를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들(또는 2차 변환 계수들)을 역변환하여 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 생성할 수 있다.
한편, 상기 비트스트림을 통하여 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스의 사용 여부를 나타내는 플래그가 획득될 수 있다. 예를 들어, 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타내는 경우, 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 도출될 수 있고, 상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타내는 경우, 상기 비트스트림을 통하여 상기 현재 크로마 블록의 비분리 이차 변환 인덱스가 획득될 수 있다. 상기 플래그의 값이 1인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타낼 수 있고, 상기 플래그의 값이 0인 경우, 상기 플래그는 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타낼 수 있다.
한편, 상기 수정된 변환 계수들이 생성된 경우, 상기 대응 루마 블록의 적응적 다중 핵심 변환(adaptive multiple core transform, AMT) 정보를 기반으로 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 현재 크로마 블록의 상기 레지듀얼 샘플이 생성될 수 있다.
일 예로, 상기 대응 루마 블록에 상기 적응적 다중 핵심 변환이 수행된 경우, 디코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 정보를 기반으로 상기 현재 크로마 블록에 적응적 다중 핵심 역변환을 수행할 수 있다. 상기 적응적 다중 핵심 역변환은 해당 블록(예를 들어, 상기 대응 루마 블록 또는 상기 현재 크로마 블록)에 대한 복수의 변환 커널(transform kernel)들을 기반으로 수행되는 역변환을 나타낼 수 있다. 예를 들어, 디코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들을 도출할 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 역변환하여 상기 레지듀얼 샘플을 생성할 수 있다. 여기서, 상기 복수의 변환 커널들은 DCT(Discrete Cosine Transform) 타입 2, DCT 타입 8, DST(discrete Sine Transform) 타입 1, DST 타입 7 중 상기 적응적 다중 핵심 변환 인덱스가 가리키는 변환 커널들일 수 있다.
한편, 디코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 수행 여부를 기반으로 상기 현재 크로마 블록의 적응적 다중 핵심 변환 수행 여부, 즉, 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들(1차 변환 계수들)을 역변환하여 상기 레지듀얼 샘플을 생성할지 여부를 결정할 수 있다. 예를 들어, 상기 대응 루마 블록에 적응적 다중 핵심 변환이 수행된 경우, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들이 도출될 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다. 또한, 상기 대응 루마 블록에 적응적 다중 핵심 변환이 수행되지 않은 경우, 상기 DCT 타입 2를 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다. 상기 대응 루마 블록의 수정된 변환 계수들(또는 1차 변환 계수들)이 상기 복수의 변환 커널들을 기반으로 역변환되는지 여부를 나타내는 상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그가 도출될 수 있다. 즉, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 플래그를 기반으로 상기 현재 크로마 블록의 적응적 다중 핵심 변환 수행 여부를 판단할 수 있다. 상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 수정된 변환 계수들(또는 1차 변환 계수들)이 상기 복수의 변환 커널들을 기반으로 역변환되는지 여부를 나타낼 수 있다.
구체적으로, 예를 들어, 디코딩 장치는 상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그를 도출할 수 있고, 상기 적응적 다중 핵심 변환 플래그를 기반으로 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들(또는 1차 변환 계수들)을 역변환하여 상기 레지듀얼 샘플을 생성할지 여부를 결정할 수 있다. 상기 적응적 다중 핵심 변환 플래그가 상기 대응 루마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 상기 복수의 변환 커널들을 기반으로 역변환됨을 나타내는 경우, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들이 도출될 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다. 또한, 상기 적응적 다중 핵심 변환 플래그가 상기 대응 루마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 상기 복수의 변환 커널들을 기반으로 역변환되지 않음을 나타내는 경우, 상기 DCT 타입 2를 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다. 즉, 상기 적응적 다중 핵심 변환 플래그의 값이 1인 경우, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들이 도출될 수 있고, 상기 복수의 변환 커널들을 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다. 상기 적응적 다중 핵심 변환 플래그의 값이 0인 경우, 상기 DCT 타입 2를 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들(또는 1차 변환 계수들)이 역변환되어 상기 레지듀얼 샘플이 생성될 수 있다.
디코딩 장치는 상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성한다(S1030). 디코딩 장치는 상기 예측 샘플 및 상기 레지듀얼 샘플을 가산하여 복원 샘플을 생성할 수 있고, 상기 복원 샘플을 기반으로 복원 픽처를 생성할 수 있다. 이후 디코딩 장치는 필요에 따라 주관적/객관적 화질을 향상시키기 위하여 디블록킹 필터링 및/또는 SAO 절차와 같은 인루프 필터링 절차를 상기 복원 픽처에 적용할 수 있음은 상술한 바와 같다.
상술한 본 발명에 따르면 동일한 블록 구조를 갖는 대응 루마 블록의 변환 정보를 기반으로 현재 크로마 블록의 변환을 수행할 수 있고, 이를 통하여 현재 크로마 블록의 변환을 위하여 사용되는 비트량을 줄일 수 있고, 전반적인 코딩 효율을 향상시킬 수 있다.
또한, 본 발명에 따르면 동일한 블록 구조를 갖는 대응 루마 블록의 선형 보간 예측 수행 여부를 기반으로 현재 크로마 블록의 선형 보간 예측을 수행할 수 있고, 이를 통하여 현재 크로마 블록의 예측을 위하여 사용되는 비트량을 줄일 수 있고, 전반적인 코딩 효율을 향상시킬 수 있다.
상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타내어진 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 본 발명에 따른 방법은 소프트웨어 형태로 구현될 수 있으며, 본 발명에 따른 인코딩 장치 및/또는 디코딩 장치는 예를 들어 TV, 컴퓨터, 스마트폰, 셋톱박스, 디스플레이 장치 등의 영상 처리를 수행하는 장치에 포함될 수 있다.
본 발명에서 실시예들이 소프트웨어로 구현될 때, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다. 프로세서는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다.

Claims (15)

  1. 디코딩 장치에 의하여 수행되는 영상 디코딩 방법에 있어서,
    현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득하는 단계;
    상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성하는 단계;
    상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계; 및
    상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  2. 제1항에 있어서,
    상기 현재 크로마 블록의 상기 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계는,
    상기 대응 루마 블록의 비분리 이차 변환(non-separable secondary transform, NSST) 인덱스를 도출하는 단계; 및
    상기 비분리 이차 변환 인덱스가 가리키는 비분리 변환 매트릭스(non-separable matrix)를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 역변환하여 수정된(modified) 변환 계수들을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  3. 제2항에 있어서,
    상기 비트스트림을 통하여 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스의 사용 여부를 나타내는 플래그가 획득되고,
    상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용됨을 나타내는 경우, 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 도출되고,
    상기 플래그가 상기 대응 루마 블록의 상기 비분리 이차 변환 인덱스가 사용되지 않음을 나타내는 경우, 상기 비트스트림을 통하여 상기 현재 크로마 블록의 비분리 이차 변환 인덱스가 획득되는 것을 특징으로 하는 영상 디코딩 방법.
  4. 제2항에 있어서,
    상기 현재 크로마 블록의 상기 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계는,
    상기 대응 루마 블록의 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널(transform kernel)들을 도출하는 단계; 및
    상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들을 역변환하여 레지듀얼 샘플을 생성하는 단계를 더 포함하되,
    상기 복수의 변환 커널들은 DCT(Discrete Cosine Transform) 타입 2, DCT 타입 8, DST(discrete Sine Transform) 타입 1, DST 타입 7 중 상기 적응적 다중 핵심 변환 인덱스가 가리키는 변환 커널들인 것을 특징으로 하는 영상 디코딩 방법.
  5. 제4항에 있어서,
    상기 현재 크로마 블록의 상기 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 단계는,
    상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그를 도출하는 단계; 및
    상기 적응적 다중 핵심 변환 플래그를 기반으로 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들을 역변환하여 상기 레지듀얼 샘플을 생성할지 여부를 결정하는 단계를 더 포함하되,
    상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 수정된 변환 계수들이 상기 복수의 변환 커널들을 기반으로 역변환되는지 여부를 나타내는 것을 특징으로 하는 영상 디코딩 방법.
  6. 제5항에 있어서,
    상기 적응적 다중 핵심 변환 플래그가 상기 대응 루마 블록의 상기 수정된 변환 계수들이 상기 복수의 변환 커널들을 기반으로 역변환됨을 나타내는 경우, 상기 대응 루마 블록의 상기 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널들이 도출되고, 상기 복수의 변환 커널들을 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들이 역변환되어 상기 레지듀얼 샘플이 생성되고,
    상기 적응적 다중 핵심 변환 플래그가 상기 대응 루마 블록의 상기 수정된 변환 계수들이 상기 복수의 변환 커널들을 기반으로 역변환되지 않음을 나타내는 경우, 상기 DCT 타입 2를 기반으로 상기 현재 크로마 블록의 상기 수정된 변환 계수들이 역변환되어 상기 레지듀얼 샘플이 생성되는 것을 특징으로 하는 영상 디코딩 방법.
  7. 제1항에 있어서,
    상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 상기 예측 샘플을 생성하는 단계는,
    상기 현재 크로마 블록의 주변 샘플들을 도출하는 단계;
    상기 대응 루마 블록의 선형 보간 예측(linear interpolation prediction) 수행 여부를 기반으로 상기 현재 크로마 블록의 선형 보간 예측 수행 여부를 판단하는 단계; 및
    상기 현재 크로마 블록에 상기 선형 보간 예측이 수행되는 것으로 판단된 경우, 상기 선형 보간 예측을 수행하여 상기 현재 크로마 블록의 상기 예측 샘플을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  8. 제7항에 있어서,
    상기 선형 보간 예측을 수행하여 상기 현재 크로마 블록의 상기 예측 샘플을 생성하는 단계는,
    상기 주변 샘플들 중 상기 예측 샘플을 기준으로 상기 인트라 예측 모드의 예측 방향에 위치하는 제1 참조 샘플 및 상기 예측 방향의 반대 방향에 위치하는 제2 참조 샘플을 도출하는 단계; 및
    상기 제1 참조 샘플과 상기 제2 참조 샘플의 보간(interpolation)을 통하여 상기 예측 샘플을 도출하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  9. 제7항에 있어서,
    상기 대응 루마 블록에 상기 선형 보간 예측이 수행되는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되는 것으로 판단되고,
    상기 대응 루마 블록에 상기 선형 보간 예측이 수행되지 않는 경우, 상기 현재 크로마 블록에도 상기 선형 보간 예측이 수행되지 않는 것으로 판단되는 것을 특징으로 하는 영상 디코딩 방법.
  10. 제7항에 있어서,
    상기 현재 크로마 블록의 상기 선형 보간 예측 수행 여부는 상기 대응 루마 블록의 선형 보간 예측 플래그를 기반으로 판단되되,
    상기 선형 보간 예측 플래그는 상기 대응 루마 블록의 상기 선형 보간 예측 수행 여부를 나타내는 것을 특징으로 하는 영상 디코딩 방법.
  11. 제1항에 있어서,
    상기 현재 크로마 블록과 상기 대응 루마 블록의 블록 분할 구조가 동일한 경우, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 상기 현재 크로마 블록의 레지듀얼 샘플이 생성되는 것을 특징으로 하는 영상 디코딩 방법.
  12. 영상 디코딩을 수행하는 디코딩 장치에 있어서,
    현재 크로마 블록의 인트라 예측 모드에 대한 정보 및 변환 계수들을 획득하는 엔트로피 디코딩부;
    상기 현재 크로마 블록의 상기 인트라 예측 모드를 기반으로 예측 샘플을 생성하고, 상기 현재 크로마 블록의 대응 루마 블록의 변환 정보를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 이용하여 레지듀얼 샘플을 생성하는 예측부; 및
    상기 예측 샘플 및 상기 레지듀얼 샘플을 기반으로 복원 샘플을 생성하는 복원부를 포함하는 것을 특징으로 하는 디코딩 장치.
  13. 제12항에 있어서,
    상기 예측부는 상기 대응 루마 블록의 비분리 이차 변환(non-separable secondary transform, NSST) 인덱스를 도출하고, 상기 비분리 이차 변환 인덱스가 가리키는 비분리 변환 매트릭스(non-separable matrix)를 기반으로 상기 현재 크로마 블록의 상기 변환 계수들을 역변환하여 수정된(modified) 변환 계수들을 생성하되,
    상기 비분리 변환 매트릭스는 2개의 변환 커널들을 포함하는 매트릭스(matrix)인 것을 특징으로 하는 디코딩 장치.
  14. 제13항에 있어서,
    상기 예측부는 상기 대응 루마 블록의 적응적 다중 핵심 변환 인덱스를 기반으로 상기 현재 크로마 블록에 대한 복수의 변환 커널(transform kernel)들을 도출하고, 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들을 역변환하여 레지듀얼 샘플을 생성하되,
    상기 복수의 변환 커널들은 DCT(Discrete Cosine Transform) 타입 2, DCT 타입 8, DST(discrete Sine Transform) 타입 1, DST 타입 7 중 상기 적응적 다중 핵심 변환 인덱스가 가리키는 변환 커널들인 것을 특징으로 하는 디코딩 장치.
  15. 제14항에 있어서,
    상기 예측부는 상기 대응 루마 블록의 적응적 다중 핵심 변환 플래그를 도출하고, 상기 적응적 다중 핵심 변환 플래그를 기반으로 상기 복수의 변환 커널들을 기반으로 상기 수정된 변환 계수들을 역변환하여 상기 레지듀얼 샘플을 생성할지 여부를 결정하되,
    상기 적응적 다중 핵심 변환 플래그는 상기 대응 루마 블록의 수정된 변환 계수들이 상기 복수의 변환 커널들을 기반으로 역변환되는지 여부를 나타내는 것을 특징으로 하는 디코딩 장치.
PCT/KR2017/014072 2017-12-04 2017-12-04 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치 WO2019112071A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020207016010A KR102418700B1 (ko) 2017-12-04 2017-12-04 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
PCT/KR2017/014072 WO2019112071A1 (ko) 2017-12-04 2017-12-04 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
US16/769,429 US20200374516A1 (en) 2017-12-04 2017-12-04 Image decoding method and apparatus based on efficient transformation of chroma component in image coding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/014072 WO2019112071A1 (ko) 2017-12-04 2017-12-04 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2019112071A1 true WO2019112071A1 (ko) 2019-06-13

Family

ID=66750391

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/014072 WO2019112071A1 (ko) 2017-12-04 2017-12-04 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치

Country Status (3)

Country Link
US (1) US20200374516A1 (ko)
KR (1) KR102418700B1 (ko)
WO (1) WO2019112071A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021051155A1 (en) * 2019-09-17 2021-03-25 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a block of video samples
CN114342393A (zh) * 2019-07-12 2022-04-12 Lg 电子株式会社 基于变换的图像编译方法及其设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019117634A1 (ko) * 2017-12-15 2019-06-20 엘지전자 주식회사 2차 변환에 기반한 영상 코딩 방법 및 그 장치
US11665367B2 (en) * 2018-03-30 2023-05-30 Sony Corporation Image processing apparatus and method
CN116320413A (zh) * 2018-07-02 2023-06-23 Lg电子株式会社 对视频信号进行编解码的设备和发送图像的数据的设备
WO2022197139A1 (ko) * 2021-03-19 2022-09-22 현대자동차주식회사 크로마 블록의 인트라 서브블록 예측을 이용하는 비디오 코딩방법 및 장치
WO2024039209A1 (ko) * 2022-08-17 2024-02-22 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 이를 위한 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072357A (ko) * 2010-12-23 2012-07-03 삼성전자주식회사 영상 예측 단위에 대한 인트라 예측 모드 부호화 방법 및 장치, 및 영상 예측 단위에 대한 인트라 예측 모드 복호화 방법 및 장치
KR20150087212A (ko) * 2013-07-12 2015-07-29 삼성전자주식회사 잔차 예측을 이용한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
KR20150096375A (ko) * 2012-12-17 2015-08-24 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 이를 이용하는 장치
KR20170020539A (ko) * 2011-03-06 2017-02-22 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
US20170094313A1 (en) * 2015-09-29 2017-03-30 Qualcomm Incorporated Non-separable secondary transform for video coding
WO2017195555A1 (ja) * 2016-05-13 2017-11-16 シャープ株式会社 画像復号装置および画像符号化装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072357A (ko) * 2010-12-23 2012-07-03 삼성전자주식회사 영상 예측 단위에 대한 인트라 예측 모드 부호화 방법 및 장치, 및 영상 예측 단위에 대한 인트라 예측 모드 복호화 방법 및 장치
KR20170020539A (ko) * 2011-03-06 2017-02-22 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
KR20150096375A (ko) * 2012-12-17 2015-08-24 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 이를 이용하는 장치
KR20150087212A (ko) * 2013-07-12 2015-07-29 삼성전자주식회사 잔차 예측을 이용한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US20170094313A1 (en) * 2015-09-29 2017-03-30 Qualcomm Incorporated Non-separable secondary transform for video coding
WO2017195555A1 (ja) * 2016-05-13 2017-11-16 シャープ株式会社 画像復号装置および画像符号化装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114342393A (zh) * 2019-07-12 2022-04-12 Lg 电子株式会社 基于变换的图像编译方法及其设备
WO2021051155A1 (en) * 2019-09-17 2021-03-25 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a block of video samples
JP2022546895A (ja) * 2019-09-17 2022-11-10 キヤノン株式会社 ビデオサンプルのブロックを符号化並びに復号するための方法、装置、及びシステム
TWI823023B (zh) * 2019-09-17 2023-11-21 日商佳能股份有限公司 用於編碼與解碼視訊樣本區塊的方法、設備以及系統
JP7394875B2 (ja) 2019-09-17 2023-12-08 キヤノン株式会社 ビデオサンプルのブロックを符号化並びに復号するための方法、装置、及びシステム

Also Published As

Publication number Publication date
KR20200072553A (ko) 2020-06-22
KR102418700B1 (ko) 2022-07-08
US20200374516A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
WO2018174402A1 (ko) 영상 코딩 시스템에서 변환 방법 및 그 장치
WO2018062921A1 (ko) 영상 코딩 시스템에서 블록 분할 및 인트라 예측 방법 및 장치
WO2017043786A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2018056603A1 (ko) 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
WO2019112071A1 (ko) 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
WO2017069419A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2017082670A1 (ko) 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치
WO2017034331A1 (ko) 영상 코딩 시스템에서 크로마 샘플 인트라 예측 방법 및 장치
WO2016200043A1 (ko) 비디오 코딩 시스템에서 가상 참조 픽처 기반 인터 예측 방법 및 장치
WO2017052000A1 (ko) 영상 코딩 시스템에서 움직임 벡터 정제 기반 인터 예측 방법 및 장치
WO2016204360A1 (ko) 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
WO2018062702A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2018236051A1 (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2018070632A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2012081879A1 (ko) 인터 예측 부호화된 동영상 복호화 방법
WO2018056602A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2017188565A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2019198997A1 (ko) 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2019194500A1 (ko) 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2018174357A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2019194507A1 (ko) 어파인 움직임 예측에 기반한 영상 코딩 방법 및 그 장치
WO2016056821A1 (ko) 3d 비디오 코딩을 위한 움직임 정보 압축 방법 및 장치
WO2018128222A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2017052272A1 (ko) 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2018066791A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17934327

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207016010

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17934327

Country of ref document: EP

Kind code of ref document: A1