WO2019117636A1 - 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치 - Google Patents

비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치 Download PDF

Info

Publication number
WO2019117636A1
WO2019117636A1 PCT/KR2018/015812 KR2018015812W WO2019117636A1 WO 2019117636 A1 WO2019117636 A1 WO 2019117636A1 KR 2018015812 W KR2018015812 W KR 2018015812W WO 2019117636 A1 WO2019117636 A1 WO 2019117636A1
Authority
WO
WIPO (PCT)
Prior art keywords
transform
target block
transform coefficients
block
nsst
Prior art date
Application number
PCT/KR2018/015812
Other languages
English (en)
French (fr)
Inventor
살레히파메흐디
김승환
임재현
구문모
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN202311023560.4A priority Critical patent/CN116866600A/zh
Priority to BR122021010320-8A priority patent/BR122021010320B1/pt
Priority to MX2020006313A priority patent/MX2020006313A/es
Priority to KR1020237039915A priority patent/KR20230164751A/ko
Priority to CN202311022201.7A priority patent/CN116866599A/zh
Priority to JP2020532930A priority patent/JP7007485B2/ja
Priority to EP23158773.4A priority patent/EP4216549A1/en
Priority to KR1020207016879A priority patent/KR102489150B1/ko
Priority to CA3085844A priority patent/CA3085844A1/en
Priority to RU2020121400A priority patent/RU2748907C1/ru
Priority to EP18889527.0A priority patent/EP3716625A1/en
Priority to CN201880085166.4A priority patent/CN111543058B/zh
Priority to CN202311023547.9A priority patent/CN116886934A/zh
Priority to BR112020012040-5A priority patent/BR112020012040B1/pt
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CN202311022208.9A priority patent/CN116886933A/zh
Priority to BR122021010330-5A priority patent/BR122021010330B1/pt
Priority to KR1020237001152A priority patent/KR102605673B1/ko
Publication of WO2019117636A1 publication Critical patent/WO2019117636A1/ko
Priority to US16/901,857 priority patent/US11039140B2/en
Priority to US17/316,049 priority patent/US11627320B2/en
Priority to JP2022001049A priority patent/JP7235899B2/ja
Priority to US17/864,666 priority patent/US11818350B2/en
Priority to US18/377,146 priority patent/US20240040121A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Definitions

  • the present invention relates to an image coding technique, and more particularly, to an image decoding method and apparatus according to a non-separating quadratic transformation in an image coding system.
  • HD high definition
  • UHD ultra high definition
  • the present invention provides a method and apparatus for enhancing video coding efficiency.
  • an image decoding method and apparatus for determining whether an NSST index is coded based on transform coefficients of a target block.
  • an image decoding method performed by a decoding apparatus includes deriving transform coefficients of a target block from a bitstream, deriving a Non-Separable Secondary Transform (NSST) index for the target block, transforming the transform coefficients of the target block based on the NSST index Performing inversed transform on the residual samples to derive residual samples of the target block, and generating a reconstructed picture based on the residual samples.
  • NSST Non-Separable Secondary Transform
  • a decoding apparatus for performing image decoding.
  • the decoding apparatus includes an entropy decoding unit for deriving transform coefficients of a target block from a bitstream and deriving a Non-Separable Secondary Transform (NSST) index for the target block, a transformation unit for transforming the transform coefficient And an adder for generating a reconstructed picture on the basis of the residual samples.
  • the inverse transformer performs an inversed transform on the residual samples to derive residual samples of the target block.
  • a video encoding method performed by an encoding apparatus.
  • the method includes deriving residual samples of a target block, deriving transform coefficients of the target block by performing transform on the residual samples, determining whether to encode the NSST index for the target block, And encoding the information on the transform coefficients, wherein the step of determining whether to encode the NSST index comprises the steps of: R + 1-th to N-th transforms of the transform coefficients of the target block, And determining that the NSST index is not to be encoded if the non-zero transform coefficient is included in the (N + 1) th transform coefficients from the (R + 1) -th transform coefficient, Wherein R is a reduced coefficient, and R is smaller than N.
  • a video encoding apparatus includes an adder for deriving residual samples of a target block, a transform unit for transforming the residual samples to derive transform coefficients of the target block, and a transform unit for transforming the NSST index
  • the entropy encoding unit scans R + 1-th to N-th transform coefficients of the transform coefficients of the target block, and outputs the transform coefficients to the entropy encoding unit, And determines that the NSST index is not encoded when the non-zero transform coefficient is included in the (R + 1) th to Nth transform coefficients, wherein N is the number of samples of the upper left target region of the target block, R is a reduced coefficient, and R is smaller than N.
  • the range of the NSST index can be derived based on the specific condition of the target block, thereby reducing the bit amount for the NSST index and improving the overall coding efficiency.
  • the transmission of a syntax element for the NSST index can be determined based on the transform coefficients for the target block, thereby reducing the bit amount for the NSST index and improving the overall coding efficiency .
  • FIG. 1 is a view for schematically explaining a configuration of a video encoding apparatus to which the present invention can be applied.
  • FIG. 2 shows an example of an image encoding method performed by the video encoding apparatus.
  • FIG. 3 is a view for schematically explaining a configuration of a video decoding apparatus to which the present invention can be applied.
  • FIG. 4 shows an example of an image decoding method performed by a decoding apparatus.
  • FIG. 6 exemplarily shows intra-directional modes of 65 prediction directions.
  • FIGS. 7A and 7B are flowcharts illustrating a coding process of a transform coefficient according to an embodiment.
  • FIG. 8 is a diagram for explaining the arrangement of transform coefficients based on a target block according to an embodiment of the present invention.
  • FIG. 9 shows an example of scanning R + 1 to N conversion coefficients.
  • 10A and 10B are flowcharts illustrating a coding process of an NSST index according to an embodiment.
  • FIG. 11 shows an example of determining whether the NSST index is coded.
  • FIG. 13 schematically shows an image encoding method by the encoding apparatus according to the present invention.
  • FIG. 14 schematically shows an encoding apparatus for performing a video encoding method according to the present invention.
  • FIG. 15 schematically shows a video decoding method by a decoding apparatus according to the present invention.
  • FIG. 16 schematically shows a decoding apparatus for performing an image decoding method according to the present invention.
  • the present invention relates to video / video coding.
  • the method / embodiment disclosed herein may be applied to a method disclosed in the versatile video coding (VVC) standard or the next generation video / image coding standard.
  • VVC versatile video coding
  • a picture generally refers to a unit that represents one image in a specific time zone
  • a slice is a unit that constitutes a part of a picture in coding.
  • One picture may be composed of a plurality of slices, and pictures and slices may be used in combination if necessary.
  • a pixel or a pel may mean a minimum unit of a picture (or image). Also, a 'sample' may be used as a term corresponding to a pixel.
  • a sample may generally represent a pixel or pixel value and may only represent a pixel / pixel value of a luma component or only a pixel / pixel value of a chroma component.
  • a unit represents a basic unit of image processing.
  • a unit may include at least one of a specific area of a picture and information related to the area.
  • the unit may be used in combination with terms such as a block or an area in some cases.
  • an MxN block may represent a set of samples or transform coefficients consisting of M columns and N rows.
  • FIG. 1 is a view for schematically explaining a configuration of a video encoding apparatus to which the present invention can be applied.
  • the video encoding apparatus 100 includes a picture dividing unit 105, a predicting unit 110, a residual processing unit 120, an entropy encoding unit 130, an adding unit 140, a filter unit 150 And a memory 160.
  • the residual processing unit 120 may include a subtracting unit 121, a transforming unit 122, a quantizing unit 123, a reordering unit 124, an inverse quantizing unit 125 and an inverse transforming unit 126.
  • the picture dividing unit 105 may divide the inputted picture into at least one processing unit.
  • the processing unit may be referred to as a coding unit (CU).
  • the coding unit may be recursively partitioned according to a quad-tree binary-tree (QTBT) structure from the largest coding unit (LCU).
  • QTBT quad-tree binary-tree
  • LCU largest coding unit
  • one coding unit may be divided into a plurality of coding units of deeper depth based on a quadtree structure and / or a binary tree structure.
  • the quadtree structure is applied first and the binary tree structure can be applied later.
  • a binary tree structure may be applied first.
  • the coding procedure according to the present invention can be performed based on the final coding unit which is not further divided.
  • the maximum coding unit may be directly used as the final coding unit based on the coding efficiency or the like depending on the image characteristics, or the coding unit may be recursively divided into lower-depth coding units Lt; / RTI > may be used as the final coding unit.
  • the coding procedure may include a procedure such as prediction, conversion, and restoration, which will be described later.
  • the processing unit may include a coding unit (CU) prediction unit (PU) or a transform unit (TU).
  • the coding unit may be split from the largest coding unit (LCU) into coding units of deeper depth along the quad tree structure.
  • LCU largest coding unit
  • the maximum coding unit may be directly used as the final coding unit based on the coding efficiency or the like depending on the image characteristics, or the coding unit may be recursively divided into lower-depth coding units Lt; / RTI > may be used as the final coding unit.
  • SCU smallest coding unit
  • the coding unit can not be divided into smaller coding units than the minimum coding unit.
  • the term " final coding unit " means a coding unit on which the prediction unit or the conversion unit is partitioned or divided.
  • a prediction unit is a unit that is partitioned from a coding unit, and may be a unit of sample prediction. At this time, the prediction unit may be divided into sub-blocks.
  • the conversion unit may be divided along the quad-tree structure from the coding unit, and may be a unit for deriving a conversion coefficient and / or a unit for deriving a residual signal from the conversion factor.
  • the coding unit may be referred to as a coding block (CB)
  • the prediction unit may be referred to as a prediction block (PB)
  • the conversion unit may be referred to as a transform block (TB).
  • the prediction block or prediction unit may refer to a specific area in the form of a block in a picture and may include an array of prediction samples.
  • a transform block or transform unit may refer to a specific region in the form of a block within a picture, and may include an array of transform coefficients or residual samples.
  • the prediction unit 110 may perform a prediction on a current block to be processed (hereinafter, referred to as a current block), and may generate a predicted block including prediction samples for the current block.
  • the unit of prediction performed in the prediction unit 110 may be a coding block, a transform block, or a prediction block.
  • the prediction unit 110 may determine whether intra prediction or inter prediction is applied to the current block. For example, the prediction unit 110 may determine whether intra prediction or inter prediction is applied in units of CU.
  • the prediction unit 110 may derive a prediction sample for a current block based on a reference sample outside the current block in a picture to which the current block belongs (hereinafter referred to as a current picture). At this time, the prediction unit 110 may derive a prediction sample based on (i) an average or interpolation of neighboring reference samples of the current block, (ii) The prediction sample may be derived based on a reference sample existing in a specific (prediction) direction with respect to the prediction sample among the samples. (i) may be referred to as a non-directional mode or a non-angle mode, and (ii) may be referred to as a directional mode or an angular mode.
  • the prediction mode may have, for example, 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planar mode (Planar mode).
  • the prediction unit 110 may determine a prediction mode applied to a current block using a prediction mode applied to a neighboring block.
  • the prediction unit 110 may derive a prediction sample for a current block based on a sample specified by a motion vector on a reference picture.
  • the prediction unit 110 may derive a prediction sample for a current block by applying one of a skip mode, a merge mode, and a motion vector prediction (MVP) mode.
  • the prediction unit 110 can use motion information of a neighboring block as motion information of a current block.
  • difference residual between the predicted sample and the original sample is not transmitted unlike the merge mode.
  • MVP mode a motion vector of a current block can be derived by using a motion vector of a neighboring block as a motion vector predictor to use as a motion vector predictor of a current block.
  • a neighboring block may include a spatial neighboring block existing in a current picture and a temporal neighboring block existing in a reference picture.
  • the reference picture including the temporal neighboring block may be referred to as a collocated picture (colPic).
  • the motion information may include a motion vector and a reference picture index.
  • Information such as prediction mode information and motion information may be (entropy) encoded and output in the form of a bit stream.
  • the highest picture on the reference picture list may be used as a reference picture.
  • the reference pictures included in the picture order count can be sorted on the basis of the picture order count (POC) difference between the current picture and the corresponding reference picture.
  • POC picture order count
  • the POC corresponds to the display order of the pictures and can be distinguished from the coding order.
  • the subtraction unit 121 generates residual samples that are the difference between the original sample and the predicted sample. When the skip mode is applied, a residual sample may not be generated as described above.
  • the transforming unit 122 transforms the residual samples on a transform block basis to generate a transform coefficient.
  • the transforming unit 122 can perform the transform according to the size of the transform block and a prediction mode applied to the coding block or the prediction block spatially overlapping the transform block. For example, if intraprediction is applied to the coding block or the prediction block that overlaps the transform block and the transform block is a 4 ⁇ 4 residue array, the residual sample is transformed into a discrete sine transform (DST) In other cases, the residual samples can be converted using a DCT (Discrete Cosine Transform) conversion kernel.
  • DST discrete sine transform
  • the quantization unit 123 may quantize the transform coefficients to generate quantized transform coefficients.
  • the reordering unit 124 rearranges the quantized transform coefficients.
  • the reordering unit 124 may rearrange the block-shaped quantized transform coefficients into a one-dimensional vector form through a scanning method of coefficients.
  • the reordering unit 124 may be a part of the quantization unit 123, although the reordering unit 124 is described as an alternative configuration.
  • the entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may include, for example, an encoding method such as exponential Golomb, context-adaptive variable length coding (CAVLC), context-adaptive binary arithmetic coding (CABAC)
  • CAVLC context-adaptive variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • the entropy encoding unit 130 may encode the information necessary for video restoration (such as the value of a syntax element) together with the quantized transform coefficient or separately.
  • the entropy encoded information may be transmitted or stored in units of NAL (network abstraction layer) units in the form of a bit stream.
  • NAL network abstraction layer
  • the inverse quantization unit 125 inversely quantizes the quantized values (quantized transform coefficients) in the quantization unit 123 and the inverse transformation unit 126 inversely quantizes the inversely quantized values in the inverse quantization unit 125, .
  • the adder 140 combines the residual sample and the predicted sample to reconstruct the picture.
  • the residual samples and the prediction samples are added in units of blocks so that a reconstruction block can be generated.
  • the adding unit 140 may be a part of the predicting unit 110, Meanwhile, the addition unit 140 may be referred to as a restoration unit or a restoration block generation unit.
  • the filter unit 150 may apply a deblocking filter and / or a sample adaptive offset. Through deblocking filtering and / or sample adaptive offsets, artifacts in the block boundary in the reconstructed picture or distortion in the quantization process can be corrected.
  • the sample adaptive offset can be applied on a sample-by-sample basis and can be applied after the process of deblocking filtering is complete.
  • the filter unit 150 may apply an ALF (Adaptive Loop Filter) to the restored picture.
  • the ALF may be applied to the reconstructed picture after the deblocking filter and / or sample adaptive offset is applied.
  • the memory 160 may store restored pictures (decoded pictures) or information necessary for encoding / decoding.
  • the reconstructed picture may be a reconstructed picture whose filtering procedure has been completed by the filter unit 150.
  • the stored restored picture may be used as a reference picture for (inter) prediction of another picture.
  • the memory 160 may store (reference) pictures used for inter prediction. At this time, the pictures used for inter prediction can be designated by a reference picture set or a reference picture list.
  • the image encoding method may include intra / inter prediction, transform, quantization, and entropy encoding.
  • a prediction block of the current block can be generated through intra / inter prediction, and a residual block of the current block can be generated through subtraction between the input block of the current block and the prediction block.
  • the coefficients for the current block may be generated by transforming the residual block, that is, the coefficent block.
  • the transform coefficients may be quantized and entropy encoded and stored in a bitstream.
  • FIG. 3 is a view for schematically explaining a configuration of a video decoding apparatus to which the present invention can be applied.
  • the video decoding apparatus 300 includes an entropy decoding unit 310, a residual processing unit 320, a predicting unit 330, an adding unit 340, a filter unit 350, and a memory 360 .
  • the residual processing unit 320 may include a rearrangement unit 321, an inverse quantization unit 322, and an inverse transformation unit 323.
  • the video decoding apparatus 300 can restore video in response to a process in which video information is processed in the video encoding apparatus.
  • the video decoding apparatus 300 may perform video decoding using a processing unit applied in the video encoding apparatus.
  • the processing unit block of video decoding may be, for example, a coding unit and, in another example, a coding unit, a prediction unit or a conversion unit.
  • the coding unit may be partitioned along the quad tree structure and / or the binary tree structure from the maximum coding unit.
  • a prediction unit and a conversion unit may be further used as the case may be, in which case the prediction block is a block derived or partitioned from the coding unit and may be a unit of sample prediction. At this time, the prediction unit may be divided into sub-blocks.
  • the conversion unit may be divided along the quad tree structure from the coding unit and may be a unit that derives the conversion factor or a unit that derives the residual signal from the conversion factor.
  • the entropy decoding unit 310 may parse the bitstream and output information necessary for video restoration or picture restoration. For example, the entropy decoding unit 310 decodes information in the bitstream based on a coding method such as exponential Golomb coding, CAVLC, or CABAC, and calculates a value of a syntax element necessary for video restoration, a quantized value Lt; / RTI >
  • a coding method such as exponential Golomb coding, CAVLC, or CABAC
  • the CABAC entropy decoding method includes receiving a bean corresponding to each syntax element in a bitstream, decoding decoding target information of the decoding target syntax element, decoding information of a surrounding and decoding target block, or information of a symbol / A context model is determined and an occurrence probability of a bin is predicted according to the determined context model to perform arithmetic decoding of the bean to generate a symbol corresponding to the value of each syntax element have.
  • the CABAC entropy decoding method can update the context model using the information of the decoded symbol / bin for the context model of the next symbol / bean after determining the context model.
  • Information regarding prediction in the information decoded by the entropy decoding unit 310 is provided to the predicting unit 330.
  • the residual value in which the entropy decoding is performed in the entropy decoding unit 310 that is, the quantized transform coefficient, 321).
  • the reordering unit 321 may rearrange the quantized transform coefficients into a two-dimensional block form.
  • the reordering unit 321 can perform reordering in response to the coefficient scanning performed in the encoding apparatus.
  • the rearrangement unit 321 may be a part of the dequantization unit 322, although the rearrangement unit 321 has been described as a separate structure.
  • the inverse quantization unit 322 can dequantize the quantized transform coefficients based on the (inverse) quantization parameter, and output the transform coefficients. At this time, the information for deriving the quantization parameter may be signaled from the encoding device.
  • the inverse transform unit 323 may invert the transform coefficients to derive the residual samples.
  • the prediction unit 330 may predict a current block and may generate a predicted block including prediction samples for the current block.
  • the unit of prediction performed in the prediction unit 330 may be a coding block, a transform block, or a prediction block.
  • the predicting unit 330 may determine whether intra prediction or inter prediction is to be applied based on the prediction information.
  • a unit for determining whether to apply intra prediction or inter prediction may differ from a unit for generating a prediction sample.
  • units for generating prediction samples in inter prediction and intra prediction may also be different.
  • whether inter prediction or intra prediction is to be applied can be determined in units of CU.
  • the prediction mode may be determined in units of PU to generate prediction samples.
  • a prediction mode may be determined in units of PU, and prediction samples may be generated in units of TU.
  • the prediction unit 330 may derive a prediction sample for the current block based on the neighbor reference samples in the current picture.
  • the prediction unit 330 may derive a prediction sample for the current block by applying a directional mode or a non-directional mode based on the neighbor reference samples of the current block.
  • a prediction mode to be applied to the current block may be determined using the intra prediction mode of the neighboring block.
  • the prediction unit 330 may derive a prediction sample for a current block based on a sample specified on a reference picture by a motion vector on the reference picture.
  • the predicting unit 330 may apply a skip mode, a merge mode, or an MVP mode to derive a prediction sample for a current block.
  • motion information necessary for inter-prediction of a current block provided in the video encoding apparatus for example, information on a motion vector, a reference picture index, and the like may be acquired or derived based on the prediction information
  • motion information of a neighboring block can be used as motion information of the current block.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • the predicting unit 330 may construct a merge candidate list using the motion information of the available neighboring blocks and use the information indicated by the merge index on the merge candidate list as the motion vector of the current block.
  • the merge index may be signaled from the encoding device.
  • the motion information may include a motion vector and a reference picture. When the motion information of temporal neighboring blocks is used in the skip mode and the merge mode, the highest picture on the reference picture list can be used as a reference picture.
  • the difference between the predicted sample and the original sample is not transmitted.
  • a motion vector of a current block can be derived using a motion vector of a neighboring block as a motion vector predictor.
  • the neighboring block may include a spatial neighboring block and a temporal neighboring block.
  • a merge candidate list may be generated using a motion vector of the reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block that is a temporally neighboring block.
  • the motion vector of the candidate block selected in the merge candidate list is used as the motion vector of the current block.
  • the prediction information may include a merge index indicating a candidate block having an optimal motion vector selected from the candidate blocks included in the merge candidate list.
  • the predicting unit 330 can derive the motion vector of the current block using the merge index.
  • a motion vector predictor candidate list is generated by using a motion vector of the reconstructed spatial neighboring block and / or a motion vector corresponding to a Col block which is a temporally neighboring block . That is, the motion vector of the reconstructed spatial neighboring block and / or the motion vector corresponding to the neighboring block Col may be used as a motion vector candidate.
  • the information on the prediction may include a predicted motion vector index indicating an optimal motion vector selected from the motion vector candidates included in the list.
  • the predicting unit 330 may use the motion vector index to select a predictive motion vector of the current block from the motion vector candidates included in the motion vector candidate list.
  • the predicting unit of the encoding apparatus can obtain the motion vector difference (MVD) between the motion vector of the current block and the motion vector predictor, and can output it as a bit stream. That is, MVD can be obtained by subtracting the motion vector predictor from the motion vector of the current block.
  • the predicting unit 330 may obtain the motion vector difference included in the information on the prediction, and may derive the motion vector of the current block through addition of the motion vector difference and the motion vector predictor.
  • the prediction unit may also acquire or derive a reference picture index or the like indicating the reference picture from the information on the prediction.
  • the adder 340 may add a residual sample and a prediction sample to reconstruct a current block or a current picture.
  • the adder 340 may add the residual samples and the prediction samples on a block-by-block basis to reconstruct the current picture.
  • the addition unit 340 is described as an alternative configuration, but the addition unit 340 may be a part of the prediction unit 330.
  • the addition unit 340 may be referred to as a restoration unit or a restoration block generation unit.
  • the filter unit 350 may apply deblocking filtering sample adaptive offsets, and / or ALF, etc. to the reconstructed pictures.
  • the sample adaptive offset may be applied on a sample-by-sample basis and may be applied after deblocking filtering.
  • the ALF may be applied after deblocking filtering and / or sample adaptive offsets.
  • the memory 360 may store a reconstructed picture (decoded picture) or information necessary for decoding.
  • the reconstructed picture may be a reconstructed picture in which the filtering procedure has been completed by the filter unit 350.
  • the memory 360 may store pictures used for inter prediction.
  • the pictures used for inter prediction may be designated by a reference picture set or a reference picture list.
  • the reconstructed picture can be used as a reference picture for another picture.
  • the memory 360 may output the restored picture according to the output order.
  • the image decoding method may include entropy decoding, inverse quantization, inverse transform, and intra / inter prediction.
  • an inverse process of the encoding method may be performed.
  • quantized transform coefficients can be obtained through entropy decoding on a bitstream, and a coefficient block, i.e., transform coefficients, of the current block can be obtained through an inverse quantization process on the quantized transform coefficients.
  • a residual block of the current block can be derived through an inverse transformation on the transform coefficients, and a predictive block of the current block derived through intra / inter prediction is added to the residual block of the current block, A reconstructed block can be derived.
  • the transform coefficients of the lower frequency for the residual block of the current block can be derived through the above-described transform, and a zero tail can be derived at the end of the residual block.
  • the transformation may be composed of two main processes, which may include a core transform and a secondary transform.
  • the transform comprising the core transform and the quadratic transform may be referred to as multiple transform techniques.
  • the transform unit may correspond to the transform unit in the encoding apparatus of FIG. 1 described above, and the inverse transform unit may correspond to the inverse transform unit in the encoding apparatus of FIG. 1 or the inverse transform unit in the decoding apparatus of FIG. .
  • the transforming unit may perform a primary transform based on the residual samples (residual sample array) in the residual block to derive (primary) transform coefficients (S510).
  • the first order transformation may comprise Adaptive Multiple Core Transform (AMT).
  • AMT Adaptive Multiple Core Transform
  • MTS Multiple Transform Set
  • the adaptive multi-core transformation may represent a method of additionally using DCT (Discrete Cosine Transform) type 2, DST (Discrete Sine Transform) type 7, DCT type 8, and / or DST type 1. That is, the adaptive multi-core transform is a method of transforming a spatial domain residual signal (or a residual block) based on a plurality of transformation kernels selected from the DCT type 2, the DST type 7, the DCT type 8, and the DST type 1 (Or first order transform coefficients) in the frequency domain.
  • the primary transform coefficients may be referred to as temporary transform coefficients in the transform unit.
  • a transform from a spatial domain to a frequency domain for a residual signal (or a residual block) based on DCT type 2 can be applied to generate transform coefficients.
  • the spatial domain for a residual signal (or residual block) based on DCT type 2, DST type 7, DCT type 8, and / or DST type 1 can be applied to generate the transform coefficients (or the primary transform coefficients).
  • DCT type 2, DST type 7, DCT type 8, and DST type 1 and the like can be called a conversion type, a conversion kernel, or a conversion core.
  • the DCT / DST conversion types can be defined based on basis functions, and the basis functions can be expressed as shown in the following table.
  • a vertical conversion kernel and a horizontal conversion kernel for a target block among the conversion kernels may be selected, and a vertical conversion for the target block is performed based on the vertical conversion kernel ,
  • the horizontal conversion of the target block may be performed based on the horizontal conversion kernel.
  • the horizontal conversion may represent a conversion of horizontal components of the target block
  • the vertical conversion may represent a conversion of vertical components of the target block.
  • the vertical conversion kernel / horizontal conversion kernel may be adaptively determined based on a prediction mode of a target block (CU or sub-block) encompassing a residual block and / or a conversion index indicating a conversion subset.
  • the adaptive multi-core transformation may be applied when both the width and the height of the target block are less than or equal to 64, and whether the adaptive multi-core transformation of the target block is applied May be determined based on the CU level flag.
  • the existing conversion method described above can be applied. That is, when the CU level flag is 0, a transform from a spatial domain to a frequency domain is applied to a residual signal (or a residual block) based on the DCT type 2 to generate transform coefficients, The coefficients can be encoded.
  • the target block may be a CU. If the CU level flag is 0, the adaptive multi-core transform can be applied to the target block.
  • AMT_TU_vertical_flag (or EMT_TU_vertical_flag) may represent a syntax element of the AMT vertical flag.
  • AMT_TU_horizontal_flag (or EMT_TU_horizontal_flag) may denote a syntax element of the AMT horizontal flag.
  • the AMT vertical flag may indicate one of the transform kernel candidates included in the transform subset for the vertical transform kernel, and the transform kernel candidate indicated by the AMT vertical flag may be derived as a vertical transform kernel for the target block .
  • the AMT horizontal flag may indicate one of the transform kernel candidates included in the transform subset for the horizontal transform kernel, and the transform kernel candidate pointed to by the AMT horizontal flag may include a horizontal transform kernel for the target block, . ≪ / RTI > Meanwhile, the AMT vertical flag may be referred to as an MTS vertical flag, and the AMT horizontal flag may be referred to as an MTS horizontal flag.
  • three transform subsets may be predefined, and one of the transform subsets may be derived as a transform subsets for the vertically transformed kernel based on the intra prediction mode applied to the target block. Also, one of the transform subsets may be derived as a transformed subset for the horizontal transform kernel based on an intra prediction mode applied to the target block.
  • the predetermined transform subsets may be derived as shown in the following table.
  • a transform subset having an index value of 0 can represent a transform subset including DST type 7 and DCT type 8 as conversion candidate candidates
  • a transform subset having an index value of 1 can represent DST type 7 and DST type 1 May represent the transform subsets included as candidate transform kernels
  • the transform subsets with index value two may represent transform subsets that include DST type 7 and DCT type 8 as transform kernel candidates.
  • the transformed subset for the vertically transformed kernel derived based on the intra prediction mode applied to the target block and the transformed subset for the transformed kernel can be derived as shown in the following table.
  • V represents the transform subsets for the vertically transformed kernels and H represents the transform subsets for the horizontal transform kernels.
  • the transformed subset for the vertically transformed kernel and the transformed subset for the transformed kernel based on the intra- A transform subset can be derived. Thereafter, the transformed kernel candidate pointed to by the AMT vertical flag of the target block among the transformed kernel candidates included in the transformed subset for the vertically transformed kernel may be derived as a vertically transformed kernel of the target block, The transform kernel candidate indicated by the AMT horizontal flag of the target block among the transform kernel candidates included in the transform subset may be derived as a horizontal transform kernel of the target block.
  • the AMT flag may be referred to as an MTS flag.
  • the intra-prediction mode includes two non-directional (non-angular) intra prediction modes and 65 directional (or angular) intra prediction modes Lt; / RTI >
  • the non-directional intra-prediction modes may include a planar intra-prediction mode and a 1-DC intra-prediction mode, and the directional intra-prediction modes may include 65 intra-prediction modes 2 to 66 .
  • the present invention can be applied to a case where the number of intra prediction modes is different.
  • the intra prediction mode # 67 may be further used, and the intra prediction mode # 67 may be a linear mode (LM) mode.
  • LM linear mode
  • FIG. 6 exemplarily shows intra-directional modes of 65 prediction directions.
  • an intra-prediction mode having horizontal directionality and an intra-prediction mode having vertical directionality can be distinguished from the intra-prediction mode # 34 having the left upward diagonal prediction direction.
  • H and V in FIG. 6 indicate the horizontal direction and the vertical direction, respectively, and the numbers from -32 to 32 indicate displacements of 1/32 unit on the sample grid position.
  • the intra-prediction modes 2 to 33 have a horizontal direction, and the intra-prediction modes # 34 to # 66 have a vertical direction.
  • the intra prediction mode 18 and the intra prediction mode 50 respectively represent a horizontal intra prediction mode and a vertical intra prediction mode
  • a second intra prediction mode is a left downward diagonal intra prediction mode
  • the intra prediction mode 34 is referred to as a left upward diagonal intra prediction mode
  • the intra prediction mode 66 is referred to as a right upward diagonal intra prediction mode.
  • the transform unit may perform the quadratic transform based on the (primary) transform coefficients to derive the (secondary) transform coefficients (S520). If the first order transformation is a spatial domain to a frequency domain transformation, the second order transformation can be regarded as a frequency domain to frequency domain transformation.
  • the quadratic transformation may include a non-separable transform. In this case, the quadratic transformation may be called a non-separable secondary transform (NSST) or a mode-dependent non-separable secondary transform (MDNSST).
  • the non-separable quadratic transformation transforms the (primary) transform coefficients derived through the primary transformation on the basis of a non-separable transform matrix and transforms the transform coefficients for the residual signal Gt; < / RTI > second order transform coefficients).
  • the non-separable quadratic transformation generates the transform coefficients (or the second-order transform coefficients) by transforming them together without separating the vertical component and the horizontal component of the (primary) transform coefficients based on the non- Can be represented.
  • the non-isolated quadratic transformation can be applied to the top-left region of a block composed of (primary) transform coefficients (hereinafter referred to as a transform coefficient block or a target block).
  • the 8 ⁇ 8 non-separable quadratic transform is applied to the upper left 8 ⁇ 8 region (hereinafter referred to as upper left target region) Lt; / RTI >
  • upper left target region Lt
  • RTI &gt the width W and the height H of the conversion coefficient block are both 4 or more and the width W or height H of the conversion coefficient block is smaller than 8
  • the transform can be applied to the upper left corner min (8, W) x min (8, H) region of the transform coefficient block.
  • the non-separating quadratic transformation can be performed as follows.
  • the 4x4 input block X may be expressed as follows.
  • the quadratic non-separable conversion can be calculated as follows.
  • T represents a 16x16 (non-separating) transformation matrix
  • the 16 ⁇ 1 transform coefficient vector Can be derived May be re-organized into 4x4 blocks through scan orders (horizontal, vertical, diagonal, etc.).
  • the above calculation may be used for calculating the non-separating quadratic transformation, for example, HyperCube-Givens Transform (HyGT) to reduce the computational complexity of the non-separating quadratic transformation.
  • HyGT HyperCube-Givens Transform
  • the non-separation quadratic transformation may be a mode-dependent transform kernel (or a transform core, transform type).
  • the mode may comprise an intra prediction mode and / or an inter prediction mode.
  • the non-separable quadratic transformation can be performed based on the 8x8 transform or the 4x4 transform determined based on the width (W) and the height (H) of the transform coefficient block. That is, the non-separation secondary conversion may be performed based on an 8x8 sub-block size or a 4x4 sub-block size.
  • the mode-based transform kernel selection 35 sets of three non-isolated quadratic transformation kernels for non-quadratic quadratic transforms for both the 8x8 subblock size and the 4x4 subblock size Lt; / RTI > That is, 35 transform sets are configured for an 8x8 sub-block size, and 35 transform sets for a 4x4 sub-block size.
  • each of the 35 transform sets for the 8x8 sub-block size may include three 8x8 transform kernels, in which case each of the 35 transform sets for the 4x4 sub- 4 conversion kernels may be included.
  • the transformed sub-block size, the number of sets and the number of transform kernels in the set may be, for example, a size other than 8x8 or 4x4, or n sets may be constructed, and k Conversion kernels may also be included.
  • the transform set may be referred to as an NSST set, and the transform kernel in the NSST set may be referred to as an NSST kernel. Selection of a particular set of transform sets may be performed based on, for example, an intra prediction mode of a target block (CU or sub-block).
  • mapping between the 35 transform sets and the intra prediction modes may be represented as shown in the following table, for example.
  • the second transformation may not be applied to the target block.
  • one of k transform kernels in the particular set may be selected via the non-separating quadratic transform index.
  • the encoding apparatus can derive a non-separating quadratic conversion index indicating a specific conversion kernel based on a rate-distortion (RD) check, and signaling the non-separating quadratic conversion index to the decoding apparatus.
  • the decoding device may select one of k transform kernels in a particular set based on the non-separating quadratic transform index.
  • an NSST index value of 0 may indicate the first non-isolated secondary transformation kernel
  • an NSST index value of 1 may point to a second non-isolated secondary transformation kernel
  • an NSST index value of 2 may point to a third non- Lt; / RTI >
  • an NSST index value of 0 may indicate that the first non-separating quadratic transformation is not applied to the target block
  • the NSST index values 1 to 3 may indicate the three transform kernels.
  • the transforming unit may perform the non-separating quadratic transform based on the selected transform kernels and obtain (second) transform coefficients.
  • the transform coefficients may be derived as transform coefficients quantized through the quantizer as described above, encoded and transmitted to the inverse quantization / inverse transformer in the signaling and encoding device to the decoding device.
  • the (primary) transform coefficients which are the outputs of the primary transform (separation) can be derived as the transform coefficients quantized through the quantization section as described above, To the inverse quantization / inverse transformer in the signaling and encoding apparatus.
  • the inverse transform unit may perform a series of procedures in the reverse order of the procedure performed in the transform unit.
  • the inverse transform unit receives the transform coefficients (dequantized), performs the quadratic transformation to derive the transform coefficients from the quadratic transform coefficients, Conversion can be performed to obtain a residual block (residual samples).
  • the primary transform coefficients may be referred to as modified transform coefficients in the inverse transform unit.
  • the encoding apparatus and the decoding apparatus generate the restored block based on the residual block and the predicted block, and generate the restored picture based on the restored block.
  • the transform coefficients (inversely quantized) are received and the primary (decoupled) transform is performed to obtain the residual block (residual samples) .
  • the encoding apparatus and the decoding apparatus generate the restored block based on the residual block and the predicted block, and generate the restored picture based on the restored block.
  • the above-described non-separating quadratic transformation may not be applied to the block coded in the conversion skip mode.
  • the non-segregated quadratic transformation may not be applied to the block coded in the transform skip mode in the target CU .
  • the target CU including blocks of all the components luma component, chroma component, etc.
  • the NSST index may not be signaled.
  • the coding process of concrete transform coefficients is as follows.
  • FIGS. 7A and 7B are flowcharts illustrating a coding process of a transform coefficient according to an embodiment.
  • FIGS. 7A and 7B can be performed by the encoding apparatus 100 or the decoding apparatus 300 disclosed in FIGS. 1 and 3, and more specifically, the entropy encoding unit 130 and the entropy encoding unit 130 disclosed in FIG. May be performed by the entropy decoding unit 310 disclosed in FIG. Therefore, detailed description overlapping with the above-described contents in FIG. 1 or FIG. 3 will be omitted or simplified.
  • FIG. 7A shows a process of encoding a transform coefficient.
  • the encoding apparatus 100 may determine whether a flag indicating whether at least one non-zero transform coefficient among the transform coefficients for the target block exists indicates 1 (S700). When the flag indicating whether or not at least one non-zero transform coefficient exists among the transform coefficients for the target block indicates 1, at least one non-zero transform coefficient among the transform coefficients for the target block may exist. Conversely, when the flag indicating whether at least one non-zero transform coefficient among the transform coefficients for the target block exists indicates 0, the transform coefficients for the target block may represent all zeros.
  • the flag indicating whether or not at least one non-zero conversion coefficient among the conversion coefficients for the target block is present may be represented by, for example, a cbf flag.
  • the cbf flag may include cbf_luma [x0] [y0] [trafoDepth] for the luma block and cbf_cb [x0] [y0] [trafoDepth] and cbf_cr [x0] [y0] [trafoDepth] flags for the chroma block.
  • the array indices x0 and y0 indicate the positions of the upper left luma / chroma samples of the target block with respect to the top-left luma / chroma samples of the current picture
  • the array index trafoDepth indicates the positions of the left- It can mean divided levels.
  • the blocks with the trafoDepth indicating 0 correspond to the coding blocks, and if the coding blocks and the transform blocks are defined identically, the trafoDepth can be regarded as 0.
  • the encoding apparatus 100 sets the transform coefficients for the target block May be encoded (S710).
  • the information on the transform coefficients for the target block includes, for example, information on the position of the last non-zero transform coefficient, group flag information indicating whether the non-zero transform coefficient is included in the subgroup of the target block, And information on the coefficient. A detailed description of each piece of information will be given later.
  • the encoding apparatus 100 may determine whether it is a condition for performing NSST (S720). More specifically, the encoding apparatus 100 can determine whether or not it meets the condition for encoding the NSST index.
  • the NSST index may be referred to as a transform index, for example.
  • the encoding apparatus 100 may encode the NSST index (S730). More specifically, the encoding apparatus 100 can encode the NSST index if it is determined that the condition is satisfied to encode the NSST index.
  • the encoding apparatus 100 performs the process of S710, S720, and S730 The operation can be omitted.
  • the encoding apparatus 100 may skip operation in operation S730.
  • FIG. 7B shows a decoding process of the transform coefficients.
  • the decoding apparatus 300 may determine whether a flag indicating whether at least one non-zero transform coefficient among the transform coefficients for the target block exists indicates 1 (S740). When the flag indicating whether or not at least one non-zero transform coefficient exists among the transform coefficients for the target block indicates 1, at least one non-zero transform coefficient among the transform coefficients for the target block may exist. Conversely, when the flag indicating whether at least one non-zero transform coefficient among the transform coefficients for the target block exists indicates 0, the transform coefficients for the target block may represent all zeros.
  • the decoding apparatus 300 calculates the transform coefficients (S750). ≪ / RTI >
  • the decoding apparatus 300 can determine whether the condition for performing NSST is satisfied (S760). More specifically, the decoding apparatus 300 can determine whether the NSST index corresponds to a condition for decoding from the bitstream.
  • step S760 If it is determined in step S760 that the condition for performing the NSST is satisfied, the decoding apparatus 300 according to the embodiment may decode the NSST index (step S770).
  • the decoding apparatus 300 may perform the process of steps S750, S760, and S770 The operation can be omitted.
  • step S760 if it is determined in step S760 that the condition for performing the NSST does not correspond to the condition for performing the NSST, the decoding apparatus 300 according to the embodiment may skip the operation according to step S770.
  • the present invention proposes various NSST index coding methods.
  • the NSST index range may be determined based on a specific condition.
  • a range of values of the NSST index can be determined based on a specific condition.
  • the maximum value of the NSST index can be determined based on the specific condition.
  • the range of values of the NSST index can be determined based on the block size.
  • the block size may be defined as a minimum (W, H).
  • W may represent a width
  • H may represent a height.
  • the range of the value of the NSST index can be determined by comparing the width of the target block with the W, and comparing the height of the target block with the minimum H.
  • the block size may be defined as (W * H) which is the number of samples of the block.
  • the range of the value of the NSST index can be determined by comparing W * H, which is the number of samples of the target block, with a specific value.
  • the range of the value of the NSST index can be determined based on, for example, a shape of a block, i.e., a block type.
  • the block type may be defined as a square block or a non-square block.
  • the range of values of the NSST index can be determined based on whether the target block is a square block or a non-square block.
  • the block type can be defined as a ratio of a long side of the block (long side of the width and height) to a short side.
  • the range of the value of the NSST index can be determined through comparison between the ratio of the long side and the short side of the target block and a preset threshold value (for example, 2 or 3).
  • the ratio may represent a value obtained by dividing the long side by the short side.
  • the range of values of the NSST index may be determined by comparing the width divided by the height and the predetermined threshold.
  • the range of the value of the NSST index can be determined by comparing the value obtained by dividing the height by the width and the preset threshold value.
  • a range of values of the NSST index can be determined based on an intra prediction mode applied to a block.
  • the range of values of the NSST index may be determined based on whether the intra prediction mode applied to the target block is a non-directional intra prediction mode or a directional intra prediction mode.
  • the range of the value of the NSST index may be determined based on whether the intra prediction mode applied to the target block is an intra prediction mode included in the category A (category A) or the category B (category B) .
  • the category A may include a second intra prediction mode, a 10th intra prediction mode, an 18th intra prediction mode, a 26th intra prediction mode, a 34th intra prediction mode, a 42th intra prediction mode, , 58 intra prediction mode, and 66 intra prediction mode
  • the category B may include intra prediction modes other than the intra prediction mode included in the category A.
  • the intra prediction mode included in the category A may be preset, and the category A and the category B may be set to include an intra prediction mode different from the example described above.
  • the range of values of the NSST index may be determined based on the AMT factor of the block.
  • the AMT factor may be referred to as an MTS factor.
  • the AMT factor may be defined by the AMT flag described above.
  • the range of the value of the NSST index may be determined based on the value of the AMT flag of the target block.
  • the AMT factor may be defined by the AMT vertical flag and / or the AMT horizontal flag described above.
  • the range of the value of the NSST index may be determined based on the value of the AMT vertical flag and / or the AMT horizontal flag of the target block.
  • the AMT factor may be defined as a transform kernel applied in a multi-core transform.
  • the range of the value of the NSST index can be determined based on the transform kernel applied in the multi-core transform of the target block.
  • the range of values of the NSST index may be determined based on the components of the block. For example, the range of the value of the NSST index for the luma block of the target block and the range of the value of the NSST index for the chroma block of the target block may be different from each other.
  • the range of the value of the NSST index may be determined based on the combination of the above-described specific conditions.
  • the range of the value of the NSST index determined based on the specific condition, that is, the maximum value of the NSST index may be variously set.
  • the maximum value of the NSST index based on the specific condition may be determined as R1, R2, or R3. Specifically, when the specific condition corresponds to the category A, the maximum value of the NSST index may be derived as R1, and when the specific condition corresponds to the category B, the maximum value of the NSST index may be derived as R2 And if the specific condition corresponds to category C, the maximum value of the NSST index can be derived as R3.
  • R1 for the category A, R2 for the category B, and R3 for the category C can be derived as shown in the following table.
  • the R1, R2, and R3 may be pre-set.
  • the relationship between R1, R2, and R3 may be derived as the following equation.
  • R1 may be greater than or equal to 0, R2 may be greater than R1, and R3 may be greater than R2. Meanwhile, if R1 is 0 and the maximum value of the NSST index for the target block is determined as R1, the NSST index may not be signaled and the NSST index value may be inferred to be 0 .
  • NSST when NSST is applied, the distribution of the non-zero transform coefficients among the transform coefficients can be changed.
  • RST reduced secondary transform
  • the RST may represent a quadratic transformation using a simplified transformation matrix as a non-separation transformation matrix
  • the simplified transformation matrix may be an R-dimensional vector in which an N-dimensional vector is located in another space, , Where R is less than N.
  • RTI ID 0.0 &gt
  • the N may mean the length of one side of the block to which the transformation is applied or the total number of transform coefficients corresponding to the block to which the transformation is applied
  • the simplification factor may mean an R / N value.
  • the simplification factor may be referred to by various terms such as a reduced factor, a reduction factor, a reduced factor, a simplified factor, and a simple factor.
  • R may be referred to as a reduced coefficient, but in some cases the simplification factor may also mean R. [ In some cases, the simplification factor may also mean an N / R value.
  • the size of the simplified transformation matrix according to an embodiment is RxN smaller than the size NxN of the normal transformation matrix and can be defined as Equation (5) below.
  • the transform coefficient of R + 1 to N can implicitly become 0 since the simplification transform matrix of RxN size is applied to the quadratic transform.
  • the value of the transform coefficient from R + 1 to N may be zero.
  • the transform coefficients from R + 1 to N may represent an Nth transform coefficient from the (R + 1) th transform coefficient among the transform coefficients.
  • the arrangement of the transform coefficients of the target block can be described as follows.
  • FIG. 8 is a diagram for explaining the arrangement of transform coefficients based on a target block according to an embodiment of the present invention.
  • the description of the transform described below in Fig. 8 can be applied to the inverse transform as well.
  • an NSST an example of a secondary transformation
  • a simplified transformation can be performed.
  • the 16x16 block shown in FIG. 8 represents the target block 800
  • the 4x4 blocks labeled A through P may represent the subgroup of the target block 800.
  • the primary transformation can be performed over the entire range of the object block 800 and after the primary transformation is performed, the NSST is applied to the 8x8 block (hereinafter referred to as the upper left target region) constituted by the subgroups A, B, E and F .
  • the NSST based on the simplified transform is performed, only the NSST transform coefficients of R (where R represents the simplification coefficient and R is smaller than N) are derived, The transform coefficients may be determined to be 0, respectively.
  • the primary transform coefficients on which the NSST is not performed based on the simplified transform are allocated to the respective blocks included in the subgroups C, D, G, H, I, J, K, L, M, N, .
  • FIG. 9 shows an example of scanning R + 1 to N conversion coefficients.
  • a 16x64 size simplified transformation matrix may be applied to the quadratic transformation of 64 samples of the upper left target region of the target block.
  • the value of the conversion coefficient from 17 to 64 (N) should be zero.
  • the RST is not applied and the value of the NSST index is derived as zero without additional signaling .
  • the decoding apparatus can decode the transform coefficients of the target block, scan the transform coefficients from 17 to 64 among the transform coefficients, and when a non-zero transform coefficient is derived, The value of the NSST index can be derived as 0 without signaling the syntax element. On the other hand, if there is no non-zero transform coefficient among the transform coefficients from 17 to 64, the decoding apparatus can receive and decode the NSST index.
  • 10A and 10B are flowcharts illustrating a coding process of an NSST index according to an embodiment.
  • FIG. 10A shows an encoding process of the NSST index.
  • the encoding apparatus can encode a transform coefficient for a target block (S1000).
  • the encoding device may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may include, for example, an encoding method such as exponential Golomb, context-adaptive variable length coding (CAVLC), context-adaptive binary arithmetic coding (CABAC)
  • the encoding apparatus can determine whether an (explicit) NSST index for the target block is coded (S1010).
  • the explicit NSST index may represent an NSST index transmitted to the decoding apparatus. That is, the encoding apparatus can determine whether to generate the NSST index to be signaled. In other words, the encoding device can determine whether to allocate bits for a syntax element for the NSST index. If the decoding apparatus can derive the value of the NSST index even though the NSST index is not signaled as in the above-described embodiment, the encoding apparatus may not code the NSST index. A specific procedure for determining whether or not the NSST index is coded will be described later.
  • the encoding apparatus can encode the NSST index (S1020).
  • FIG. 10B shows a decoding process of the NSST index.
  • the decoding apparatus may decode the transform coefficients for the target block (S1030).
  • the decoding apparatus may determine whether an (explicit) NSST index for the target block is coded (S1040).
  • the explicit NSST index may indicate an NSST index signaled from the encoding device.
  • the NSST index may not be signaled from the encoding apparatus if the decoding apparatus can derive the value of the NSST index even though the NSST index is not signaled as in the above embodiment.
  • a specific procedure for determining whether or not the NSST index is coded will be described later.
  • the encoding apparatus may decode the NSST index (S1040).
  • FIG. 11 shows an example of determining whether the NSST index is coded.
  • the encoding apparatus / decoding apparatus can determine whether the condition for coding the NSST index for the target block is met (S1100). For example, when the cbf flag for the target block indicates 0, the encoding apparatus / decoding apparatus can determine that the NSST index for the target block is not coded. Alternatively, when the target block is coded in the conversion skip mode or when the number of non-zero transform coefficients among the transform coefficients for the target block is smaller than a predetermined threshold value, the encoding device / It can be determined that the NSST index is not coded.
  • the predetermined threshold may be 2.
  • the encoding / decoding apparatus may scan the transform coefficients R + 1 to N (S1110).
  • the R + 1 to N transform coefficients may represent R + 1th to Nth transform coefficients in the scan order among the transform coefficients.
  • the encoding apparatus / decoding apparatus can determine whether a non-zero transform coefficient among the transform coefficients from R + 1 to N is derived (S1120). When a non-zero transform coefficient among the transform coefficients from R + 1 to N is derived, the encoding apparatus / decoding apparatus can determine that the NSST index for the target block is not coded. In this case, the encoding apparatus / decoding apparatus can derive the value of the NSST index for the target block by zero. In other words, for example, if the NSST index with a value of 0 indicates that the NSST is not applied, the encoding device / decoding device may not perform the NSST on the upper left target area of the target block.
  • the encoding apparatus can encode the NSST index of the target block, and the decoding apparatus can perform NSST The index can be decoded.
  • a method of using the NSST index common to the components (luma component, chroma Cb component, chroma Cr component) of the target block may be proposed.
  • the same NSST index may be used for the chroma Cb block of the target block and the chroma Cr block of the target block.
  • the same NSST index may be used for the luma block of the target block, the chroma Cb block of the target block, and the chroma Cr block of the target block.
  • the encoding apparatus calculates R + 1 to N transform coefficients of all components (luma block of the target block, chroma Cb block, chroma Cr block) If at least one non-zero transform coefficient is derived, the value of the NSST index can be derived as 0 without encoding the NSST index. Further, the decoding apparatus can scan R + 1 to N transform coefficients of all components (luma block, chroma Cb block, chroma Cr block of the target block), and when at least one non-zero transform coefficient is derived , It is possible to derive the value of the NSST index as 0 without decoding the NSST index.
  • 12 shows the upper left target region of the luma block, the upper left target region of the chroma Cb block, and the upper left target region of the chroma Cr block. Therefore, a 16x64 size simplified transformation matrix may be applied to the quadratic transformation of 64 samples of each of the upper left target region of the luma block, the upper left target region of the chroma Cb block, and the upper left target region of the chroma Cr block.
  • the values of the conversion coefficients from 17 to 64 (N) Should be zero.
  • the RST is not applied and the value of the NSST index can be derived as zero without additional signaling have.
  • the decoding apparatus can decode the transform coefficients for all components of the object block, scan the transform coefficients of the luma block, the chroma Cb block, and the chroma Cr block of the decoded transform coefficients from 17 to 64 , If a non-zero transform coefficient is derived, the value of the NSST index can be derived as 0 without signaling of a separate syntax element to the NSST index. On the other hand, if there is no non-zero transform coefficient among the transform coefficients from 17 to 64, the decoding apparatus can receive and decode the NSST index.
  • the NSST index may be used as an index for the luma block, the chroma Cb block, and the chroma Cr block.
  • the NSST_Idx_indicator may indicate a syntax element for the NSST index indicator.
  • the NSST index indicator may be coded with a CTU (Coding Tree Unit) level, and the NSST index indicator may indicate whether NSST is applied to the target CTU. That is, the NSST index indicator may indicate whether NSST is available in the target CTU.
  • the NSST index indicator for the target CTU is enabled (when the NSST is available in the target CTU), that is, when the value of the NSST index indicator is 1, the CU Or an NSST index for TU may be coded.
  • the NSST index indicator for the target CTU When the NSST index indicator for the target CTU is not activated (when the NSST is not available in the target CTU), that is, when the value of the NSST index indicator is 0, the CU or TU included in the target CTU
  • the NSST index may not be coded.
  • the NSST index indicator may be coded at the CTU level as described above, or may be coded at a sample group level of any other size.
  • the NSST index indicator may be coded with a CU (Coding Unit) level.
  • FIG. 13 schematically shows an image encoding method by the encoding apparatus according to the present invention.
  • the method disclosed in Fig. 13 can be performed by the encoding apparatus disclosed in Fig.
  • S1300 of FIG. 13 may be performed by the subtraction unit of the encoding apparatus
  • S1310 may be performed by the transform unit of the encoding apparatus
  • S1320 through S1330 may be performed by the entropy encoding unit of the encoding apparatus.
  • a process of deriving a prediction sample may be performed by the predicting unit of the encoding apparatus.
  • the encoding apparatus derives residual samples of the target block (S1300). For example, the encoding apparatus can determine whether to perform inter prediction or intra prediction on a target block, and determine a specific inter prediction mode or a specific intra prediction mode based on the RD cost. According to the determined mode, the encoding apparatus can derive prediction samples for the target block, and derive the residual samples through addition of the original samples with respect to the target block and the prediction samples.
  • the encoding apparatus converts the residual samples to derive transform coefficients of the target block (S1310).
  • the encoding apparatus can determine whether NSST is applied to the target block.
  • the encoding device can perform the core transformation on the residual samples to derive the modified transform coefficients, and based on the simplified transformation matrix,
  • the transform coefficients of the target block may be derived by performing NSST on the transform coefficients.
  • the modified transform coefficients other than the modified transform coefficients located in the left upper end region of the target block may be directly derived as the transform coefficients of the target block.
  • the size of the simplified transformation matrix may be RxN, N may be a number of samples of the upper left target region, R may be a reduced coefficient, and R may be smaller than N.
  • the core transformation of the residual samples may be performed as follows.
  • the encoding apparatus may determine whether to apply adaptive multiple core transform (AMT) to the target block.
  • AMT adaptive multiple core transform
  • an AMT flag indicating whether or not the adaptive multi-core transform of the target block is applied may be generated. If the AMT is not applied to the target block, the encoding apparatus can derive DCT type 2 as a transform kernel for the target block, perform conversion on the residual samples based on the DCT type 2
  • the modified transform coefficients can be derived.
  • the encoding device may configure a transform subset for the horizontal transform kernel and a transform subset for the vertical transform kernel, and derive a horizontal transform kernel and a vertical transform kernel based on the transform subsets And may convert the residual samples based on the horizontal conversion kernel and the vertical conversion kernel to derive the modified conversion coefficients.
  • the transformed subset for the horizontal transform kernel and the transformed subset for the vertically transformed kernel may include DCT type 2, DST type 7, DCT type 8, and / or DST type 1 as candidates.
  • conversion index information may be generated, and the conversion index information may include an AMT horizontal flag indicating the horizontal conversion kernel and an AMT vertical flag indicating the vertical conversion kernel.
  • the conversion kernel may be called a conversion type or a conversion core.
  • the encoding device may perform a core transformation on the residual samples to derive the transform coefficients of the target block.
  • the core transformation of the residual samples may be performed as follows.
  • the encoding apparatus may determine whether to apply adaptive multiple core transform (AMT) to the target block.
  • AMT adaptive multiple core transform
  • an AMT flag indicating whether or not the adaptive multi-core transform of the target block is applied may be generated. If the AMT is not applied to the target block, the encoding apparatus can derive DCT type 2 as a transform kernel for the target block, perform conversion on the residual samples based on the DCT type 2
  • the transform coefficients can be derived.
  • the encoding device may configure a transform subset for the horizontal transform kernel and a transform subset for the vertical transform kernel, and derive a horizontal transform kernel and a vertical transform kernel based on the transform subsets And convert the residual samples based on the horizontal conversion kernel and the vertical conversion kernel to derive the transform coefficients.
  • the transformed subset for the horizontal transform kernel and the transformed subset for the vertically transformed kernel may include DCT type 2, DST type 7, DCT type 8, and / or DST type 1 as candidates.
  • conversion index information may be generated, and the conversion index information may include an AMT horizontal flag indicating the horizontal conversion kernel and an AMT vertical flag indicating the vertical conversion kernel.
  • the conversion kernel may be called a conversion type or a conversion core.
  • the encoding apparatus determines whether the NSST index is encoded (S1320).
  • the encoding apparatus may scan the (R + 1) -th to N-th transform coefficients among the transform coefficients of the target block, and may include a non-zero transform coefficient in the (R + 1) , It can be determined not to encode the NSST index.
  • N is the number of samples of the upper left target region
  • R is a reduced coefficient
  • R may be smaller than N.
  • the N may be derived as a product of a width and a height of the upper left target region.
  • the encoding apparatus may determine to encode the NSST index.
  • the information on the transform coefficients may include a syntax element for the NSST index. That is, the syntax element for the NSST index may be encoded. In other words, a bit for a syntax element for the NSST index may be allocated.
  • the encoding apparatus can determine whether the NSST can be performed, and if the NSST can be performed, the encoding apparatus can determine to encode the NSST index for the target block.
  • an NSST index indicator for a target CTU including the target block may be generated from a bitstream, and the NSST index indicator may indicate whether NSST is applied to the target CTU. If the value of the NSST index indicator is 1, the encoding apparatus can determine to encode the NSST index for the target block. If the value of the NSST index indicator is 0, the decoding apparatus calculates the NSST index As shown in FIG.
  • the NSST index indicator may be signaled to the CTU level, or the NSST index indicator may be signaled to the CU level or other higher level, as in the example described above.
  • the NSST index may be used for a plurality of components of the target block.
  • the NSST index may be used for transform coefficients of a luma block of the target block, transform coefficients of a chroma Cb block, and inverse transform coefficients of a chroma Cr block.
  • R + 1 th to N th transform coefficients of the luma block, R + 1 th to N th transform coefficients of the chroma Cb block, and R + 1 th to N th transforms of the chroma Cr block If the coefficients can be scanned and the non-zero transform coefficient is included in the scanned transform coefficients, the NSST index can be determined to be unencoded.
  • the NSST index may be determined to be encoded.
  • the information on the transform coefficients may include a syntax element for the NSST index. That is, the syntax element for the NSST index may be encoded. In other words, a bit for a syntax element for the NSST index may be allocated.
  • the NSST index may be used for transform coefficients of the luma block of the target block and the transform coefficients of the chroma Cb block.
  • the (R + 1) th to Nth transform coefficients of the luma block and the (R + 1) th to Nth transform coefficients of the chroma Cb block may be scanned, If the transform coefficient is included, the NSST index may be determined to not be encoded. If the non-zero transform coefficient is not included in the scanned transform coefficients, the NSST index may be determined to be encoded.
  • the information on the transform coefficients may include a syntax element for the NSST index. That is, the syntax element for the NSST index may be encoded. In other words, a bit for a syntax element for the NSST index may be allocated.
  • the NSST index may be used for transform coefficients of the luma block of the target block and the transform coefficients of the chroma Cr block.
  • the (R + 1) th to Nth transform coefficients of the luma block and the (R + 1) th to Nth transform coefficients of the chroma Cr block may be scanned, If the transform coefficient is included, the NSST index may be determined to not be encoded. If the non-zero transform coefficient is not included in the scanned transform coefficients, the NSST index may be determined to be encoded.
  • the information on the transform coefficients may include a syntax element for the NSST index. That is, the syntax element for the NSST index may be encoded. In other words, a bit for a syntax element for the NSST index may be allocated.
  • a range of NSST indices can be derived based on a specific condition.
  • the maximum value of the NSST index may be derived based on the specific condition, and the range may be derived from 0 to the derived maximum value.
  • the value of the derived NSST index may be included in the range.
  • the range of the NSST index may be derived based on the size of the target block.
  • the minimum width and the minimum height may be preset, and the range of the NSST index may be derived based on the width and the minimum width of the target block, the height of the target block, and the minimum height.
  • the range of the NSST index can be derived based on the number of samples and the specific value of the target block. The number of samples may be a value obtained by multiplying a width of the target block by a height, and the specific value may be preset.
  • the range of the NSST index may be derived based on the type of the target block. Specifically, the range of the NSST index can be derived based on whether the target block is a non-square block. Also, the range of the NSST index can be derived based on the ratio between the width and height of the target block and the specific value. The ratio between the width and height of the target block may be a value obtained by dividing the longer side of the width and height of the target block by the shorter side, and the specific value may be set in advance.
  • the range of the NSST index can be derived based on the intra prediction mode of the target block. Specifically, the range of the NSST index can be derived based on whether the intra-prediction mode of the target block is a non-directional intra-prediction mode or a directional intra-prediction mode. In addition, the range of the NSST index may be derived based on whether the intra prediction mode of the target block is an intra prediction mode included in the category A (category A) or the category B (category B). Here, the intra-prediction mode included in the category A and the intra-prediction mode included in the category B may be preset.
  • the category A may include a second intra prediction mode, a 10th intra prediction mode, an 18th intra prediction mode, a 26th intra prediction mode, a 34th intra prediction mode, a 42th intra prediction mode, An intra prediction mode and a 66th intra prediction mode
  • the category B may include intra prediction modes other than the intra prediction mode included in the category A.
  • the range of the NSST index may be derived based on information on a core transform of the target block.
  • the range of the NSST index may be derived based on an AMT flag indicating whether Adaptive Multiple Core Transform (AMT) is applied.
  • AMT Adaptive Multiple Core Transform
  • the range of the NSST index can be derived based on the AMT horizontal flag indicating the horizontal conversion kernel and the AMT vertical flag indicating the vertical conversion kernel.
  • the NSST index may indicate that the NSST is not applied to the target block.
  • the encoding apparatus encodes information on the transform coefficients (S1330).
  • the information on the transform coefficients may include information on the size, position, and the like of the transform coefficients.
  • the information on the transform coefficients may further include the NSST index, the transform index information, and / or the AMT flag.
  • the image information including information on the transform coefficients may be output in the form of a bit stream.
  • the image information may further include the NSST index indicator and / or prediction information.
  • the prediction information may include prediction mode information and information on motion information (e.g., when inter prediction is applied) as information related to the prediction procedure.
  • the output bitstream may be transferred to a decoding device via a storage medium or a network.
  • FIG. 14 schematically shows an encoding apparatus for performing a video encoding method according to the present invention.
  • the method disclosed in Fig. 13 can be performed by the encoding apparatus disclosed in Fig.
  • the adding unit of the encoding apparatus of FIG. 14 may perform S1300 of FIG. 13
  • the converting unit of the encoding apparatus may perform S1310
  • the entropy encoding unit of the encoding apparatus may perform S1320 of FIG. S1330 can be performed.
  • a process of deriving a prediction sample may be performed by the predicting unit of the encoding apparatus.
  • FIG. 15 schematically shows a video decoding method by a decoding apparatus according to the present invention.
  • the method disclosed in Fig. 15 can be performed by the decoding apparatus disclosed in Fig.
  • S15400 to S1510 in FIG. 15 may be performed by an entropy decoding unit of the decoding apparatus
  • S1520 may be performed by an inverse transform unit of the decoding apparatus
  • S1530 may be performed by an adding unit of the decoding apparatus.
  • a process of deriving a predictive sample may be performed by a predicting unit of the decoding apparatus.
  • the decoding apparatus derives transform coefficients of the target block from the bitstream (S1500).
  • the decoding apparatus may derive transform coefficients of the target block by decoding information on transform coefficients of the target block received through the bitstream.
  • the information on the transform coefficients of the received target block may be referred to as residual information.
  • the transform coefficients of the target block may include transform coefficients of a luma block of the target block, transform coefficients of a chroma Cb block of the target block, and transform coefficients of a chroma Cr block of the target block.
  • the decoding apparatus derives an NSST (Non-separable Secondary Transform) index for the target block (S1510).
  • NSST Non-separable Secondary Transform
  • the decoding apparatus may scan R + 1 th to N th transform coefficients among the transform coefficients of the target block, and a non-zero transform coefficient may be included in the R + 1 th to N th transform coefficients.
  • the value of the NSST index can be derived as zero.
  • N is the number of samples of the upper left target region of the target block
  • R is a reduced coefficient
  • R may be smaller than N.
  • the N may be derived as a product of a width and a height of the upper left target region.
  • the decoding apparatus parses the syntax element of the NSST index included in the bitstream, ) To derive the value of the NSST index. That is, when the non-zero transform coefficient is not included in the (R + 1) -th to N-th transform coefficients, the bitstream may include a syntax element for the NSST index, The value of the NSST index can be derived by parsing the received syntax element for the NSST index.
  • the decoding apparatus can determine whether the NSST can be performed, and if the NSST can be performed, the decoding apparatus can derive an NSST index for the target block.
  • an NSST index indicator for a target CTU including the target block may be signaled from a bitstream, and the NSST index indicator may indicate whether NSST is enabled in the target CTU . If the value of the NSST index indicator is 1, the decoding apparatus can derive an NSST index for the target block. If the value of the NSST index indicator is 0, the decoding apparatus derives an NSST index for the target block I can not.
  • the NSST index indicator may be signaled to the CTU level, or the NSST index indicator may be signaled to the CU level or other higher level, as in the example described above.
  • the NSST index may be used for a plurality of components of the target block.
  • the NSST index may be used for transform coefficients of a luma block of the target block, transform coefficients of a chroma Cb block, and inverse transform coefficients of a chroma Cr block.
  • R + 1 th to N th transform coefficients of the luma block, R + 1 th to N th transform coefficients of the chroma Cb block, and R + 1 th to N th transforms of the chroma Cr block Coefficients can be scanned, and when the non-zero transform coefficient is included in the scanned transform coefficients, the value of the NSST index can be derived as zero.
  • the NSST index may be used for transform coefficients of the luma block of the target block and the transform coefficients of the chroma Cb block.
  • the (R + 1) th to Nth transform coefficients of the luma block and the (R + 1) th to Nth transform coefficients of the chroma Cb block may be scanned, If the transform coefficient is included, the value of the NSST index can be derived as zero.
  • the NSST index may be used for transform coefficients of the luma block of the target block and the transform coefficients of the chroma Cr block.
  • the (R + 1) th to Nth transform coefficients of the luma block and the (R + 1) th to Nth transform coefficients of the chroma Cr block may be scanned, If the transform coefficient is included, the value of the NSST index can be derived as zero.
  • a range of NSST indices can be derived based on a specific condition.
  • the maximum value of the NSST index may be derived based on the specific condition, and the range may be derived from 0 to the derived maximum value.
  • the value of the derived NSST index may be included in the range.
  • the range of the NSST index may be derived based on the size of the target block.
  • the minimum width and the minimum height may be preset, and the range of the NSST index may be derived based on the width and the minimum width of the target block, the height of the target block, and the minimum height.
  • the range of the NSST index can be derived based on the number of samples and the specific value of the target block. The number of samples may be a value obtained by multiplying a width of the target block by a height, and the specific value may be preset.
  • the range of the NSST index may be derived based on the type of the target block. Specifically, the range of the NSST index can be derived based on whether the target block is a non-square block. Also, the range of the NSST index can be derived based on the ratio between the width and height of the target block and the specific value. The ratio between the width and height of the target block may be a value obtained by dividing the longer side of the width and height of the target block by the shorter side, and the specific value may be set in advance.
  • the range of the NSST index can be derived based on the intra prediction mode of the target block. Specifically, the range of the NSST index can be derived based on whether the intra-prediction mode of the target block is a non-directional intra-prediction mode or a directional intra-prediction mode. In addition, the range of the NSST index may be derived based on whether the intra prediction mode of the target block is an intra prediction mode included in the category A (category A) or the category B (category B). Here, the intra-prediction mode included in the category A and the intra-prediction mode included in the category B may be preset.
  • the category A may include a second intra prediction mode, a 10th intra prediction mode, an 18th intra prediction mode, a 26th intra prediction mode, a 34th intra prediction mode, a 42th intra prediction mode, An intra prediction mode and a 66th intra prediction mode
  • the category B may include intra prediction modes other than the intra prediction mode included in the category A.
  • the range of the NSST index may be derived based on information on a core transform of the target block.
  • the range of the NSST index may be derived based on an AMT flag indicating whether Adaptive Multiple Core Transform (AMT) is applied.
  • AMT Adaptive Multiple Core Transform
  • the range of the NSST index can be derived based on the AMT horizontal flag indicating the horizontal conversion kernel and the AMT vertical flag indicating the vertical conversion kernel.
  • the NSST index may indicate that the NSST is not applied to the target block.
  • the decoding apparatus performs an inversed transform on the transform coefficients of the target block based on the NSST index to derive residual samples of the target block in operation S1520.
  • the decoding apparatus can derive the residual samples by performing a core transform on the transform coefficients of the target block.
  • the decoding apparatus may obtain an AMT flag indicating whether or not an Adaptive Multiple Core Transform (AMT) is applied from the bit stream.
  • AMT Adaptive Multiple Core Transform
  • the decoding apparatus can derive DCT type 2 as a transform kernel for the target block, perform inverse transform on the transform coefficients based on the DCT type 2, Samples can be derived.
  • the decoding apparatus can construct a conversion subset for the horizontal conversion kernel and a conversion subset for the vertical conversion kernel, and based on the conversion index information obtained from the bitstream,
  • the horizontal conversion kernel and the vertical conversion kernel can be derived, and the residual samples can be derived by performing inverse conversion on the conversion coefficients based on the horizontal conversion kernel and the vertical conversion kernel.
  • the transformed subset for the horizontal transform kernel and the transformed subset for the vertically transformed kernel may include DCT type 2, DST type 7, DCT type 8, and / or DST type 1 as candidates.
  • the translation index information may also include an AMT vertical flag indicating one of the candidates included in the translation subset for the horizontal translation kernel and an AMT vertical flag indicating one of the candidates included in the translation subset for the vertical translation kernel.
  • the conversion kernel may be called a conversion type or a conversion core.
  • the decoding apparatus calculates NSST for the transform coefficients located in the upper left target region of the target block based on the reduced transform matrix indicated by the NSST index And derive the residual samples by performing a core transformation on the target block including the modified transform coefficients.
  • the size of the simplified transformation matrix may be RxN, N may be a number of samples of the upper left target region, R may be a reduced coefficient, and R may be smaller than N.
  • the core transformation for the target block may be performed as follows.
  • the decoding apparatus may obtain an AMT flag indicating whether or not Adaptive Multiple Core Transform (AMT) is applied from the bitstream. If the value of the AMT flag is 0, the decoding apparatus obtains DCT type 2
  • the transformed kernel can be derived as the transformed kernel of the target block, and the inverse transform of the target block including the transformed transform coefficients based on the DCT type 2 can be performed to derive the residual samples.
  • the decoding apparatus can construct a conversion subset for the horizontal conversion kernel and a conversion subset for the vertical conversion kernel, and based on the conversion index information obtained from the bitstream, The horizontal conversion kernel and the vertical conversion kernel can be derived and the inverse conversion can be performed on the target block including the modified conversion coefficients based on the horizontal conversion kernel and the vertical conversion kernel to derive the residual samples have.
  • the transformed subset for the horizontal transform kernel and the transformed subset for the vertically transformed kernel may include DCT type 2, DST type 7, DCT type 8, and / or DST type 1 as candidates.
  • the translation index information may also include an AMT vertical flag indicating one of the candidates included in the translation subset for the horizontal translation kernel and an AMT vertical flag indicating one of the candidates included in the translation subset for the vertical translation kernel.
  • the conversion kernel may be called a conversion type or a conversion core.
  • the decoding apparatus generates a reconstructed picture based on the residual samples (S1530).
  • the decoding apparatus may generate a reconstructed picture based on the residual samples.
  • the decoding apparatus may perform inter prediction or intra prediction on a target block based on prediction information received through a bitstream, derive prediction samples, and add the prediction samples and the residual samples
  • the reconstructed picture can be generated. Thereafter, an in-loop filtering procedure such as deblocking filtering, SAO and / or ALF procedures may be applied to the reconstructed picture to improve subjective / objective picture quality as required, as described above.
  • FIG. 16 schematically shows a decoding apparatus for performing an image decoding method according to the present invention.
  • the method disclosed in Fig. 15 can be performed by the decoding apparatus disclosed in Fig.
  • the entropy decoding unit of the decoding apparatus of FIG. 16 may perform S1500 to S1510 of FIG. 15
  • the inverse transform unit of the decoding apparatus of FIG. 16 may perform S1520 of FIG. 15
  • the adder of the decoding apparatus can perform S1530 of FIG.
  • the process of deriving the prediction sample may be performed by the predicting unit of the decoding apparatus of FIG.
  • the range of the NSST index can be derived based on the specific condition of the target block, thereby reducing the bit amount for the NSST index and improving the overall coding efficiency.
  • the transmission of the syntax element to the NSST index can be determined based on the transform coefficients for the target block, thereby reducing the bit amount for the NSST index and improving the overall coding efficiency.
  • the above-described method according to the present invention can be implemented in software, and the encoding apparatus and / or decoding apparatus according to the present invention can perform image processing of, for example, a TV, a computer, a smart phone, a set- Device.
  • the above-described method may be implemented by a module (a process, a function, and the like) that performs the above-described functions.
  • the module is stored in memory and can be executed by the processor.
  • the memory may be internal or external to the processor and may be coupled to the processor by any of a variety of well known means.
  • the processor may comprise an application-specific integrated circuit (ASIC), other chipset, logic circuitry and / or a data processing device.
  • the memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and / or other storage devices. That is, the embodiments described in the present invention can be implemented and executed on a processor, a microprocessor, a controller, or a chip.
  • the functional units depicted in the figures may be implemented and implemented on a computer, processor, microprocessor, controller, or chip.
  • the decoding apparatus and encoding apparatus to which the present invention is applied include a multimedia broadcasting transmitting and receiving apparatus, a mobile communication terminal, a home cinema video apparatus, a digital cinema video apparatus, a surveillance camera, a video chatting apparatus, (3D) video device, a video telephone video device, a medical video device, and the like, for example, a device, a storage medium, a camcorder, a video-on-demand (VoD) service providing device, an OTT video over the top video device, And may be used to process video signals or data signals.
  • the OTT video (Over the top video) device may include a game console, a Blu-ray player, an Internet access TV, a home theater system, a smart phone, a tablet PC, a DVR (Digital Video Recorder)
  • the processing method to which the present invention is applied may be produced in the form of a computer-executed program, and may be stored in a computer-readable recording medium.
  • the multimedia data having the data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer-readable recording medium includes all kinds of storage devices and distributed storage devices in which computer-readable data is stored.
  • the computer-readable recording medium may be, for example, a Blu-ray Disc (BD), a Universal Serial Bus (USB), a ROM, a PROM, an EPROM, an EEPROM, a RAM, a CD- Data storage devices.
  • the computer-readable recording medium includes media implemented in the form of a carrier wave (for example, transmission over the Internet).
  • bit stream generated by the encoding method can be stored in a computer-readable recording medium or transmitted over a wired or wireless communication network.
  • an embodiment of the present invention may be embodied as a computer program product by program code, and the program code may be executed in a computer according to an embodiment of the present invention.
  • the program code may be stored on a carrier readable by a computer.
  • the content streaming system to which the present invention is applied may include an encoding server, a streaming server, a web server, a media repository, a user device, and a multimedia input device.
  • the encoding server compresses content input from multimedia input devices such as a smart phone, a camera, and a camcorder into digital data to generate a bit stream and transmit the bit stream to the streaming server.
  • multimedia input devices such as a smart phone, a camera, a camcorder, or the like directly generates a bitstream
  • the encoding server may be omitted.
  • the bitstream may be generated by an encoding method or a bitstream generating method to which the present invention is applied, and the streaming server may temporarily store the bitstream in the process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request through the web server, and the web server serves as a medium for informing the user of what services are available.
  • the web server delivers it to the streaming server, and the streaming server transmits the multimedia data to the user.
  • the content streaming system may include a separate control server. In this case, the control server controls commands / responses among the devices in the content streaming system.
  • the streaming server may receive content from a media repository and / or an encoding server. For example, when receiving the content from the encoding server, the content can be received in real time. In this case, in order to provide a smooth streaming service, the streaming server can store the bit stream for a predetermined time.
  • Examples of the user device include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC, Such as tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glass, HMDs (head mounted displays)), digital TVs, desktops Computers, and digital signage.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • slate PC Such as tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glass, HMDs (head mounted displays)), digital TVs, desktops Computers, and digital signage.
  • Each of the servers in the content streaming system can be operated as a distributed server. In this case, data received at each server can be distributed.

Abstract

본 발명에 따른 디코딩 장치에 의하여 수행되는 영상 디코딩 방법은 비트스트림으로부터 대상 블록의 변환 계수들을 도출하는 단계, 상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출하는 단계, 상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출하는 단계, 및 상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성하는 단계를 포함하는 것을 특징으로 한다.

Description

비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치
본 발명은 영상 코딩 기술에 관한 것으로서 보다 상세하게는 영상 코딩 시스템에서 비분리 2차 변환에 따른 영상 디코딩 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다.
이에 따라, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술이 요구된다.
본 발명의 기술적 과제는 영상 코딩 효율을 높이는 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 대상 블록에 대하여 NSST를 적용하는 영상 디코딩 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 대상 블록의 특정 조건을 기반으로 NSST 인덱스의 범위를 도출하는 영상 디코딩 방법 및 장치를 제공함에 있다.
본 발명의 다른 기술적 과제는 대상 블록의 변환 계수를 기반으로 NSST 인덱스의 코딩 여부를 결정하는 영상 디코딩 방법 및 장치를 제공함에 있다.
본 발명의 일 실시예에 따르면, 디코딩 장치에 의하여 수행되는 영상 디코딩 방법이 제공된다. 상기 방법은 비트스트림으로부터 대상 블록의 변환 계수들을 도출하는 단계, 상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출하는 단계, 상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출하는 단계, 및 상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 다른 일 실시예에 따르면, 영상 디코딩을 수행하는 디코딩 장치가 제공된다. 상기 디코딩 장치는 비트스트림으로부터 대상 블록의 변환 계수들을 도출하고, 상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출하는 엔트로피 디코딩부, 상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출하는 역변환부, 및 상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성하는 가산부를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 인코딩 장치에 의하여 수행되는 비디오 인코딩 방법을 제공한다. 상기 방법은 대상 블록의 레지듀얼 샘플들을 도출하는 단계, 상기 레지듀얼 샘플들에 대한 변환(transform)을 수행하여 상기 대상 블록의 변환 계수들을 도출하는 단계, 상기 대상 블록에 대한 NSST 인덱스의 인코딩 여부를 결정하는 단계, 및 상기 변환 계수들에 대한 정보를 인코딩하는 단계를 포함하되, 상기 NSST 인덱스의 인코딩 여부를 결정하는 단계는, 상기 대상 블록의 상기 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔하는 단계, 및 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스를 인코딩하지 않는 것으로 결정하는 단계를 포함하고, 상기 N은 상기 대상 블록의 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작은 것을 특징으로 한다.
본 발명의 또 다른 일 실시예에 따르면, 비디오 인코딩 장치를 제공한다. 상기 인코딩 장치는 대상 블록의 레지듀얼 샘플들을 도출하는 가산부, 상기 레지듀얼 샘플들에 대한 변환(transform)을 수행하여 상기 대상 블록의 변환 계수들을 도출하는 변환부, 및 상기 대상 블록에 대한 NSST 인덱스의 인코딩 여부를 결정하고, 상기 변환 계수들에 대한 정보를 인코딩하는 엔트로피 인코딩부를 포함하되, 상기 엔트로피 인코딩부는 상기 대상 블록의 상기 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔하고, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스를 인코딩하지 않는 것으로 결정하고, 상기 N은 상기 대상 블록의 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작은 것을 특징으로 한다.
본 발명에 따르면 NSST 인덱스의 범위를 대상 블록의 특정 조건을 기반으로 도출할 수 있고, 이를 통하여, 상기 NSST 인덱스를 위한 비트량을 감소시키고 전반적인 코딩 효율을 향상시킬 수 있다.
본 발명에 따르면 NSST 인덱스에 대한 신텍스 엘리먼트(Syntax element)의 전송이 대상 블록에 대한 변환 계수들을 기반으로 결정될 수 있고, 이를 통하여, NSST 인덱스를 위한 비트량을 감소시키고 전반적인 코딩 효율을 향상시킬 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2는 비디오 인코딩 장치에 의하여 수행되는 영상 인코딩 방법의 일 예를 나타낸다.
도 3은 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 4는 디코딩 장치에 의하여 수행되는 영상 디코딩 방법의 일 예를 나타낸다.
도 5는 본 발명에 따른 다중 변환 기법을 개략적으로 나타낸다.
도 6은 65개의 예측 방향의 인트라 방향성 모드들을 예시적으로 나타낸다.
도 7a 및 도 7b는 일 실시예에 따른 변환 계수의 코딩 과정을 도시하는 흐름도이다.
도 8은 본 발명의 실시예에 따른 대상 블록을 기반으로 변환 계수의 배열을 설명하기 위한 도면이다.
도 9는 R+1 에서 N 까지의 변환 계수들을 스캔하는 일 예를 나타낸다.
도 10a 및 도 10b는 일 실시예에 따른 NSST 인덱스의 코딩 과정을 도시하는 흐름도이다.
도 11은 NSST 인덱스가 코딩되는지 여부를 판단하는 일 예를 나타낸다.
도 12는 대상 블록의 모든 성분들에 대한 R+1 에서 N 까지의 변환 계수들을 스캔하는 일 예를 나타낸다.
도 13은 본 발명에 따른 인코딩 장치에 의한 영상 인코딩 방법을 개략적으로 나타낸다.
도 14는 본 발명에 따른 영상 인코딩 방법을 수행하는 인코딩 장치를 개략적으로 나타낸다.
도 15는 본 발명에 따른 디코딩 장치에 의한 영상 디코딩 방법을 개략적으로 나타낸다.
도 16은 본 발명에 따른 영상 디코딩 방법을 수행하는 디코딩 장치를 개략적으로 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정 실시예에 한정하려고 하는 것이 아니다. 본 명세서에서 상용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 도는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
한편, 본 발명은 비디오/영상 코딩에 관한 것이다. 예를 들어, 본 발명에서 개시된 방법/실시예는 VVC (versatile video coding) 표준 또는 차세대 비디오/이미지 코딩 표준에 개시된 방법에 적용될 수 있다.
본 명세서에서 픽처(picture)는 일반적으로 특정 시간대의 하나의 영상을 나타내는 단위를 의미하며, 슬라이스(slice)는 코딩에 있어서 픽처의 일부를 구성하는 단위이다. 하나의 픽처는 복수의 슬라이스로 구성될 수 있으며, 필요에 따라서 픽처 및 슬라이스는 서로 혼용되어 사용될 수 있다.
픽셀(pixel) 또는 펠(pel)은 하나의 픽처(또는 영상)을 구성하는 최소의 단위를 의미할 수 있다. 또한, 픽셀에 대응하는 용어로서 '샘플(sample)'이 사용될 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있으며, 휘도(luma) 성분의 픽셀/픽셀값만을 나타낼 수도 있고, 채도(chroma) 성분의 픽셀/픽셀 값만을 나타낼 수도 있다.
유닛(unit)은 영상 처리의 기본 단위를 나타낸다. 유닛은 픽처의 특정 영역 및 해당 영역에 관련된 정보 중 적어도 하나를 포함할 수 있다. 유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다.
도 1은 본 발명이 적용될 수 있는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 1을 참조하면, 비디오 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 레지듀얼 처리부(120), 엔트로피 인코딩부(130), 가산부(140), 필터부(150) 및 메모리(160)을 포함할 수 있다. 레지듀얼 처리부(120)는 감산부(121), 변환부(122), 양자화부(123), 재정렬부(124), 역양자화부(125) 및 역변환부(126)를 포함할 수 있다.
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 유닛(processing unit)으로 분할할 수 있다.
일 예로, 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 이 경우 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 QTBT (Quad-tree binary-tree) 구조에 따라 재귀적으로(recursively) 분할될 수 있다. 예를 들어, 하나의 코딩 유닛은 쿼드 트리 구조 및/또는 바이너리 트리 구조를 기반으로 하위(deeper) 뎁스의 복수의 코딩 유닛들로 분할될 수 있다. 이 경우 예를 들어 쿼드 트리 구조가 먼저 적용되고 바이너리 트리 구조가 나중에 적용될 수 있다. 또는 바이너리 트리 구조가 먼저 적용될 수도 있다. 더 이상 분할되지 않는 최종 코딩 유닛을 기반으로 본 발명에 따른 코딩 절차가 수행될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 여기서 코딩 절차라 함은 후술하는 예측, 변환, 및 복원 등의 절차를 포함할 수 있다.
다른 예로, 처리 유닛은 코딩 유닛(coding unit, CU) 예측 유닛(prediction unit, PU) 또는 변환 유닛(transform unit, TU)을 포함할 수도 있다. 코딩 유닛은 최대 코딩 유닛(largest coding unit, LCU)으로부터 쿼드 트리 구조를 따라서 하위(deeper) 뎁스의 코딩 유닛들로 분할(split)될 수 있다. 이 경우 영상 특성에 따른 코딩 효율 등을 기반으로, 최대 코딩 유닛이 바로 최종 코딩 유닛으로 사용될 수 있고, 또는 필요에 따라 코딩 유닛은 재귀적으로(recursively) 보다 하위 뎁스의 코딩 유닛들로 분할되어 최적의 사이즈의 코딩 유닛이 최종 코딩 유닛으로 사용될 수 있다. 최소 코딩 유닛(smallest coding unit, SCU)이 설정된 경우 코딩 유닛은 최소 코딩 유닛보다 더 작은 코딩 유닛으로 분할될 수 없다. 여기서 최종 코딩 유닛이라 함은 예측 유닛 또는 변환 유닛으로 파티셔닝 또는 분할되는 기반이 되는 코딩 유닛을 의미한다. 예측 유닛은 코딩 유닛으로부터 파티셔닝(partitioning)되는 유닛으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록(sub block)으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 유닛일 수 있다. 이하, 코딩 유닛은 코딩 블록(coding block, CB), 예측 유닛은 예측 블록(prediction block, PB), 변환 유닛은 변환 블록(transform block, TB) 으로 불릴 수 있다. 예측 블록 또는 예측 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 예측 샘플의 어레이(array)를 포함할 수 있다. 또한, 변환 블록 또는 변환 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수 있고, 변환 계수 또는 레지듀얼 샘플의 어레이를 포함할 수 있다.
예측부(110)는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(110)에서 수행되는 예측의 단위는 코딩 블록일 수 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(110)는 현재 블록에 인트라 예측이 적용되는지 인터 예측이 적용되는지를 결정할 수 있다. 일 예로, 예측부(110)는 CU 단위로 인트라 예측 또는 인터 예측이 적용되는지를 결정할 수 있다.
인트라 예측의 경우에, 예측부(110)는 현재 블록이 속하는 픽처(이하, 현재 픽처) 내의 현재 블록 외부의 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 예측부(110)는 (i) 현재 블록의 주변(neighboring) 참조 샘플들의 평균(average) 혹은 인터폴레이션(interpolation)을 기반으로 예측 샘플을 유도할 수 있고, (ii) 현재 블록의 주변 참조 샘플들 중 예측 샘플에 대하여 특정 (예측) 방향에 존재하는 참조 샘플을 기반으로 상기 예측 샘플을 유도할 수도 있다. (i)의 경우는 비방향성 모드 또는 비각도 모드, (ii)의 경우는 방향성(directional) 모드 또는 각도(angular) 모드라고 불릴 수 있다. 인트라 예측에서 예측 모드는 예를 들어 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비방향성 모드는 DC 예측 모드 및 플래너 모드(Planar 모드)를 포함할 수 있다. 예측부(110)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측의 경우에, 예측부(110)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플을 기반으로, 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(110)는 스킵(skip) 모드, 머지(merge) 모드, 및 MVP(motion vector prediction) 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 스킵 모드와 머지 모드의 경우에, 예측부(110)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차(레지듀얼)가 전송되지 않는다. MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(Motion Vector Predictor)로 이용하여 현재 블록의 움직임 벡터 예측자로 이용하여 현재 블록의 움직임 벡터를 유도할 수 있다.
인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처(reference picture)에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 상기 시간적 주변 블록을 포함하는 참조 픽처는 동일 위치 픽처(collocated picture, colPic)라고 불릴 수도 있다. 움직임 정보(motion information)는 움직임 벡터와 참조 픽처 인덱스를 포함할 수 있다. 예측 모드 정보와 움직임 정보 등의 정보는 (엔트로피) 인코딩되어 비트스트림 형태로 출력될 수 있다.
스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트(reference picture list) 상의 최상위 픽처가 참조 픽처로서 이용될 수도 있다. 참조 픽처 리스트(Picture Order Count)에 포함되는 참조 픽처들은 현재 픽처와 해당 참조 픽처 간의 POC(Picture order count) 차이 기반으로 정렬될 수 있다. POC는 픽처의 디스플레이 순서에 대응하며, 코딩 순서와 구분될 수 있다.
감산부(121)는 원본 샘플과 예측 샘플 간의 차이인 레지듀얼 샘플을 생성한다. 스킵 모드가 적용되는 경우에는, 상술한 바와 같이 레지듀얼 샘플을 생성하지 않을 수 있다.
변환부(122)는 변환 블록 단위로 레지듀얼 샘플을 변환하여 변환 계수(transform coefficient)를 생성한다. 변환부(122)는 해당 변환 블록의 사이즈와, 해당 변환 블록과 공간적으로 겹치는 코딩 블록 또는 예측 블록에 적용된 예측 모드에 따라서 변환을 수행할 수 있다. 예컨대, 상기 변환 블록과 겹치는 상기 코딩 블록 또는 상기 예측 블록에 인트라 예측이 적용되었고, 상기 변환 블록이 4×4의 레지듀얼 어레이(array)라면, 레지듀얼 샘플은 DST(Discrete Sine Transform) 변환 커널을 이용하여 변환되고, 그 외의 경우라면 레지듀얼 샘플은 DCT(Discrete Cosine Transform) 변환 커널을 이용하여 변환할 수 있다.
양자화부(123)는 변환 계수들을 양자화하여, 양자화된 변환 계수를 생성할 수 있다.
재정렬부(124)는 양자화된 변환 계수를 재정렬한다. 재정렬부(124)는 계수들 스캐닝(scanning) 방법을 통해 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있다. 여기서 재정렬부(124)는 별도의 구성으로 설명하였으나, 재정렬부(124)는 양자화부(123)의 일부일 수 있다.
엔트로피 인코딩부(130)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩은 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 인코딩 방법을 포함할 수 있다. 엔트로피 인코딩부(130)는 양자화된 변환 계수 외 비디오 복원에 필요한 정보들(예컨대 신택스 요소(syntax element)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 엔트로피 인코딩된 정보들은 비트스트림 형태로 NAL(network abstraction layer) 유닛 단위로 전송 또는 저장될 수 있다.
역양자화부(125)는 양자화부(123)에서 양자화된 값(양자화된 변환 계수)들을 역양자화하고, 역변환부(126)는 역양자화부(125)에서 역양자화된 값들을 역변환하여 레지듀얼 샘플을 생성한다.
가산부(140)는 레지듀얼 샘플과 예측 샘플을 합쳐서 픽처를 복원한다. 레지듀얼 샘플과 예측 샘플은 블록 단위로 더해져서 복원 블록이 생성될 수 있다. 여기서 가산부(140)는 별도의 구성으로 설명하였으나, 가산부(140)는 예측부(110)의 일부일 수 있다. 한편, 가산부(140)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
복원된 픽처(reconstructed picture)에 대하여 필터부(150)는 디블록킹 필터 및/또는 샘플 적응적 오프셋(sample adaptive offset)을 적용할 수 있다. 디블록킹 필터링 및/또는 샘플 적응적 오프셋을 통해, 복원 픽처 내 블록 경계의 아티팩트나 양자화 과정에서의 왜곡이 보정될 수 있다. 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링의 과정이 완료된 후 적용될 수 있다. 필터부(150)는 ALF(Adaptive Loop Filter)를 복원된 픽처에 적용할 수도 있다. ALF는 디블록킹 필터 및/또는 샘플 적응적 오프셋이 적용된 후의 복원된 픽처에 대하여 적용될 수 있다.
메모리(160)는 복원 픽처(디코딩된 픽처) 또는 인코딩/디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(150)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 상기 저장된 복원 픽처는 다른 픽처의 (인터) 예측을 위한 참조 픽처로 활용될 수 있다. 예컨대, 메모리(160)는 인터 예측에 사용되는 (참조) 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트(reference picture set) 혹은 참조 픽처 리스트(reference picture list)에 의해 지정될 수 있다.
도 2는 비디오 인코딩 장치에 의하여 수행되는 영상 인코딩 방법의 일 예를 나타낸다. 도 2를 참조하면 상기 영상 인코딩 방법은 인트라/인터 예측, 변환(transform), 양자화(quantization) 및 엔트로피 인코딩(entropy encoding) 과정을 포함할 수 있다. 예를 들어, 인트라/인터 예측을 통하여 현재 블록의 예측 블록이 생성될 수 있고, 상기 현재 블록의 입력 블록과 상기 예측 블록과의 감산을 통하여 상기 현재 블록의 레지듀얼 블록이 생성될 수 있다. 이 후, 상기 레지듀얼 블록에 대한 변환을 통하여 계수(coefficent) 블록, 즉, 상기 현재 블록의 변환 계수들이 생성될 수 있다. 상기 변환 계수들은 양자화 및 엔트로피 인코딩되어 비트스트림에 저장될 수 있다.
도 3은 본 발명이 적용될 수 있는 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3을 참조하면, 비디오 디코딩 장치(300)는 엔트로피 디코딩부(310), 레지듀얼 처리부(320), 예측부(330), 가산부(340), 필터부(350) 및 메모리(360)을 포함할 수 있다. 여기서 레지듀얼 처리부(320)는 재정렬부(321), 역양자화부(322), 역변환부(323)을 포함할 수 있다.
비디오 정보를 포함하는 비트스트림이 입력되면, 비디오 디코딩 장치(300)는 비디오 인코딩 장치에서 비디오 정보가 처리된 프로세스에 대응하여 비디오를 복원할 수 있다.
예컨대, 비디오 디코딩 장치(300)는 비디오 인코딩 장치에서 적용된 처리 유닛을 이용하여 비디오 디코딩을 수행할 수 있다. 따라서 비디오 디코딩의 처리 유닛 블록은 일 예로 코딩 유닛일 수 있고, 다른 예로 코딩 유닛, 예측 유닛 또는 변환 유닛일 수 있다. 코딩 유닛은 최대 코딩 유닛으로부터 쿼드 트리 구조 및/또는 바이너리 트리 구조를 따라서 분할될 수 있다.
예측 유닛 및 변환 유닛이 경우에 따라 더 사용될 수 있으며, 이 경우 예측 블록은 코딩 유닛으로부터 도출 또는 파티셔닝되는 블록으로서, 샘플 예측의 유닛일 수 있다. 이 때, 예측 유닛은 서브 블록으로 나뉠 수도 있다. 변환 유닛은 코딩 유닛으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 유닛 또는 변환 계수로부터 레지듀얼 신호를 유도하는 유닛일 수 있다.
엔트로피 디코딩부(310)는 비트스트림을 파싱하여 비디오 복원 또는 픽처 복원에 필요한 정보를 출력할 수 있다. 예컨대, 엔트로피 디코딩부(310)는 지수 골롬 부호화, CAVLC 또는 CABAC 등의 코딩 방법을 기초로 비트스트림 내 정보를 디코딩하고, 비디오 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값 들을 출력할 수 있다.
보다 상세하게, CABAC 엔트로피 디코딩 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 디코딩 대상 구문 요소 정보와 주변 및 디코딩 대상 블록의 디코딩 정보 혹은 이전 단계에서 디코딩된 심볼/빈의 정보를 이용하여 문맥(context) 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 디코딩(arithmetic decoding)를 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 디코딩 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 디코딩된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다.
엔트로피 디코딩부(310)에서 디코딩된 정보 중 예측에 관한 정보는 예측부(330)로 제공되고, 엔트로피 디코딩부(310)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(321)로 입력될 수 있다.
재정렬부(321)는 양자화되어 있는 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 재정렬부(321)는 인코딩 장치에서 수행된 계수 스캐닝에 대응하여 재정렬을 수행할 수 있다. 여기서 재정렬부(321)는 별도의 구성으로 설명하였으나, 재정렬부(321)는 역양자화부(322)의 일부일 수 있다.
역양자화부(322)는 양자화되어 있는 변환 계수들을 (역)양자화 파라미터를 기반으로 역양자화하여 변환 계수를 출력할 수 있다. 이 때, 양자화 파라미터를 유도하기 위한 정보는 인코딩 장치로부터 시그널링될 수 있다.
역변환부(323)는 변환 계수들을 역변환하여 레지듀얼 샘플들을 유도할 수 있다.
예측부(330)는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(330)에서 수행되는 예측의 단위는 코딩 블록일 수도 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(330)는 상기 예측에 관한 정보를 기반으로 인트라 예측을 적용할 것인지 인터 예측을 적용할 것인지를 결정할 수 있다. 이 때, 인트라 예측과 인터 예측 중 어느 것을 적용할 것인지를 결정하는 단위와 예측 샘플을 생성하는 단위는 상이할 수 있다. 아울러, 인터 예측과 인트라 예측에 있어서 예측 샘플을 생성하는 단위 또한 상이할 수 있다. 예를 들어, 인터 예측과 인트라 예측 중 어느 것을 적용할 것인지는 CU 단위로 결정할 수 있다. 또한 예를 들어, 인터 예측에 있어서 PU 단위로 예측 모드를 결정하고 예측 샘플을 생성할 수 있고, 인트라 예측에 있어서 PU 단위로 예측 모드를 결정하고 TU 단위로 예측 샘플을 생성할 수도 있다.
인트라 예측의 경우에, 예측부(330)는 현재 픽처 내의 주변 참조 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(330)는 현재 블록의 주변 참조 샘플을 기반으로 방향성 모드 또는 비방향성 모드를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이 때, 주변 블록의 인트라 예측 모드를 이용하여 현재 블록에 적용할 예측 모드가 결정될 수도 있다.
인터 예측의 경우에, 예측부(330)는 참조 픽처 상에서 움직임 벡터에 의해 참조 픽처 상에서 특정되는 샘플을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(330)는 스킵(skip) 모드, 머지(merge) 모드 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이때, 비디오 인코딩 장치에서 제공된 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 상기 예측에 관한 정보를 기반으로 획득 또는 유도될 수 있다
스킵 모드와 머지 모드의 경우에, 주변 블록의 움직임 정보가 현재 블록의 움직임 정보로 이용될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
예측부(330)는 가용한 주변 블록의 움직임 정보로 머지 후보 리스트를 구성하고, 머지 인덱스가 머지 후보 리스트 상에서 지시하는 정보를 현재 블록의 움직임 벡터로 사용할 수 있다. 머지 인덱스는 인코딩 장치로부터 시그널링될 수 있다. 움직임 정보는 움직임 벡터와 참조 픽처를 포함할 수 있다. 스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트 상의 최상위 픽처가 참조 픽처로서 이용될 수 있다.
스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차이(레지듀얼)이 전송되지 않는다.
MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor)로 이용하여 현재 블록의 움직임 벡터가 유도될 수 있다. 이 때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
일 예로, 머지 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 머지 후보 리스트가 생성될 수 있다. 머지 모드에서는 머지 후보 리스트에서 선택된 후보 블록의 움직임 벡터가 현재 블록의 움직임 벡터로 사용된다. 상기 예측에 관한 정보는 상기 머지 후보 리스트에 포함된 후보 블록들 중에서 선택된 최적의 움직임 벡터를 갖는 후보 블록을 지시하는 머지 인덱스를 포함할 수 있다. 이 때, 예측부(330)는 상기 머지 인덱스를 이용하여, 현재 블록의 움직임 벡터를 도출할 수 있다.
다른 예로, MVP(Motion Vector Prediction) 모드가 적용되는 경우, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터를 이용하여, 움직임 벡터 예측자 후보 리스트가 생성될 수 있다. 즉, 복원된 공간적 주변 블록의 움직임 벡터 및/또는 시간적 주변 블록인 Col 블록에 대응하는 움직임 벡터는 움직임 벡터 후보로 사용될 수 있다. 상기 예측에 관한 정보는 상기 리스트에 포함된 움직임 벡터 후보 중에서 선택된 최적의 움직임 벡터를 지시하는 예측 움직임 벡터 인덱스를 포함할 수 있다. 이 때, 예측부(330)는 상기 움직임 벡터 인덱스를 이용하여, 움직임 벡터 후보 리스트에 포함된 움직임 벡터 후보 중에서, 현재 블록의 예측 움직임 벡터를 선택할 수 있다. 인코딩 장치의 예측부는 현재 블록의 움직임 벡터와 움직임 벡터 예측자 간의 움직임 벡터 차분(MVD)을 구할 수 있고, 이를 인코딩하여 비트스트림 형태로 출력할 수 있다. 즉, MVD는 현재 블록의 움직임 벡터에서 상기 움직임 벡터 예측자를 뺀 값으로 구해질 수 있다. 이 때, 예측부(330)는 상기 예측에 관한 정보에 포함된 움직임 벡터 차분을 획득하고, 상기 움직임 벡터 차분과 상기 움직임 벡터 예측자의 가산을 통해 현재 블록의 상기 움직임 벡터를 도출할 수 있다. 예측부는 또한 참조 픽처를 지시하는 참조 픽처 인덱스 등을 상기 예측에 관한 정보로부터 획득 또는 유도할 수 있다.
가산부(340)는 레지듀얼 샘플과 예측 샘플을 더하여 현재 블록 혹은 현재 픽처를 복원할 수 있다. 가산부(340)는 레지듀얼 샘플과 예측 샘플을 블록 단위로 더하여 현재 픽처를 복원할 수도 있다. 스킵 모드가 적용된 경우에는 레지듀얼이 전송되지 않으므로, 예측 샘플이 복원 샘플이 될 수 있다. 여기서는 가산부(340)를 별도의 구성으로 설명하였으나, 가산부(340)는 예측부(330)의 일부일 수도 있다. 한편, 가산부(340)는 복원부 또는 복원 블록 생성부로 불릴 수도 있다.
필터부(350)는 복원된 픽처에 디블록킹 필터링 샘플 적응적 오프셋, 및/또는 ALF 등을 적용할 수 있다. 이 때, 샘플 적응적 오프셋은 샘플 단위로 적용될 수 있으며, 디블록킹 필터링 이후 적용될 수도 있다. ALF는 디블록킹 필터링 및/또는 샘플 적응적 오프셋 이후 적용될 수도 있다.
메모리(360)는 복원 픽처(디코딩된 픽처) 또는 디코딩에 필요한 정보를 저장할 수 있다. 여기서 복원 픽처는 상기 필터부(350)에 의하여 필터링 절차가 완료된 복원 픽처일 수 있다. 예컨대, 메모리(360)는 인터 예측에 사용되는 픽처들을 저장할 수 있다. 이 때, 인터 예측에 사용되는 픽처들은 참조 픽처 세트 혹은 참조 픽처 리스트에 의해 지정될 수도 있다. 복원된 픽처는 다른 픽처에 대한 참조 픽처로서 이용될 수 있다. 또한, 메모리(360)는 복원된 픽처를 출력 순서에 따라서 출력할 수도 있다.
도 4는 디코딩 장치에 의하여 수행되는 영상 디코딩 방법의 일 예를 나타낸다. 도 4를 참조하면 상기 영상 디코딩 방법은 엔트로피 디코딩(entropy decoding), 역양자화, 역변환(inverse transform) 및 인트라/인터 예측 과정을 포함할 수 있다. 예를 들어, 디코딩 장치에서는 상기 인코딩 방법의 역과정이 수행될 수 있다. 구체적으로, 비트스트림에 대한 엔트로피 디코딩을 통하여 양자화된 변환 계수들이 획득될 수 있고, 상기 양자화된 변환 계수들에 대한 역양자화 과정을 통하여 현재 블록의 계수 블록, 즉, 변환 계수들이 획득될 수 있다. 상기 변환 계수들에 대한 역변환을 통하여 상기 현재 블록의 레지듀얼 블록이 도출될 수 있고, 인트라/인터 예측을 통하여 도출된 상기 현재 블록의 예측 블록과 상기 레지듀얼 블록과의 가산을 통하여 상기 현재 블록의 복원 블록(reconstructed block)이 도출될 수 있다.
한편, 상술한 변환을 통하여 상기 현재 블록의 레지듀얼 블록에 대한 저주파수(lower frequency)의 변환 계수들이 도출될 수 있고, 상기 레지듀얼 블록에 끝에는 제로 테일(zero tail) 이 도출될 수 있다.
구체적으로, 상기 변환은 두가지 주요 과정들로 구성될 수 있는바, 상기 주요 과정들은 핵심 변환(core transform) 및 2차 변환(secondary transform)을 포함할 수 있다. 상기 핵심 변환(core transform) 및 상기 2차 변환을 포함하는 변환은 다중 변환 기법이라고 나타낼 수 있다.
도 5는 본 발명에 따른 다중 변환 기법을 개략적으로 나타낸다.
도 5를 참조하면, 변환부는 상술한 도 1의 인코딩 장치 내의 변환부에 대응될 수 있고, 역변환부는 상술한 도 1의 인코딩 장치 내의 역변환부 또는 도 3의 디코딩 장치 내의 역변환부에 대응될 수 있다.
변환부는 레지듀얼 블록 내의 레지듀얼 샘플들(레지듀얼 샘플 어레이)를 기반으로 1차 변환을 수행하여 (1차) 변환 계수들을 도출할 수 있다(S510). 여기서 상기 1차 변환은 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT)을 포함할 수 있다. 상기 적응적 다중 핵심 변환은 MTS(Multiple Transform Set)이라고 나타낼 수도 있다.
상기 적응적 다중 핵심 변환은 DCT(Discrete Cosine Transform) 타입 2과 DST(Discrete Sine Transform) 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 추가적으로 사용하여 변환하는 방식을 나타낼 수 있다. 즉, 상기 적응적 다중 핵심 변환은 상기 DCT 타입 2, 상기 DST 타입 7, 상기 DCT 타입 8 및 상기 DST 타입 1 중 선택된 복수의 변환 커널들을 기반으로 공간 도메인의 레지듀얼 신호(또는 레지듀얼 블록)를 주파수 도메인의 변환 계수들(또는 1차 변환 계수들)로 변환하는 변환 방법을 나타낼 수 있다. 여기서 상기 1차 변환 계수들은 변환부 입장에서 임시 변환 계수들로 불릴 수 있다.
다시 말하면, 기존의 변환 방법이 적용되는 경우, DCT 타입 2를 기반으로 레지듀얼 신호(또는 레지듀얼 블록)에 대한 공간 도메인에서 주파수 도메인으로의 변환이 적용되어 변환 계수들이 생성될 수 있었다. 이와 달리, 상기 적응적 다중 핵심 변환이 적용되는 경우, DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1 등을 기반으로 레지듀얼 신호(또는 레지듀얼 블록)에 대한 공간 도메인에서 주파수 도메인으로의 변환이 적용되어 변환 계수들(또는 1차 변환 계수들)이 생성될 수 있다. 여기서, DCT 타입 2, DST 타입 7, DCT 타입 8, 및 DST 타입 1 등은 변환 타입, 변환 커널(kernel) 또는 변환 코어(core)라고 불릴 수 있다.
참고로, 상기 DCT/DST 변환 타입들은 기저 함수들(basis functions)을 기반으로 정의될 수 있으며, 상기 기저 함수들은 다음 표와 같이 나타낼 수 있다.
Figure PCTKR2018015812-appb-T000001
상기 적응적 다중 핵심 변환이 수행되는 경우, 상기 변환 커널들 중 대상 블록에 대한 수직 변환 커널 및 수평 변환 커널이 선택될 수 있고, 상기 수직 변환 커널을 기반으로 상기 대상 블록에 대한 수직 변환이 수행되고, 상기 수평 변환 커널을 기반으로 상기 대상 블록에 대한 수평 변환이 수행될 수 있다. 여기서, 상기 수평 변환은 상기 대상 블록의 수평 성분들에 대한 변환을 나타낼 수 있고, 상기 수직 변환은 상기 대상 블록의 수직 성분들에 대한 변환을 나타낼 수 있다. 상기 수직 변환 커널/수평 변환 커널은 레지듀얼 블록을 에워싸는(encompass) 대상 블록(CU 또는 서브블록)의 예측 모드 및/또는 변환 서브셋을 가리키는 변환 인덱스를 기반으로 적응적으로 결정될 수 있다.
예를 들어, 상기 적응적 다중 핵심 변환은 대상 블록의 폭(width) 및 높이(height)가 모두 64보다 작거나 같은 경우에 적용될 수 있고, 상기 대상 블록의 상기 적응적 다중 핵심 변환이 적용되는지 여부는 CU 레벨 플래그를 기반으로 결정될 수 있다. 구체적으로, 상기 CU 레벨 플래그가 0 인 경우, 상술한 기존의 변환 방법이 적용될 수 있다. 즉, 상기 CU 레벨 플래그가 0 인 경우, 상기 DCT 타입 2를 기반으로 레지듀얼 신호(또는 레지듀얼 블록)에 대한 공간 도메인에서 주파수 도메인으로의 변환이 적용되어 변환 계수들이 생성될 수 있고, 상기 변환 계수들이 인코딩될 수 있다. 한편, 여기서 상기 대상 블록은 CU 일 수 있다. 상기 CU 레벨 플래그가 0 인 경우, 상기 적응적 다중 핵심 변환이 상기 대상 블록에 적용될 수 있다.
또한, 상기 적응적 다중 핵심 변환이 적용되는 대상 블록의 루마 블록의 경우, 두 개의 추가적인 플래그들이 시그널링될 수 있고, 상기 플래그들을 기반으로 수직 변환 커널 및 수평 변환 커널이 선택될 수 있다. 상기 수직 변환 커널에 대한 플래그는 AMT 수직 플래그라고 나타낼 수 있고, AMT_TU_vertical_flag (또는 EMT_TU_vertical_flag) 는 상기 AMT 수직 플래그의 신텍스 요소(syntax element)를 나타낼 수 있다. 상기 수평 변환 커널에 대한 플래그는 AMT 수평 플래그라고 나타낼 수 있고, AMT_TU_horizontal_flag (또는 EMT_TU_horizontal_flag) 는 상기 AMT 수평 플래그의 신텍스 요소를 나타낼 수 있다. 상기 AMT 수직 플래그는 상기 수직 변환 커널에 대한 변환 서브셋에 포함된 변환 커널 후보들 중 하나의 변환 커널 후보를 가리킬 수 있고, 상기 AMT 수직 플래그가 가리키는 변환 커널 후보는 상기 대상 블록에 대한 수직 변환 커널로 도출될 수 있다. 또한, 상기 AMT 수평 플래그는 상기 수평 변환 커널에 대한 변환 서브셋에 포함된 변환 커널 후보들 중 하나의 변환 커널 후보를 가리킬 수 있고, 상기 AMT 수평 플래그가 가리키는 변환 커널 후보는 상기 대상 블록에 대한 수평 변환 커널로 도출될 수 있다. 한편, 상기 AMT 수직 플래그는 MTS 수직 플래그라고 나타낼 수도 있으며, 상기 AMT 수평 플래그는 MTS 수평 플래그라고 나타낼 수도 있다.
한편, 3개의 변환 서브셋들이 기설정될 수 있고, 상기 대상 블록에 적용된 인트라 예측 모드를 기반으로 상기 변환 서브셋들 중 하나가 상기 수직 변환 커널에 대한 변환 서브셋으로 도출될 수 있다. 또한, 상기 대상 블록에 적용된 인트라 예측 모드를 기반으로 상기 변환 서브셋들 중 하나가 상기 수평 변환 커널에 대한 변환 서브셋으로 도출될 수 있다. 예를 들어, 상기 기설정된 변환 서브셋들은 다음의 표와 같이 도출될 수 있다.
Figure PCTKR2018015812-appb-T000002
표 2를 참조하면 인덱스 값이 0 인 변환 서브셋은 DST 타입 7 및 DCT 타입 8을 변환 커널 후보로 포함하는 변환 서브셋을 나타낼 수 있고, 인덱스 값이 1 인 변환 서브셋은 DST 타입 7 및 DST 타입 1을 변환 커널 후보로 포함하는 변환 서브셋을 나타낼 수 있고, 인덱스 값이 2 인 변환 서브셋은 DST 타입 7 및 DCT 타입 8을 변환 커널 후보로 포함하는 변환 서브셋을 나타낼 수 있다.
상기 대상 블록에 적용된 인트라 예측 모드를 기반으로 도출되는 상기 수직 변환 커널에 대한 변환 서브셋 및 상기 수평 변환 커널에 대한 변환 서브셋은 다음의 표와 같이 도출될 수 있다.
Figure PCTKR2018015812-appb-T000003
여기서, V 는 상기 수직 변환 커널에 대한 변환 서브셋을 나타내고, H는 상기 수평 변환 커널에 대한 변환 서브셋을 나타낸다.
상기 대상 블록에 대한 AMT 플래그(또는 EMT_CU_flag)의 값이 1인 경우, 표 3에 도시된 것과 같이 상기 대상 블록의 인트라 예측 모드를 기반으로 상기 수직 변환 커널에 대한 변환 서브셋 및 상기 수평 변환 커널에 대한 변환 서브셋이 도출될 수 있다. 이 후, 상기 수직 변환 커널에 대한 변환 서브셋에 포함된 변환 커널 후보들 중 상기 대상 블록의 AMT 수직 플래그가 가리키는 변환 커널 후보가 상기 대상 블록의 수직 변환 커널로 도출될 수 있고, 상기 수평 변환 커널에 대한 변환 서브셋에 포함된 변환 커널 후보들 중 상기 대상 블록의 AMT 수평 플래그가 가리키는 변환 커널 후보가 상기 대상 블록의 수평 변환 커널로 도출될 수 있다. 한편, 상기 AMT 플래그는 MTS 플래그라고 나타낼 수도 있다.
참고로, 예를 들어, 인트라 예측 모드는 2개의 비방향성(non-directional, 또는 비각도성(non-angular)) 인트라 예측 모드들과 65개의 방향성(directional, 또는 각도성(angular)) 인트라 예측 모드들을 포함할 수 있다. 상기 비방향성 인트라 예측 모드들은 0번인 플래너(planar) 인트라 예측 모드 및 1번인 DC 인트라 예측 모드를 포함할 수 있고, 상기 방향성 인트라 예측 모드들은 2번 내지 66번의 65개의 인트라 예측 모드들을 포함할 수 있다. 다만, 이는 예시로서 본 발명은 인트라 예측 모드들의 수가 다른 경우에도 적용될 수 있다. 한편, 경우에 따라 67번 인트라 예측 모드가 더 사용될 수 있으며, 상기 67번 인트라 예측 모드는 LM(linear model) 모드를 나타낼 수 있다.
도 6은 65개의 예측 방향의 인트라 방향성 모드들을 예시적으로 나타낸다.
도 6을 참조하면, 좌상향 대각 예측 방향을 갖는 34번 인트라 예측 모드를 중심으로 수평 방향성(horizontal directionality)을 갖는 인트라 예측 모드와 수직 방향성(vertical directionality)을 갖는 인트라 예측 모드를 구분할 수 있다. 도 6의 H와 V는 각각 수평 방향성과 수직 방향성을 의미하며, -32 ~ 32의 숫자는 샘플 그리드 포지션(sample grid position) 상에서 1/32 단위의 변위를 나타낸다. 2번 내지 33번 인트라 예측 모드는 수평 방향성, 34번 내지 66번 인트라 예측 모드는 수직 방향성을 갖는다. 18번 인트라 예측 모드와 50번 인트라 예측 모드는 각각 수평 인트라 예측 모드(horizontal intra prediction mode), 수직 인트라 예측 모드(vertical intra prediction mode)를 나타내며, 2번 인트라 예측 모드는 좌하향 대각 인트라 예측 모드, 34번 인트라 예측 모드는 좌상향 대각 인트라 예측 모드, 66번 인트라 예측 모드는 우상향 대각 인트라 예측 모드라고 불릴 수 있다.
변환부는 상기 (1차) 변환 계수들을 기반으로 2차 변환을 수행하여 (2차) 변환 계수들을 도출할 수 있다(S520). 상기 1차 변환이 공간 도메인에서 주파수 도메인으로의 변환이었다면, 상기 2차 변환은 주파수 도메인에서 주파수 도메인으로의 변환으로 볼 수 있다. 상기 2차 변환은 비분리 변환(non-separable transform)을 포함할 수 있다. 이 경우 상기 2차 변환은 비분리 2차 변환(non-separable secondary transform, NSST) 또는 MDNSST(mode-dependent non-separable secondary transform)이라고 불릴 수 있다. 상기 비분리 2차 변환은 상기 1차 변환을 통하여 도출된 (1차) 변환 계수들을 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 2차 변환하여 레지듀얼 신호에 대한 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환을 나타낼 수 있다. 여기서, 상기 비분리 변환 매트릭스를 기반으로 상기 (1차) 변환 계수들에 대하여 수직 변환 및 수평 변환을 분리하여(또는 수평 수직 변환을 독립적으로) 적용하지 않고 한번에 변환을 적용할 수 있다. 다시 말해, 상기 비분리 2차 변환은 상기 비분리 변환 매트릭스를 기반으로 상기 (1차) 변환 계수들의 수직 성분 및 수평 성분 분리하지 않고 같이 변환하여 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환 방법을 나타낼 수 있다. 상기 비분리 2차 변환은 (1차) 변환 계수들로 구성된 블록(이하, 변환 계수 블록 또는 대상 블록이라고 불릴 수 있다)의 좌상단(top-left) 영역에 대하여 적용될 수 있다. 예를 들어, 상기 변환 계수 블록의 너비(W) 및 높이(H)가 둘 다 8 이상인 경우, 8×8 비분리 2차 변환이 상기 변환 계수 블록의 좌상단 8×8 영역(이하 좌상단 대상 영역)에 대하여 적용될 수 있다. 또한, 상기 변환 계수 블록의 너비(W) 및 높이(H)가 둘 다 4 이상 이면서, 상기 변환 계수 블록의 너비(W) 또는 높이(H)가 8보다 작은 경우, 4×4 비분리 2차 변환이 상기 변환 계수 블록의 좌상단 min(8,W)×min(8,H) 영역에 대하여 적용될 수 있다.
구체적으로 예를 들어, 4×4 입력 블록이 사용되는 경우 비분리 2차 변환은 다음과 같이 수행될 수 있다.
상기 4×4 입력 블록 X는 다음과 같이 나타내어질 수 있다.
Figure PCTKR2018015812-appb-M000001
상기 X를 벡터 형태로 나타내는 경우, 벡터
Figure PCTKR2018015812-appb-I000001
는 다음과 같이 나타내어질 수 있다.
Figure PCTKR2018015812-appb-M000002
이 경우, 상기 2차 비분리 변환은 다음과 같이 계산될 수 있다.
Figure PCTKR2018015812-appb-M000003
여기서,
Figure PCTKR2018015812-appb-I000002
는 변환 계수 벡터를 나타내고, T는 16×16 (비분리) 변환 매트릭스를 나타낸다.
상기 수학식3을 통하여 통하여 16×1 변환 계수 벡터
Figure PCTKR2018015812-appb-I000003
가 도출될 수 있으며, 상기
Figure PCTKR2018015812-appb-I000004
는 스캔 순서(수평, 수직, 대각(diagonal) 등)를 통하여 4×4 블록으로 재구성(re-organized)될 수 있다. 다만, 상술한 계산은 예시로서 비분리 2차 변환의 계산 복잡도를 줄이기 위하여 HyGT(Hypercube-Givens Transform) 등이 비분리 2차 변환의 계산을 위하여 사용될 수도 있다.
한편, 상기 비분리 2차 변환은 모드 기반(mode dependent)하게 변환 커널(또는 변환 코어, 변환 타입)이 선택될 수 있다. 여기서 모드는 인트라 예측 모드 및/또는 인터 예측 모드를 포함할 수 있다.
상술한 바와 같이 상기 비분리 2차 변환은 상기 변환 계수 블록의 너비(W) 및 높이(H)를 기반으로 결정된 8×8 변환 또는 4×4 변환에 기반하여 수행될 수 있다. 즉, 상기 비분리 2차 변환은 8×8 서브블록 사이즈 또는 4×4 서브블록 사이즈에 기반하여 수행될 수 있다. 예를 들어, 상기 모드 기반 변환 커널 선택을 위하여, 8×8 서브블록 사이즈 및 4×4 서브블록 사이즈 둘 다에 대하여 비분리 2차 변환을 위한 3개씩 35개 세트의 비분리 2차 변환 커널들이 구성될 수 있다. 즉, 8×8 서브블록 사이즈에 대하여 35개의 변환 세트가 구성되고, 4×4 서브블록 사이즈에 대하여 35개의 변환 세트가 구성될 수 있다. 이 경우 8×8 서브블록 사이즈에 대한 35개의 변환 세트에는 각각 3개씩의 8×8 변환 커널들이 포함될 수 있고, 이 경우 4×4 서브블록 사이즈에 대한 35개의 변환 세트에는 각각 3개씩의 4×4 변환 커널들이 포함될 수 있다. 다만, 상기 변환 서브블록 사이즈, 상기 세트의 수 및 세트 내 변환 커널들의 수는 예시로서 8×8 또는 4×4 이외의 사이즈가 사용될 수 있고, 또는 n개의 세트들이 구성되고, 각 세트 내에 k개의 변환 커널들이 포함될 수도 있다.
상기 변환 세트는 NSST 세트라고 불릴 수 있고, 상기 NSST 세트 내의 변환 커널은 NSST 커널이라고 불릴 수 있다. 상기 변환 세트들 중 특정 세트의 선택은 예를 들어, 대상 블록(CU 또는 서브블록)의 인트라 예측 모드에 기반하여 수행될 수 있다.
이 경우, 상기 35개의 변환 세트들과 상기 인트라 예측 모드들 간의 매핑(mapping)은 예를 들어 다음 표와 같이 나타내어질 수 있다. 참고로, 대상 블록에 LM 모드가 적용되는 경우 상기 대상 블록에 대하여는 2차 변환이 적용되지 않을 수 있다.
Figure PCTKR2018015812-appb-T000004
한편, 특정 세트가 사용되는 것으로 결정되면, 비분리 2차 변환 인덱스를 통하여 상기 특정 세트 내 k개의 변환 커널들 중 하나가 선택될 수 있다. 인코딩 장치는 RD(rate-distortion) 체크 기반으로 특정 변환 커널을 가리키는 비분리 2차 변환 인덱스를 도출할 수 있으며, 상기 비분리 2차 변환 인덱스를 디코딩 장치로 시그널링할 수 있다. 디코딩 장치는 상기 비분리 2차 변환 인덱스를 기반으로 특정 세트 내 k개의 변환 커널들 중 하나를 선택할 수 있다. 예를 들어, NSST 인덱스 값 0은 첫번째 비분리 2차 변환 커널을 가리킬 수 있고, NSST 인덱스 값 1은 두번째 비분리 2차 변환 커널을 가리킬 수 있으며, NSST 인덱스 값 2는 세번째 비분리 2차 변환 커널을 가리킬 수 있다. 또는 NSST 인덱스 값 0은 대상 블록에 대하여 첫번째 비분리 2차 변환이 적용되지 않음을 가리킬 수 있고, NSST 인덱스 값 1 내지 3은 상기 3개의 변환 커널들을 가리킬 수 있다.
다시 도 5를 참조하면, 변환부는 선택된 변환 커널들을 기반으로 상기 비분리 2차 변환을 수행하고 (2차) 변환 계수들을 획득할 수 있다. 상기 변환 계수들은 상술한 바와 같이 양자화부를 통하여 양자화된 변환 계수들로 도출될 수 있고, 인코딩되어 디코딩 장치로 시그널링 및 인코딩 장치 내의 역양자화/역변환부로 전달될 수 있다.
한편, 2차 변환이 생략되는 경우, 상기 1차 (분리) 변환의 출력인 (1차) 변환 계수들이 상술한 바와 같이 양자화부를 통하여 양자화된 변환 계수들로 도출될 수 있고, 인코딩되어 디코딩 장치로 시그널링 및 인코딩 장치 내의 역양자화/역변환부로 전달될 수 있다.
역변환부는 상술한 변환부에서 수행된 절차의 역순으로 일련의 절차를 수행할 수 있다. 역변환부는 (역양자화된) 변환 계수들을 수신하여, 2차 (역)변환을 수행하여 (1차) 변환 계수들을 도출하고(S550), 상기 (1차) 변환 계수들에 대하여 1차 (역)변환을 수행하여 레지듀얼 블록(레지듀얼 샘플들)을 획득할 수 있다. 여기서 상기 1차 변환 계수들은 역변환부 입장에서 수정된(modified) 변환 계수들로 불릴 수 있다. 인코딩 장치 및 디코딩 장치는 상기 레지듀얼 블록과 예측된 블록을 기반으로 복원 블록을 생성하고, 이를 기반으로 복원 픽처를 생성할 수 있음은 상술한 바와 같다.
한편, 상술한 바와 같이 2차 (역)변환이 생략되는 경우 (역양자화된) 변환 계수들을 수신하여 상기 1차 (분리) 변환을 수행하여 레지듀얼 블록(레지듀얼 샘플들)을 획득할 수 있다. 인코딩 장치 및 디코딩 장치는 상기 레지듀얼 블록과 예측된 블록을 기반으로 복원 블록을 생성하고, 이를 기반으로 복원 픽처를 생성할 수 있음은 상술한 바와 같다.
한편, 상술한 비분리 2차 변환은 변환 스킵 모드로 코딩된 블록에 대해서는 적용되지 않을 수 있다. 예를 들어, 대상 CU 에 대한 NSST 인덱스가 시그널링되고, 상기 NSST 인덱스의 값이 0이 아닌 경우, 상기 대상 CU 내 변환 스킵 모드로 코딩된 블록에 대하여 상기 비분리 2차 변환은 적용되지 않을 수 있다. 또한, 모든 구성 요소들(루마 성분, 크로마 성분 등)의 블록들을 포함하는 상기 대상 CU 가 상기 변환 스킵 모드로 코딩된 경우 또는 상기 대상 CU 에 대한 변환 계수들 중 0이 아닌 변환 계수의 개수가 2 보다 작은 경우, 상기 NSST 인덱스는 시그널링되지 않을 수 있다. 구체적인 변환 계수의 코딩 과정은 다음과 같다.
도 7a 및 도 7b는 일 실시예에 따른 변환 계수의 코딩 과정을 도시하는 흐름도이다.
도 7a 및 도 7b에 개시된 각 단계는 도 1 및 도 3에 개시된 인코딩 장치(100) 또는 디코딩 장치(300)에 의하여 수행될 수 있으며, 보다 구체적으로는 도 1에 개시된 엔트로피 인코딩부(130) 및 도 3에 개시된 엔트로피 디코딩부(310)에 의하여 수행될 수 있다. 따라서, 도 1 또는 도 3에서 전술된 내용과 중복되는 구체적인 내용은 설명을 생략하거나 간단히 하기로 한다.
본 명세서에서는 특정 정보 또는 개념을 정의하기 위한 용어 또는 문장을 사용하고 있다. 예를 들어, 본 명세서에서는 "대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그"를 cbf로 나타내고 있다. 그러나, "cbf"는 coded_block_flag 등 다양한 용어로 대체될 수 있는 바, 본 명세서에서 특정 정보 또는 개념을 정의하기 위해 사용된 용어 또는 문장을 명세서 전반에서 해석함에 있어서 그 명칭에 국한된 해석을 하여서는 안 되고, 상기 용어가 의미하는 바에 따른 다양한 동작, 기능 및 효과에 주목하여 해석할 필요가 있다.
도 7a는 변환 계수의 인코딩 과정을 도시하고 있다.
일 실시예에 따른 인코딩 장치(100)는, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는지 여부를 판단할 수 있다(S700). 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는 경우, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재할 수 있다. 반대로, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 0을 지시하는 경우, 대상 블록에 대한 변환 계수들은 모두 0을 나타낼 수 있다.
대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그는, 예를 들어 cbf 플래그로 표현될 수 있다. cbf 플래그는 루마 블록에 대한 cbf_luma[x0][y0][trafoDepth] 및 크로마 블록에 대한 cbf_cb[x0][y0][trafoDepth] 및 cbf_cr[x0][y0][trafoDepth] 플래그를 포함할 수 있다. 여기서, 어레이 인덱스 x0 및 y0는 현재 픽처의 좌상단(top-left) 루마/크로마 샘플에 대한 대상 블록의 좌상단 루마/크로마 샘플의 위치를 의미하고, 어레이 인덱스 trafoDepth는 변환 코딩을 목적으로 하여 코딩 블록이 분할된 레벨을 의미할 수 있다. trafoDepth가 0을 지시하는 블록들을 코딩 블록과 대응되고, 코딩 블록과 변환 블록이 동일하게 정의된 경우에는 trafoDepth가 0으로 간주될 수 있다.
일 실시예에 따른 인코딩 장치(100)는, S700에서 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는 경우, 대상 블록에 대한 변환 계수들에 관한 정보를 인코딩할 수 있다(S710).
대상 블록에 대한 변환 계수들에 관한 정보는, 예를 들어 0이 아닌 마지막 변환 계수의 위치에 대한 정보, 대상 블록의 서브 그룹에 0이 아닌 변환 계수가 포함되는지 여부를 지시하는 그룹 플래그 정보 및 간소화 계수에 대한 정보 중 적어도 하나를 포함할 수 있다. 각 정보에 대한 구체적인 설명은 후술하기로 한다.
일 실시예에 따른 인코딩 장치(100)는, NSST를 수행할 조건에 해당하는지 여부를 판단할 수 있다(S720). 보다 구체적으로, 인코딩 장치(100)는 NSST 인덱스를 인코딩할 조건에 해당하는지 여부를 판단할 수 있다. 이때 NSST 인덱스는, 예를 들어 변환 인덱스(transform index)로 지칭될 수 있다.
일 실시예에 따른 인코딩 장치(100)는, S720에서 NSST를 수행할 조건에 해당한다고 판단된 경우, NSST 인덱스를 인코딩할 수 있다(S730). 보다 구체적으로, 인코딩 장치(100)는, NSST 인덱스를 인코딩할 조건에 해당한다고 판단되는 경우, NSST 인덱스를 인코딩할 수 있다.
일 실시예에 따른 인코딩 장치(100)는, S700에서 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 0을 지시하는 경우, S710, S720 및 S730에 따른 동작을 생략할 수 있다.
또한, 일 실시예에 따른 인코딩 장치(100)는, S720에서 NSST를 수행할 조건에 해당하지 않는다고 판단된 경우, S730에 따른 동작을 생략할 수 있다.
도 7b는 변환 계수의 디코딩 과정을 도시하고 있다.
일 실시예에 따른 디코딩 장치(300)는, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는지 여부를 판단할 수 있다(S740). 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는 경우, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재할 수 있다. 반대로, 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 0을 지시하는 경우, 대상 블록에 대한 변환 계수들은 모두 0을 나타낼 수 있다.
일 실시예에 따른 디코딩 장치(300)는, S740에서 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 1을 지시하는 경우, 대상 블록에 대한 변환 계수들에 관한 정보를 디코딩할 수 있다(S750).
일 실시예에 따른 디코딩 장치(300)는, NSST를 수행할 조건에 해당하는지 여부를 판단할 수 있다(S760). 보다 구체적으로, 디코딩 장치(300)는 NSST 인덱스를 비트스트림으로부터 디코딩할 조건에 해당하는지 여부를 판단할 수 있다.
일 실시예에 따른 디코딩 장치(300)는, S760에서 NSST를 수행할 조건에 해당한다고 판단된 경우, NSST 인덱스를 디코딩할 수 있다(S770).
일 실시예에 따른 디코딩 장치(300)는, S740에서 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나 존재하는지 여부를 나타내는 플래그가 0을 지시하는 경우, S750, S760 및 S770에 따른 동작을 생략할 수 있다.
또한, 일 실시예에 따른 디코딩 장치(300)는, S760에서 NSST를 수행할 조건에 해당하지 않는다고 판단된 경우, S770에 따른 동작을 생략할 수 있다.
상술한 내용과 같이 NSST 가 수행되지 않는 경우에 상기 NSST 인덱스가 시그널링되는 것은 코딩 효율을 저하시킬 수 있다. 또한, 특정 조건에 따라 상기 NSST 인덱스의 코딩 방법을 다르게 하는 방안이 전반적인 영상의 코딩 효율을 향상시킬 수 있다. 이에, 본 발명에서는 다양한 NSST 인덱스 코딩 방법을 제안한다.
일 예로, 특정 조건을 기반으로 상기 NSST 인덱스 범위가 결정될 수 있다. 다시 말해, 특정 조건을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 구체적으로, 상기 특정 조건을 기반으로 상기 NSST 인덱스의 최대값이 결정될 수 있다.
예를 들어, 블록 사이즈를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 여기서, 상기 블록 사이즈는 최소 (W, H) 로 정의될 수 있다. 상기 W 는 폭(width)을 나타낼 수 있고, H 는 높이(height)를 나타낼 수 있다. 이 경우, 대상 블록의 폭과 상기 W 과의 비교, 상기 대상 블록의 높이와 상기 최소 H 와의 비교를 통하여 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 상기 블록 사이즈는 블록의 샘플 수인 (W*H) 로 정의될 수 있다. 이 경우, 대상 블록의 샘플 수인 W*H 과 특정값과의 비교를 통하여 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또한, 예를 들어, 블록의 형태(shape), 즉, 블록 타입(type)을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 여기서, 상기 블록 타입은 정방형(square) 블록 또는 비정방형(non-square) 블록으로 정의될 수 있다. 이 경우, 대상 블록이 정방형 블록 또는 비정방형 블록인지 여부를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 상기 블록 타입은 블록의 긴 변(폭 및 높이 중 긴 변) 과 짧은 변의 비율(ratio)로 정의될 수 있다. 이 경우, 대상 블록의 긴 변과 짧은 변의 비율과 기설정된 임계값(예를 들어, 2 또는 3)과의 비교를 통하여 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 여기서, 상기 비율은 상기 짧은 변으로 상기 긴 변을 나눈 값을 나타낼 수 있다. 예를 들어, 상기 대상 블록의 폭이 높이보다 긴 경우, 상기 폭을 상기 높이로 나눈 값과 상기 기설정된 임계값과의 비교를 통하여 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 또한, 상기 대상 블록의 높이가 폭보다 긴 경우, 가 상기 높이를 상기 폭으로 나눈 값과 상기 기설정된 임계값과의 비교를 통하여 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또한, 예를 들어, 블록에 적용되는 인트라 예측 모드를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 일 예로, 상기 대상 블록에 적용되는 인트라 예측 모드가 비방향성 인트라 예측 모드 또는 방향성 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 다른 예로, 상기 대상 블록에 적용되는 인트라 예측 모드가 카테고리 A (Category A) 또는 카테고리 B (Category B) 에 포함된 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 여기서, 일 예로, 상기 카테고리 A 는 2번 인트라 예측 모드, 10번 인트라 예측 모드, 18번 인트라 예측 모드, 26번 인트라 예측 모드, 34번 인트라 예측 모드, 42번 인트라 예측 모드, 50번 인트라 예측 모드, 58번 인트라 예측 모드 및 66번 인트라 예측 모드를 포함할 수 있고, 상기 카테고리 B 는 상기 카테고리 A 에 포함된 인트라 예측 모드 이외의 인트라 예측 모드들을 포함할 수 있다. 상기 카테고리 A 에 포함된 인트라 예측 모드는 기설정될 수 있고, 상기 카테고리 A 및 상기 카테고리 B는 상술한 예와 다른 인트라 예측 모드를 포함하는 것으로 기설정될 수도 있다.
또는, 다른 예로, 블록의 AMT 팩터(factor)를 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 상기 AMT 팩터는 MTS 팩터라고 나타낼 수도 있다.
예를 들어, 상기 AMT 팩터는 상술한 AMT 플래그로 정의될 수 있다. 이 경우, 상기 대상 블록의 AMT 플래그의 값을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 상기 AMT 팩터는 상술한 AMT 수직 플래그 및/또는 AMT 수평 플래그로 정의될 수 있다. 이 경우, 상기 대상 블록의 상기 AMT 수직 플래그 및/또는 상기 AMT 수평 플래그의 값을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 상기 AMT 팩터는 다중 핵심 변환에서 적용된 변환 커널로 정의될 수 있다. 이 경우, 상기 대상 블록의 다중 핵심 변환에서 적용된 변환 커널을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다.
또는, 다른 예로, 블록의 성분을 기반으로 상기 NSST 인덱스의 값의 범위가 결정될 수 있다. 예를 들어, 상기 대상 블록의 루마 블록에 대한 NSST 인덱스의 값의 범위와 상기 대상 블록의 크로마 블록에 대한 상기 NSST 인덱스의 값의 범위는 서로 다르게 적용될 수 있다.
한편, 상술한 특정 조건의 조합을 토하여 상기 NSST 인덱스의 값의 범위가 결정될 수도 있다.
상기 특정 조건을 기반으로 결정되는 상기 NSST 인덱스의 값의 범위, 즉, 상기 NSST 인덱스의 최대값은 다양하게 설정될 수 있다.
예를 들어, 상기 특정 조건을 기반으로 상기 NSST 인덱스의 최대값은 R1, R2 또는 R3 로 결정될 수 있다. 구체적으로, 상기 특정 조건이 카테고리 A 에 해당하는 경우, 상기 NSST 인덱스의 최대값은 R1로 도출될 수 있고, 상기 특정 조건이 카테고리 B 에 해당하는 경우, 상기 NSST 인덱스의 최대값은 R2로 도출될 수 있고, 상기 특정 조건이 카테고리 C 에 해당하는 경우, 상기 NSST 인덱스의 최대값은 R3로 도출될 수 있다.
상기 카테고리 A 에 대한 R1, 상기 카테고리 B 에 대한 R2, 상기 카테고리 C 에 대한 R3 는 다음의 표와 같이 도출될 수 있다.
Figure PCTKR2018015812-appb-T000005
상기 R1, 상기 R2, 상기 R3 은 기설정될 수 있다. 예를 들어, 상기 R1, 상기 R2, 상기 R3 의 관계는 다음의 수학식과 같이 도출될 수 있다.
Figure PCTKR2018015812-appb-M000004
수학식 4를 참조하면 상기 R1 은 0 보다 크거나 같을 수 있고, 상기 R2 는 상기 R1 보다 클 수 있고, 상기 R3 는 상기 R2 보다 클 수 있다. 한편, 상기 R1 이 0 인 경우에 상기 대상 블록에 대한 상기 NSST 인덱스의 최대값이 상기 R1으로 결정된 경우, 상기 NSST 인덱스는 시그널링되지 않을 수 있고, 상기 NSST 인덱스의 값은 0으로 도출(inferred)될 수 있다.
또한, 본 발명에서는 암시적(implicit) NSST 인덱스 코딩 방법이 제안된다.
일반적으로 NSST 가 적용되는 경우, 변환 계수들 중 0이 아닌 변환 계수의 분포는 변경될 수 있다. 특히, 특정 조건에서 2차 변환으로 RST(reduced secondary transform) 가 사용되는 경우, NSST 인덱스는 코딩되지 않을 수 있다.
여기서, 상기 RST 는 비분리 변환 매트릭스로 간소화 변환 매트릭스를 사용하는 2차 변환을 나타낼 수 있고, 상기 간소화 변환 매트릭스는 N차원 벡터(N dimensional vector)가 다른 공간에 위치한 R차원 벡터(R dimensional vector)에 매핑되어 결정될 수 있으며, 여기서 R은 N보다 작다. 상기 N은 변환이 적용되는 블록의 한 변의 길이(length)의 제곱 또는 변환이 적용되는 블록과 대응되는 변환 계수들의 총 개수를 의미할 수 있고, 간소화 팩터는 R/N값을 의미할 수 있다. 간소화 팩터는 감소된 팩터, 감소 팩터, reduced factor, reduction factor, simplified factor, simple factor 등 다양한 용어로 지칭될 수 있다. 한편, R은 간소화 계수(reduced coefficient)로 지칭될 수 있으나, 경우에 따라서는 간소화 팩터가 R을 의미할 수도 있다. 또한, 경우에 따라서 간소화 팩터는 N/R값을 의미할 수도 있다.
일 실시예에 따른 상기 간소화 변환 매트릭스의 사이즈는 통상의 변환 매트릭스의 사이즈 NxN보다 작은 RxN이며, 아래의 수학식 5와 같이 정의될 수 있다.
Figure PCTKR2018015812-appb-M000005
대상 블록의 1차 변환이 적용된 변환 계수들에 대하여 간소화 변환 매트릭스 TRxN가 곱해지는 경우, 상기 대상 블록에 대한 (2차) 변환 계수들이 도출될 수 있다.
상기 RST 가 적용되는 경우, 2차 변환에 RxN 사이즈인 간소화 변환 매트릭스가 적용되므로 R+1 에서 N 까지의 변환 계수는 암시적으로(implicitly) 0 이 될 수 있다. 다시 말해, 대상 블록의 변환 계수가 상기 RST 가 적용되어 도출된 경우, 상기 R+1 에서 N 까지의 변환 계수의 값은 0 일 수 있다. 여기서, 상기 R+1 에서 N 까지의 변환 계수는 변환 계수들 중 R+1 번째 변환 계수부터 N 번째 변환계수를 나타낼 수 있다. 구체적으로, 대상 블록의 변환 계수의 배열은 다음과 같이 설명될 수 있다.
도 8은 본 발명의 실시예에 따른 대상 블록을 기반으로 변환 계수의 배열을 설명하기 위한 도면이다. 이하 도 8에서 후술되는 변환에 관한 설명들은 역변환에도 마찬가지로 적용될 수 있다. 대상 블록(또는 레지듀얼 블록, 800)에 대하여, 1차 변환 및 간소화 변환을 기반으로 하는 NSST(2차 변환의 일 예)가 수행될 수 있다. 일 예시에서, 도 8에 도시된 16x16 블록은 대상 블록(800)을 나타내고, A 내지 P로 표기된 4x4 블록들은 대상 블록(800)의 서브 그룹을 나타낼 수 있다. 1차 변환은 대상 블록(800) 전체 범위에서 수행될 수 있고, 1차 변환이 수행된 이후 NSST는 서브 그룹 A, B, E 및 F가 구성하는 8x8 블록(이하, 좌상단 대상 영역)에 대하여 적용될 수 있다. 이때, 간소화 변환을 기반으로 하는 NSST가 수행되면 R개(여기서, R은 간소화 계수를 의미하며, R은 N보다 작다)의 NSST 변환 계수들만이 도출되므로, R+1번째부터 N번째 범위의 NSST 변환 계수들은 각각 0으로 결정될 수 있다. R이 예를 들어 16인 경우, 간소화 변환을 기반으로 하는 NSST가 수행되어 도출된 16개의 변환 계수들은 대상 블록(900)의 좌상단 대상 영역에 포함되는 좌상단 4x4 블록인 서브 그룹 A에 포함된 각 블록들에 할당될 수 있고, 서브 그룹 B, E 및 F에 포함된 N-R개, 즉 64-16=48개의 각 블록들에 대해서는 변환 계수 0이 할당될 수 있다. 간소화 변환을 기반으로 하는 NSST가 수행되지 않은 1차 변환 계수들은 서브 그룹 C, D, G, H, I, J, K, L, M, N, O 및 P에 포함된 각 블록들에 할당될 수 있다.
따라서, R+1 에서 N 까지의 변환 계수들을 스캔하여 0이 아닌 변환 계수가 적어도 하나라도 도출되는 경우, 상기 RST 는 적용되지 않는 것으로 판단될 수 있고, 상기 NSST 인덱스의 값은 별도의 시그널링없이 암시적으로 0 이 될 수 있다. 즉, R+1 에서 N 까지의 변환 계수들을 스캔하여 0이 아닌 변환 계수가 적어도 하나라도 도출되는 경우, 상기 RST 는 적용되지 않고, 상기 NSST 인덱스의 값은 별도의 시그널링없이 0 으로 도출될 수 있다.
도 9는 R+1 에서 N 까지의 변환 계수들을 스캔하는 일 예를 나타낸다.
도 9를 참조하면 변환이 적용되는 대상 블록의 사이즈가 64x64이고, R=16 (즉, R/N=16/64=1/4이다) 일 수 있다. 즉, 도 9는 상기 대상 블록의 좌상단 대상 영역을 나타낼 수 있다. 상기 대상 블록의 상기 좌상단 대상 영역의 64개의 샘플들에 대한 2차 변환에 16x64 사이즈의 간소화 변환 매트릭스가 적용될 수 있다. 이 경우, 상기 좌상단 대상 영역에 상기 RST 가 적용되면 17에서 64(N) 까지의 변환 계수의 값은 0 이어야 한다. 다시 말해, 상기 대상 블록의 17에서 64까지의 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나라도 도출되는 경우, 상기 RST 는 적용되지 않고, 상기 NSST 인덱스의 값은 별도의 시그널링없이 0 으로 도출될 수 있다. 따라서, 디코딩 장치는 대상 블록의 변환 계수를 디코딩하고, 디코딩된 변환 계수들 중 17에서 64까지의 변환 계수를 스캔할 수 있고, 0이 아닌 변환 계수가 도출되는 경우, 상기 NSST 인덱스에 대한 별도의 신텍스 요소의 시그널링없이 상기 NSST 인덱스의 값을 0 으로 도출할 수 있다. 한편, 상기 17에서 64까지의 변환 계수들 중 0이 아닌 변환 계수가 존재하지 않는 경우, 디코딩 장치는 상기 NSST 인덱스를 수신하고 디코딩할 수 있다.
도 10a 및 도 10b는 일 실시예에 따른 NSST 인덱스의 코딩 과정을 도시하는 흐름도이다.
도 10a는 NSST 인덱스의 인코딩 과정을 도시하고 있다.
인코딩 장치는 대상 블록에 대한 변환 계수를 인코딩할 수 있다(S1000). 인코딩 장치는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩은 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 인코딩 방법을 포함할 수 있다.
인코딩 장치는 대상 블록에 대한 (명시적인(explicit)) NSST 인덱스가 코딩되는지 여부를 판단할 수 있다(S1010). 여기서, 상기 명시적인(explicit) NSST 인덱스는 디코딩 장치로 전달되는 NSST 인덱스를 나타낼 수 있다. 즉, 인코딩 장치는 시그널링되는 NSST 인덱스를 생성할지 여부를 판단할 수 있다. 다시 말해, 인코딩 장치는 NSST 인덱스에 대한 신텍스 요소를 위한 비트를 할당할지 여부를 판단할 수 있다. 상술한 실시예와 같이 NSST 인덱스가 시그널링되지 않아도 디코딩 장치가 상기 NSST 인덱스의 값을 도출할 수 있는 경우에는 인코딩 장치는 상기 NSST 인덱스를 코딩하지 않을 수 있다. NSST 인덱스가 코딩되는지 여부를 판단하는 구체적인 과정은 후술한다.
상기 (명시적인) NSST 인덱스가 코딩된다고 판단된 경우, 인코딩 장치는 상기 NSST 인덱스를 인코딩할 수 있다(S1020).
도 10b는 NSST 인덱스의 디코딩 과정을 도시하고 있다.
디코딩 장치는 대상 블록에 대한 변환 계수들을 디코딩할 수 있다(S1030).
디코딩 장치는 대상 블록에 대한 (명시적인(explicit)) NSST 인덱스가 코딩되는지 여부를 판단할 수 있다(S1040). 여기서, 상기 명시적인(explicit) NSST 인덱스는 인코딩 장치로부터 시그널링되는 NSST 인덱스를 나타낼 수 있다. 상술한 실시예와 같이 NSST 인덱스가 시그널링되지 않아도 디코딩 장치가 상기 NSST 인덱스의 값을 도출할 수 있는 경우에는 인코딩 장치로부터 상기 NSST 인덱스가 시그널링되지 않을 수 있다. NSST 인덱스가 코딩되는지 여부를 판단하는 구체적인 과정은 후술한다.
상기 (명시적인) NSST 인덱스가 코딩된다고 판단된 경우, 인코딩 장치는 NSST 인덱스를 디코딩할 수 있다(S1040).
도 11은 NSST 인덱스가 코딩되는지 여부를 판단하는 일 예를 나타낸다.
인코딩 장치/디코딩 장치는 대상 블록에 대한 NSST 인덱스를 코딩할 조건에 해당하는지 여부를 판단할 수 있다(S1100). 예를 들어, 상기 대상 블록에 대한 cbf 플래그가 0을 지시하는 경우, 인코딩 장치/디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 코딩하지 않는다고 판단할 수 있다. 또는, 상기 대상 블록이 변환 스킵 모드로 코딩된 경우 또는 상기 대상 블록에 대한 변환 계수들 중 0이 아닌 변환 계수의 개수가 기설정된 임계값보다 작은 경우, 인코딩 장치/디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 코딩하지 않는다고 판단할 수 있다. 예를 들어, 상기 기설정된 임계값은 2일 수 있다.
상기 대상 블록에 대한 NSST 인덱스를 코딩할 조건에 해당하는 경우, 인코딩 장치/디코딩 장치는 R+1 에서 N 까지의 변환 계수들을 스캔할 수 있다(S1110). 상기 R+1 에서 N 까지의 변환 계수들은 상기 변환 계수들 중 스캔 오더(scan order) 상 R+1 번째에서 N 번째까지의 변환 계수들을 나타낼 수 있다.
인코딩 장치/디코딩 장치는 상기 R+1 에서 N 까지의 변환 계수들 중 0이 아닌 변환 계수가 도출되는지 판단할 수 있다(S1120). 상기 R+1 에서 N 까지의 변환 계수들 중 0이 아닌 변환 계수가 도출된 경우, 인코딩 장치/디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 코딩하지 않는다고 판단할 수 있다. 이 경우, 인코딩 장치/디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스의 값을 0으로 도출할 수 있다. 다시 말해, 예를 들어, 값이 0인 NSST 인덱스가 NSST 가 적용되지 않음을 가리키는 경우, 인코딩 장치/디코딩 장치는 상기 대상 블록의 좌상단 대상 영역에 대한 NSST를 수행하지 않을 수 있다.
한편, 상기 R+1 에서 N 까지의 변환 계수들 중 0이 아닌 변환 계수가 도출되지 않은 경우, 인코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 인코딩할 수 있고, 디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 디코딩할 수 있다.
한편, 상기 대상 블록의 성분들(루마 성분, 크로마 Cb 성분, 크로마 Cr 성분)이 공통적인 상기 NSST 인덱스를 사용하는 방안이 제안될 수 있다.
예를 들어, 상기 대상 블록의 크로마 Cb 블록과 상기 대상 블록의 크로마 Cr 블록에 대하여 동일한 NSST 인덱스가 사용될 수 있다. 또한, 다른 예로, 상기 대상 블록의 루마 블록, 상기 대상 블록의 크로마 Cb 블록 및 상기 대상 블록의 크로마 Cr 블록에 대하여 동일한 NSST 인덱스가 사용될 수 있다.
상기 대상 블록의 2개 또는 3개의 성분들이 동일한 NSST 인덱스를 사용하는 경우, 인코딩 장치는 모든 성분(대상 블록의 루마 블록, 크로마 Cb 블록, 크로마 Cr 블록)의 R+1 에서 N 까지의 변환 계수들을 스캔할 수 있고, 0이 아닌 변환 계수가 적어도 하나 이상 도출되는 경우, 상기 NSST 인덱스를 인코딩하지 않고, 상기 NSST 인덱스의 값을 0으로 도출할 수 있다. 또한, 디코딩 장치는 모든 성분(대상 블록의 루마 블록, 크로마 Cb 블록, 크로마 Cr 블록)의 R+1 에서 N 까지의 변환 계수들을 스캔할 수 있고, 0이 아닌 변환 계수가 적어도 하나 이상 도출되는 경우, 상기 NSST 인덱스를 디코딩하지 않고, 상기 NSST 인덱스의 값을 0으로 도출할 수 있다.
도 12는 대상 블록의 모든 성분들에 대한 R+1 에서 N 까지의 변환 계수들을 스캔하는 일 예를 나타낸다.
도 12를 참조하면 변환이 적용되는 대상 블록의 루마 블록, 크로마 Cb 블록 및 크로마 Cr 블록의 사이즈가 64x64이고, R=16 (즉, R/N=16/64=1/4이다) 일 수 있다. 즉, 도 12는 상기 루마 블록의 좌상단 대상 영역, 상기 크로마 Cb 블록의 좌상단 대상 영역 및 상기 크로마 Cr 블록의 좌상단 대상 영역을 도시한다. 따라서, 상기 루마 블록의 좌상단 대상 영역, 상기 크로마 Cb 블록의 좌상단 대상 영역 및 상기 크로마 Cr 블록의 좌상단 대상 영역 각각의 64개의 샘플들에 대한 2차 변환에 16x64 사이즈의 간소화 변환 매트릭스가 적용될 수 있다. 이 경우, 상기 루마 블록의 좌상단 대상 영역, 상기 크로마 Cb 블록의 좌상단 대상 영역 및 상기 크로마 Cr 블록의 좌상단 대상 영역에 상기 RST 가 적용되면 각 블록의 17에서 64(N) 까지의 변환 계수의 값은 0 이어야 한다. 다시 말해, 각 블록의 17에서 64까지의 변환 계수들 중 0이 아닌 변환 계수가 적어도 하나라도 도출되는 경우, 상기 RST 는 적용되지 않고, 상기 NSST 인덱스의 값은 별도의 시그널링없이 0 으로 도출될 수 있다. 따라서, 디코딩 장치는 대상 블록의 모든 성분에 대한 변환 계수를 디코딩하고, 디코딩된 변환 계수들 중 상기 루마 블록, 상기 크로마 Cb 블록 및 상기 크로마 Cr 블록의 17에서 64까지의 변환 계수를 스캔할 수 있고, 0이 아닌 변환 계수가 도출되는 경우, 상기 NSST 인덱스에 대한 별도의 신텍스 요소의 시그널링없이 상기 NSST 인덱스의 값을 0 으로 도출할 수 있다. 한편, 상기 17에서 64까지의 변환 계수들 중 0이 아닌 변환 계수가 존재하지 않는 경우, 디코딩 장치는 상기 NSST 인덱스를 수신하고 디코딩할 수 있다. 상기 NSST 인덱스는 상기 루마 블록, 상기 크로마 Cb 블록 및 상기 크로마 Cr 블록에 대한 인덱스로 사용될 수 있다.
또한, 본 발명에서는 상위 레벨에서 NSST 인덱스 인디케이터를 시그널링하는 방안이 제안될 수 있다. NSST_Idx_indicator 는 상기 NSST 인덱스 인디케이터에 대한 신텍스 요소를 나타낼 수 있다. 예를 들어, 상기 NSST 인덱스 인디케이터는 CTU(Coding Tree Unit) 레벨로 코딩될 수 있고, 상기 NSST 인덱스 인디케이터는 대상 CTU에 NSST 가 적용되는지 여부를 나타낼 수 있다. 즉, 상기 NSST 인덱스 인디케이터는 대상 CTU에 NSST 가 가용한지 여부를 나타낼 수 있다. 구체적으로, 상기 대상 CTU에 대한 상기 NSST 인덱스 인디케이터가 활성화된(enabled) 경우(상기 대상 CTU에 NSST 가 가용한 경우), 즉, 상기 NSST 인덱스 인디케이터의 값이 1인 경우, 대상 CTU에 포함된 CU 또는 TU 에 대한 NSST 인덱스가 코딩될 수 있다. 상기 대상 CTU에 대한 상기 NSST 인덱스 인디케이터가 활성화되지 않은 경우(상기 대상 CTU에 NSST 가 가용하지 않은 경우), 즉, 상기 NSST 인덱스 인디케이터의 값이 0인 경우, 대상 CTU에 포함된 CU 또는 TU 에 대한 NSST 인덱스가 코딩되지 않을 수 있다. 한편, 상기 NSST 인덱스 인디케이터는 상술한 내용과 같이 CTU 레벨로 코딩될 수 있고, 또는 다른 임의의 크기의 샘플 그룹 레벨로 코딩될 수도 있다. 예를 들어, 상기 NSST 인덱스 인디케이터는 CU(Coding Unit) 레벨로 코딩될 수도 있다.
도 13은 본 발명에 따른 인코딩 장치에 의한 영상 인코딩 방법을 개략적으로 나타낸다. 도 13에서 개시된 방법은 도 1에서 개시된 인코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 13의 S1300은 상기 인코딩 장치의 감산부, S1310은 상기 인코딩 장치의 변환부, S1320 내지 S1330은 상기 인코딩 장치의 엔트로피 인코딩부에 의하여 수행될 수 있다. 또한, 비록 도시되지는 않았으나 예측 샘플을 도출하는 과정은 상기 인코딩 장치의 예측부에 의하여 수행될 수 있다.
인코딩 장치는 대상 블록의 레지듀얼 샘플들을 도출한다(S1300). 예를 들어, 인코딩 장치는 대상 블록에 인터 예측을 수행할지 또는 인트라 예측을 수행할지 여부를 결정할 수 있고, 구체적인 인터 예측 모드 또는 구체적인 인트라 예측 모드를 RD 코스트 기반으로 결정할 수 있다. 결정된 모드에 따라 인코딩 장치는 상기 대상 블록에 대한 예측 샘플들을 도출할 수 있고, 상기 대상 블록에 대한 원본 샘플들과 상기 예측 샘플들의 가산을 통하여 상기 레지듀얼 샘플들을 도출할 수 있다.
인코딩 장치는 상기 레지듀얼 샘플들에 대한 변환을 수행하여 상기 대상 블록의 변환 계수들을 도출한다(S1310). 인코딩 장치는 상기 대상 블록에 대한 NSST 적용 여부를 결정할 수 있다.
상기 대상 블록에 대하여 상기 NSST 가 적용되는 경우, 인코딩 장치는 상기 레지듀얼 샘플들에 대한 핵심 변환을 수행하여 수정된 변환 계수들을 도출할 수 있고, 간소화 변환 매트릭스를 기반으로 상기 대상 블록의 좌상단 대상 영역에 위치하는 수정된 변환 계수들에 대한 NSST 를 수행하여 상기 대상 블록의 상기 변환 계수들을 도출할 수 있다. 상기 대상 블록의 상기 좌상단 영역에 위치하는 상기 수정된 변환 계수들 이외의 수정된 변환 계수들은 그대로 상기 대상 블록의 상기 변환 계수들로 도출될 수 있다. 상기 간소화 변환 매트릭스의 사이즈는 RxN 일 수 있고, 상기 N은 상기 좌상단 대상 영역의 샘플수일 수 있고, 상기 R은 간소화 계수(reduced coefficient)일 수 있고, 상기 R은 상기 N 보다 작을 수 있다.
구체적으로, 상기 레지듀얼 샘플들에 대한 핵심 변환은 다음과 같이 수행될 수 있다. 인코딩 장치는 상기 대상 블록에 대한 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT) 적용 여부를 결정할 수 있다. 이 경우, 상기 대상 블록의 적응적 다중 핵심 변환이 적용되는지 여부를 나타내는 AMT 플래그가 생성될 수 있다. 상기 대상 블록에 상기 AMT 가 적용되지 않는 경우, 인코딩 장치는 DCT 타입 2를 상기 대상 블록에 대한 변환 커널로 도출할 수 있고, 상기 DCT 타입 2를 기반으로 상기 레지듀얼 샘플들에 대한 변환을 수행하여 상기 수정된 변환 계수들을 도출할 수 있다.
상기 대상 블록에 상기 AMT 가 적용되는 경우, 인코딩 장치는 수평 변환 커널에 대한 변환 서브셋 및 수직 변환 커널에 대한 변환 서브셋을 구성할 수 있고, 상기 변환 서브셋들을 기반으로 수평 변환 커널 및 수직 변환 커널을 도출할 수 있고, 상기 수평 변환 커널 및 상기 수직 변환 커널을 기반으로 상기 레지듀얼 샘플들에 대한 변환을 수행하여 수정된 변환 계수들을 도출할 수 있다. 여기서, 상기 수평 변환 커널에 대한 변환 서브셋 및 상기 수직 변환 커널에 대한 변환 서브셋은 DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 후보로 포함할 수 있다. 또한, 변환 인덱스 정보가 생성될 수 있고, 상기 변환 인덱스 정보는 상기 수평 변환 커널을 가리키는 AMT 수평 플래그 및 상기 수직 변환 커널을 가리키는 AMT 수직 플래그를 포함할 수 있다. 한편, 상기 변환 커널은 변환 타입 또는 변환 코어(core)라고 불릴 수 있다.
한편, 상기 대상 블록에 대하여 상기 NSST 가 적용되지 않는 경우, 인코딩 장치는 상기 레지듀얼 샘플들에 대한 핵심 변환을 수행하여 상기 대상 블록의 상기 변환 계수들을 도출할 수 있다.
구체적으로, 상기 레지듀얼 샘플들에 대한 핵심 변환은 다음과 같이 수행될 수 있다. 인코딩 장치는 상기 대상 블록에 대한 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT) 적용 여부를 결정할 수 있다. 이 경우, 상기 대상 블록의 적응적 다중 핵심 변환이 적용되는지 여부를 나타내는 AMT 플래그가 생성될 수 있다. 상기 대상 블록에 상기 AMT 가 적용되지 않는 경우, 인코딩 장치는 DCT 타입 2를 상기 대상 블록에 대한 변환 커널로 도출할 수 있고, 상기 DCT 타입 2를 기반으로 상기 레지듀얼 샘플들에 대한 변환을 수행하여 상기 변환 계수들을 도출할 수 있다.
상기 대상 블록에 상기 AMT 가 적용되는 경우, 인코딩 장치는 수평 변환 커널에 대한 변환 서브셋 및 수직 변환 커널에 대한 변환 서브셋을 구성할 수 있고, 상기 변환 서브셋들을 기반으로 수평 변환 커널 및 수직 변환 커널을 도출할 수 있고, 상기 수평 변환 커널 및 상기 수직 변환 커널을 기반으로 상기 레지듀얼 샘플들에 대한 변환을 수행하여 변환 계수들을 도출할 수 있다. 여기서, 상기 수평 변환 커널에 대한 변환 서브셋 및 상기 수직 변환 커널에 대한 변환 서브셋은 DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 후보로 포함할 수 있다. 또한, 변환 인덱스 정보가 생성될 수 있고, 상기 변환 인덱스 정보는 상기 수평 변환 커널을 가리키는 AMT 수평 플래그 및 상기 수직 변환 커널을 가리키는 AMT 수직 플래그를 포함할 수 있다. 한편, 상기 변환 커널은 변환 타입 또는 변환 코어(core)라고 불릴 수 있다.
인코딩 장치는 상기 NSST 인덱스의 인코딩 여부를 결정한다(S1320).
일 예로, 인코딩 장치는 상기 대상 블록의 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔할 수 있고, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스를 인코딩하지 않는 것으로 결정할 수 있다. 여기서, 상기 N은 상기 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작을 수 있다. 상기 N 은 상기 좌상단 대상 영역의 폭(width) 과 높이(height)의 곱으로 도출될 수 있다.
또한, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 인코딩 장치는 상기 NSST 인덱스를 인코딩하는 것으로 결정할 수 있다. 이 경우, 변환 계수들에 대한 정보는 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 포함할 수 있다. 즉, 상기 NSST 인덱스에 대한 신텍스 요소는 인코딩될 수 있다. 다시 말해, 상기 NSST 인덱스에 대한 신텍스 요소를 위한 비트가 할당될 수 있다.
한편, 인코딩 장치는 상기 NSST 가 수행될 수 있는 조건에 해당하는지 판단할 수 있고, 상기 NSST 가 수행될 수 있는 경우, 상기 대상 블록에 대한 NSST 인덱스를 인코딩하는 것으로 결정할 수 있다. 예를 들어, 비트스트림으로부터 상기 대상 블록을 포함하는 대상 CTU 에 대한 NSST 인덱스 인디케이터(indicator)가 생성될 수 있고, 상기 NSST 인덱스 인디케이터는 상기 대상 CTU 에 NSST 가 적용되는지 여부를 나타낼 수 있다. 상기 NSST 인덱스 인디케이터의 값이 1인 경우, 인코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 인코딩하는 것으로 결정할 수 있고, 상기 NSST 인덱스 인디케이터의 값이 0인 경우, 디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 인코딩하지 않는 것으로 결정할 수 있다. 상술한 예와 같이 상기 NSST 인덱스 인디케이터는 CTU 레벨로 시그널링될 수 있고, 또는 상기 NSST 인덱스 인디케이터는 CU 레벨 또는 다른 상위 레벨로 시그널링될 수 있다.
또한, 상기 NSST 인덱스는 상기 대상 블록의 복수의 성분들에 대하여 사용될 수 있다.
예를 들어, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들, 크로마 Cb 블록의 변환 계수들 및 크로마 Cr 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들, 상기 크로마 Cb 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cr 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스는 인코딩되지 않는 것으로 결정될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 NSST 인덱스는 인코딩하는 것으로 결정될 수 있다. 이 경우, 변환 계수들에 대한 정보는 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 포함할 수 있다. 즉, 상기 NSST 인덱스에 대한 신텍스 요소는 인코딩될 수 있다. 다시 말해, 상기 NSST 인덱스에 대한 신텍스 요소를 위한 비트가 할당될 수 있다.
다른 예로, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들 및 크로마 Cb 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cb 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스는 인코딩되지 않는 것으로 결정될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 NSST 인덱스는 인코딩하는 것으로 결정될 수 있다. 이 경우, 변환 계수들에 대한 정보는 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 포함할 수 있다. 즉, 상기 NSST 인덱스에 대한 신텍스 요소는 인코딩될 수 있다. 다시 말해, 상기 NSST 인덱스에 대한 신텍스 요소를 위한 비트가 할당될 수 있다.
다른 예로, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들 및 크로마 Cr 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cr 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스는 인코딩되지 않는 것으로 결정될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 NSST 인덱스는 인코딩하는 것으로 결정될 수 있다. 이 경우, 변환 계수들에 대한 정보는 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 포함할 수 있다. 즉, 상기 NSST 인덱스에 대한 신텍스 요소는 인코딩될 수 있다. 다시 말해, 상기 NSST 인덱스에 대한 신텍스 요소를 위한 비트가 할당될 수 있다.
한편, 특정 조건을 기반으로 NSST 인덱스의 범위가 도출될 수 있다. 예를 들어, 상기 특정 조건을 기반으로 상기 NSST 인덱스의 최대값이 도출될 수 있고, 상기 범위는 0 내지 상기 도출된 최대값으로 도출될 수 있다. 상기 도출된 NSST 인덱스의 값은 상기 범위에 포함될 수 있다.
예를 들어, 상기 대상 블록의 사이즈를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 최소 폭 및 최소 높이가 기설정될 수 있고, 상기 대상 블록의 폭 및 상기 최소 폭, 상기 대상 블록의 높이 및 상기 최소 높이를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 샘플수 및 특정값을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 상기 샘플수는 상기 대상 블록의 폭과 높이를 곱한 값일 수 있고, 상기 특정값은 기설정될 수 있다.
또한, 다른 예로, 상기 대상 블록의 타입을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 상기 대상 블록이 비정방형 블록인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 폭과 높이 간의 비율 및 특정값을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 상기 대상 블록의 폭과 높이 간의 비율은 상기 대상 블록의 폭과 높이 중 긴 변을 짧은 변으로 나눈 값일 수 있고, 상기 특정값은 기설정될 수 있다.
또한, 다른 예로, 상기 대상 블록의 인트라 예측 모드를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 상기 대상 블록의 인트라 예측 모드가 비방향성 인트라 예측 모드인지 또는 방향성 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 인트라 예측 모드가 카테고리 A (Category A) 또는 카테고리 B (Category B) 에 포함된 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 여기서, 상기 카테고리 A 에 포함된 인트라 예측 모드와 상기 카테고리 B에 포함된 인트라 예측 모드는 기설정될 수 있다. 일 예로, 상기 카테고리 A 는 2번 인트라 예측 모드, 10번 인트라 예측 모드, 18번 인트라 예측 모드, 26번 인트라 예측 모드, 34번 인트라 예측 모드, 42번 인트라 예측 모드, 50번 인트라 예측 모드, 58번 인트라 예측 모드 및 66번 인트라 예측 모드를 포함할 수 있고, 상기 카테고리 B 는 상기 카테고리 A 에 포함된 인트라 예측 모드 이외의 인트라 예측 모드들을 포함할 수 있다.
또한, 다른 예로, 상기 대상 블록의 핵심 변환(core transform)에 대한 정보를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 예를 들어, 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT)이 적용되는지 여부를 나타내는 AMT 플래그를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 수평 변환 커널을 가리키는 AMT 수평 플래그 및 수직 변환 커널을 가리키는 AMT 수직 플래그를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다.
한편, 상기 NSST 인덱스의 값이 0인 경우, 상기 NSST 인덱스는 상기 대상 블록에 NSST 가 적용되지 않음을 가리킬 수 있다.
인코딩 장치는 변환 계수들에 대한 정보를 인코딩한다(S1330). 상기 변환 계수들에 대한 정보는 상기 변환 계수들의 크기, 위치 등에 관한 정보를 포함할 수 있다. 또한, 상술한 바와 같이 상기 변환 계수들에 대한 정보는 상기 NSST 인덱스, 상기 변환 인덱스 정보 및/또는 상기 AMT 플래그를 더 포함할 수 있다. 상기 변환 계수들에 대한 정보를 포함하는 영상 정보는 비트스트림 형태로 출력될 수 있다. 또한, 상기 영상 정보는 상기 NSST 인덱스 인디케이터 및/또는 예측 정보를 더 포함할 수 있다. 상기 예측 정보는 상기 예측 절차에 관련된 정보들로 예측 모드 정보 및 움직임 정보에 관한 정보(ex. 인터 예측이 적용되는 경우) 등을 포함할 수 있다.
출력된 비트스트림은 저장매체 또는 네트워크를 통하여 디코딩 장치로 전달될 수 있다.
도 14는 본 발명에 따른 영상 인코딩 방법을 수행하는 인코딩 장치를 개략적으로 나타낸다. 도 13에서 개시된 방법은 도 14에서 개시된 인코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 14의 상기 인코딩 장치의 가산부는 도 13의 S1300을 수행할 수 있고, 상기 인코딩 장치의 변환부는 S1310을 수행할 수 있고, 상기 인코딩 장치의 엔트로피 인코딩부는 도 13의 S1320 내지 S1330을 수행할 수 있다. 또한, 비록 도시되지는 않았으나 예측 샘플을 도출하는 과정은 상기 인코딩 장치의 예측부에 의하여 수행될 수 있다.
도 15는 본 발명에 따른 디코딩 장치에 의한 영상 디코딩 방법을 개략적으로 나타낸다. 도 15에서 개시된 방법은 도 3에서 개시된 디코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 15의 S15400 내지 S1510은 상기 디코딩 장치의 엔트로피 디코딩부, S1520은 상기 디코딩 장치의 역변환부, S1530은 상기 디코딩 장치의 가산부에 의하여 수행될 수 있다. 또한, 비록 도시되지는 않았으나 예측 샘플을 도출하는 과정은 상기 디코딩 장치의 예측부에 의하여 수행될 수 있다.
디코딩 장치는 상기 비트스트림으로부터 상기 대상 블록의 변환 계수들을 도출한다(S1500). 디코딩 장치는 상기 비트스트림을 통하여 수신된 상기 대상 블록의 변환 계수들에 대한 정보를 디코딩하여 상기 대상 블록의 변환 계수들을 도출할 수 있다. 상기 수신된 상기 대상 블록의 변환 계수들에 대한 정보는 레지듀얼(residual) 정보라고 나타낼 수 있다.
한편, 상기 대상 블록의 변환 계수들은 상기 대상 블록의 루마 블록의 변환 계수들, 상기 대상 블록의 크로마 Cb 블록의 변환 계수들 및 상기 대상 블록의 크로마 Cr 블록의 변환 계수들을 포함할 수 있다.
디코딩 장치는 상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출한다(S1510).
일 예로, 디코딩 장치는 상기 대상 블록의 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔할 수 있고, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값을 0으로 도출할 수 있다. 여기서, 상기 N은 상기 대상 블록의 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작을 수 있다. 상기 N 은 상기 좌상단 대상 영역의 폭(width) 과 높이(height)의 곱으로 도출될 수 있다.
또한, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 디코딩 장치는 상기 비트스트림에 포함된 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 파싱(parsing)하여 상기 NSST 인덱스의 값을 도출할 수 있다. 즉, 상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 비트스트림은 상기 NSST 인덱스에 대한 신텍스 요소를 포함할 수 있고, 디코딩 장치는 비트스트림을 통하여 수신된 상기 NSST 인덱스에 대한 신텍스 요소를 파싱하여 상기 NSST 인덱스의 값을 도출할 수 있다.
한편, 디코딩 장치는 상기 NSST 가 수행될 수 있는 조건에 해당하는지 판단할 수 있고, 상기 NSST 가 수행될 수 있는 경우, 상기 대상 블록에 대한 NSST 인덱스를 도출할 수 있다. 예를 들어, 비트스트림으로부터 상기 대상 블록을 포함하는 대상 CTU 에 대한 NSST 인덱스 인디케이터(indicator)가 시그널링될 수 있고, 상기 NSST 인덱스 인디케이터는 상기 대상 CTU 에 NSST 가 가용한지(enabled) 여부를 나타낼 수 있다. 상기 NSST 인덱스 인디케이터의 값이 1인 경우, 디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 도출할 수 있고, 상기 NSST 인덱스 인디케이터의 값이 0인 경우, 디코딩 장치는 상기 대상 블록에 대한 NSST 인덱스를 도출하지 않을 수 있다. 상술한 예와 같이 상기 NSST 인덱스 인디케이터는 CTU 레벨로 시그널링될 수 있고, 또는 상기 NSST 인덱스 인디케이터는 CU 레벨 또는 다른 상위 레벨로 시그널링될 수 있다.
또한, 상기 NSST 인덱스는 상기 대상 블록의 복수의 성분들에 대하여 사용될 수 있다.
예를 들어, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들, 크로마 Cb 블록의 변환 계수들 및 크로마 Cr 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들, 상기 크로마 Cb 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cr 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값은 0으로 도출될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 비트스트림은 상기 NSST 인덱스에 대한 신텍스 요소를 포함할 수 있고, 상기 NSST 인덱스의 값은 비트스트림을 통하여 수신된 상기 NSST 인덱스에 대한 신텍스 요소를 파싱하여 도출될 수 있다.
다른 예로, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들 및 크로마 Cb 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cb 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값은 0으로 도출될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 비트스트림은 상기 NSST 인덱스에 대한 신텍스 요소를 포함할 수 있고, 상기 NSST 인덱스의 값은 비트스트림을 통하여 수신된 상기 NSST 인덱스에 대한 신텍스 요소를 파싱하여 도출될 수 있다.
다른 예로, 상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들 및 크로마 Cr 블록의 변환 계수들에 대한 역변환에 사용될 수 있다. 이 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cr 블록의 R+1번째부터 N번째의 변환 계수들이 스캔될 수 있고, 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값은 0으로 도출될 수 있다. 상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 비트스트림은 상기 NSST 인덱스에 대한 신텍스 요소를 포함할 수 있고, 상기 NSST 인덱스의 값은 비트스트림을 통하여 수신된 상기 NSST 인덱스에 대한 신텍스 요소를 파싱하여 도출될 수 있다.
한편, 특정 조건을 기반으로 NSST 인덱스의 범위가 도출될 수 있다. 예를 들어, 상기 특정 조건을 기반으로 상기 NSST 인덱스의 최대값이 도출될 수 있고, 상기 범위는 0 내지 상기 도출된 최대값으로 도출될 수 있다. 상기 도출된 NSST 인덱스의 값은 상기 범위에 포함될 수 있다.
예를 들어, 상기 대상 블록의 사이즈를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 최소 폭 및 최소 높이가 기설정될 수 있고, 상기 대상 블록의 폭 및 상기 최소 폭, 상기 대상 블록의 높이 및 상기 최소 높이를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 샘플수 및 특정값을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 상기 샘플수는 상기 대상 블록의 폭과 높이를 곱한 값일 수 있고, 상기 특정값은 기설정될 수 있다.
또한, 다른 예로, 상기 대상 블록의 타입을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 상기 대상 블록이 비정방형 블록인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 폭과 높이 간의 비율 및 특정값을 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 상기 대상 블록의 폭과 높이 간의 비율은 상기 대상 블록의 폭과 높이 중 긴 변을 짧은 변으로 나눈 값일 수 있고, 상기 특정값은 기설정될 수 있다.
또한, 다른 예로, 상기 대상 블록의 인트라 예측 모드를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 구체적으로, 상기 대상 블록의 인트라 예측 모드가 비방향성 인트라 예측 모드인지 또는 방향성 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 상기 대상 블록의 인트라 예측 모드가 카테고리 A (Category A) 또는 카테고리 B (Category B) 에 포함된 인트라 예측 모드인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 여기서, 상기 카테고리 A 에 포함된 인트라 예측 모드와 상기 카테고리 B에 포함된 인트라 예측 모드는 기설정될 수 있다. 일 예로, 상기 카테고리 A 는 2번 인트라 예측 모드, 10번 인트라 예측 모드, 18번 인트라 예측 모드, 26번 인트라 예측 모드, 34번 인트라 예측 모드, 42번 인트라 예측 모드, 50번 인트라 예측 모드, 58번 인트라 예측 모드 및 66번 인트라 예측 모드를 포함할 수 있고, 상기 카테고리 B 는 상기 카테고리 A 에 포함된 인트라 예측 모드 이외의 인트라 예측 모드들을 포함할 수 있다.
또한, 다른 예로, 상기 대상 블록의 핵심 변환(core transform)에 대한 정보를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 예를 들어, 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT)이 적용되는지 여부를 나타내는 AMT 플래그를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다. 또한, 수평 변환 커널을 가리키는 AMT 수평 플래그 및 수직 변환 커널을 가리키는 AMT 수직 플래그를 기반으로 상기 NSST 인덱스의 범위가 도출될 수 있다.
한편, 상기 NSST 인덱스의 값이 0인 경우, 상기 NSST 인덱스는 상기 대상 블록에 NSST 가 적용되지 않음을 가리킬 수 있다.
디코딩 장치는 상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출한다(S1520).
예를 들어, 상기 NSST 인덱스의 값이 0인 경우, 디코딩 장치는 상기 대상 블록의 상기 변환 계수들에 대한 핵심 변환(core transform)을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다.
구체적으로, 디코딩 장치는 비트스트림으로부터 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT)이 적용되는지 여부를 나타내는 AMT 플래그를 획득할 수 있다.
상기 AMT 플래그의 값이 0 인 경우, 디코딩 장치는 DCT 타입 2를 상기 대상 블록에 대한 변환 커널로 도출할 수 있고, 상기 DCT 타입 2를 기반으로 상기 변환 계수들에 대한 역변환을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다.
상기 AMT 플래그의 값이 1 인 경우, 디코딩 장치는 수평 변환 커널에 대한 변환 서브셋 및 수직 변환 커널에 대한 변환 서브셋을 구성할 수 있고, 상기 비트스트림으로부터 획득된 변환 인덱스 정보, 상기 변환 서브셋들을 기반으로 수평 변환 커널 및 수직 변환 커널을 도출할 수 있고, 상기 수평 변환 커널 및 상기 수직 변환 커널을 기반으로 상기 변환 계수들에 대한 역변환을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다. 여기서, 상기 수평 변환 커널에 대한 변환 서브셋 및 상기 수직 변환 커널에 대한 변환 서브셋은 DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 후보로 포함할 수 있다. 또한, 상기 변환 인덱스 정보는 상기 수평 변환 커널에 대한 변환 서브셋에 포함된 후보들 중 하나를 가리키는 AMT 수평 플래그 및 상기 수직 변환 커널에 대한 변환 서브셋에 포함된 후보들 중 하나를 가리키는 AMT 수직 플래그를 포함할 수 있다. 한편, 상기 변환 커널은 변환 타입 또는 변환 코어(core)라고 불릴 수 있다.
다른 예로, 상기 NSST 인덱스의 값이 0이 아닌 경우, 디코딩 장치는 상기 NSST 인덱스가 가리키는 간소화 변환 매트릭스(reduced transform matrix)를 기반으로 상기 대상 블록의 좌상단 대상 영역에 위치하는 변환 계수들에 대한 NSST 를 수행하여 수정된 변환 계수들을 도출할 수 있고, 상기 수정된 변환 계수들을 포함하는 상기 대상 블록에 대한 핵심 변환을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다. 상기 간소화 변환 매트릭스의 사이즈는 RxN 일 수 있고, 상기 N은 상기 좌상단 대상 영역의 샘플수일 수 있고, 상기 R은 간소화 계수(reduced coefficient)일 수 있고, 상기 R은 상기 N 보다 작을 수 있다.
상기 대상 블록에 대한 핵심 변환은 다음과 같이 수행될 수 있다. 디코딩 장치는 비트스트림으로부터 적응적 다중 핵심 변환(Adaptive Multiple core Transform, AMT)이 적용되는지 여부를 나타내는 AMT 플래그를 획득할 수 있고, 상기 AMT 플래그의 값이 0 인 경우, 디코딩 장치는 DCT 타입 2를 상기 대상 블록에 대한 변환 커널로 도출할 수 있고, 상기 DCT 타입 2를 기반으로 상기 수정된 변환 계수들을 포함하는 상기 대상 블록에 대한 역변환을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다.
상기 AMT 플래그의 값이 1 인 경우, 디코딩 장치는 수평 변환 커널에 대한 변환 서브셋 및 수직 변환 커널에 대한 변환 서브셋을 구성할 수 있고, 상기 비트스트림으로부터 획득된 변환 인덱스 정보, 상기 변환 서브셋들을 기반으로 수평 변환 커널 및 수직 변환 커널을 도출할 수 있고, 상기 수평 변환 커널 및 상기 수직 변환 커널을 기반으로 상기 수정된 변환 계수들을 포함하는 상기 대상 블록에 대한 역변환을 수행하여 상기 레지듀얼 샘플들을 도출할 수 있다. 여기서, 상기 수평 변환 커널에 대한 변환 서브셋 및 상기 수직 변환 커널에 대한 변환 서브셋은 DCT 타입 2, DST 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 후보로 포함할 수 있다. 또한, 상기 변환 인덱스 정보는 상기 수평 변환 커널에 대한 변환 서브셋에 포함된 후보들 중 하나를 가리키는 AMT 수평 플래그 및 상기 수직 변환 커널에 대한 변환 서브셋에 포함된 후보들 중 하나를 가리키는 AMT 수직 플래그를 포함할 수 있다. 한편, 상기 변환 커널은 변환 타입 또는 변환 코어(core)라고 불릴 수 있다.
디코딩 장치는 상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성한다(S1530). 디코딩 장치는 상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성할 수 있다. 예를 들어, 디코딩 장치는 비트스트림을 통하여 수신된 예측 정보를 기반으로 대상 블록에 대한 인터 예측 또는 인트라 예측을 수행하고 예측 샘플들을 도출할 수 있고, 상기 예측 샘플들과 상기 레지듀얼 샘플들의 가산을 통하여 상기 복원 픽처를 생성할 수 있다. 이후 필요에 따라 주관적/객관적 화질을 향상시키기 위하여 디블록킹 필터링, SAO 및/또는 ALF 절차와 같은 인루프 필터링 절차가 상기 복원 픽처에 적용될 수 있음은 상술한 바와 같다.
도 16은 본 발명에 따른 영상 디코딩 방법을 수행하는 디코딩 장치를 개략적으로 나타낸다. 도 15에서 개시된 방법은 도 16에서 개시된 디코딩 장치에 의하여 수행될 수 있다. 구체적으로 예를 들어, 도 16의 상기 디코딩 장치의 엔트로피 디코딩부는 도 15의 S1500 내지 S1510을 수행할 수 있고, 도 16의 상기 디코딩 장치의 역변환부는 도 15의 S1520을 수행할 수 있고, 도 16의 상기 디코딩 장치의 가산부는 도 15의 S1530을 수행할 수 있다. 또한, 비록 도시되지는 않았으나 예측 샘플을 도출하는 과정은 도 16의 상기 디코딩 장치의 예측부에 의하여 수행될 수 있다.
상술한 본 발명에 따르면 NSST 인덱스의 범위를 대상 블록의 특정 조건을 기반으로 도출할 수 있고, 이를 통하여, 상기 NSST 인덱스를 위한 비트량을 감소시키고 전반적인 코딩 효율을 향상시킬 수 있다.
또한, 본 발명에 따르면 NSST 인덱스에 대한 신텍스 엘리먼트의 전송이 대상 블록에 대한 변환 계수들을 기반으로 결정될 수 있고, 이를 통하여, NSST 인덱스를 위한 비트량을 감소시키고 전반적인 코딩 효율을 향상시킬 수 있다.
상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타내어진 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 본 발명에 따른 방법은 소프트웨어 형태로 구현될 수 있으며, 본 발명에 따른 인코딩 장치 및/또는 디코딩 장치는 예를 들어 TV, 컴퓨터, 스마트폰, 셋톱박스, 디스플레이 장치 등의 영상 처리를 수행하는 장치에 포함될 수 있다.
본 발명에서 실시예들이 소프트웨어로 구현될 때, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다. 프로세서는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 즉, 본 발명에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 각 도면에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 발명이 적용되는 디코딩 장치 및 인코딩 장치는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, OTT 비디오(Over the top video) 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 또는 데이터 신호를 처리하기 위해 사용될 수 있다. 예를 들어, OTT 비디오(Over the top video) 장치로는 게임 콘솔, 블루레이 플레이어, 인터넷 접속 TV, 홈시어터 시스템, 스마트폰, 태블릿 PC, DVR(Digital Video Recoder) 등을 포함할 수 있다.
또한, 본 발명이 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치 및 분산 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다. 또한, 본 발명의 실시예는 프로그램 코드에 의한 컴퓨터 프로그램 제품으로 구현될 수 있고, 상기 프로그램 코드는 본 발명의 실시예에 의해 컴퓨터에서 수행될 수 있다. 상기 프로그램 코드는 컴퓨터에 의해 판독 가능한 캐리어 상에 저장될 수 있다.
또한, 본 발명이 적용되는 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.
상기 인코딩 서버는 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수 있다. 상기 비트스트림은 본 발명이 적용되는 인코딩 방법 또는 비트스트림 생성 방법에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기초하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 한다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송한다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 한다.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하게 되는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다. 상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.

Claims (15)

  1. 디코딩 장치에 의하여 수행되는 영상 디코딩 방법에 있어서,
    비트스트림으로부터 대상 블록의 변환 계수들을 도출하는 단계;
    상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출하는 단계;
    상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출하는 단계; 및
    상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  2. 제1항에 있어서,
    상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)를 수행하여 상기 대상 블록의 상기 레지듀얼 샘플들을 도출하는 단계는,
    상기 NSST 인덱스의 값이 0인 경우, 상기 대상 블록의 상기 변환 계수들에 대한 핵심 변환(core transform)을 수행하여 상기 레지듀얼 샘플들을 도출하는 단계; 및
    상기 NSST 인덱스의 값이 0이 아닌 경우, 상기 NSST 인덱스가 가리키는 간소화 변환 매트릭스(reduced transform matrix)를 기반으로 상기 대상 블록의 좌상단 대상 영역에 위치하는 변환 계수들에 대한 NSST 를 수행하여 수정된 변환 계수들을 도출하고, 상기 수정된 변환 계수들을 포함하는 상기 대상 블록에 대한 핵심 변환을 수행하여 상기 레지듀얼 샘플들을 도출하는 단계를 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  3. 제2항에 있어서,
    상기 간소화 변환 매트릭스의 사이즈는 RxN 이고,
    상기 N은 상기 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작은 것을 특징으로 하는 영상 디코딩 방법.
  4. 제3항에 있어서,
    상기 대상 블록에 대한 상기 NSST 인덱스를 도출하는 단계는,
    상기 대상 블록의 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔하는 단계; 및
    상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값을 0으로 도출하는 단계를 포함하는 영상 디코딩 방법.
  5. 제3항에 있어서,
    상기 대상 블록에 대한 상기 NSST 인덱스를 도출하는 단계는,
    상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 비트스트림에 포함된 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 파싱하여 상기 NSST 인덱스의 값을 도출하는 단계를 더 포함하는 것을 특징으로 하는 영상 디코딩 방법.
  6. 상기 제1항에 있어서,
    상기 대상 블록의 폭 및 최소 폭, 상기 대상 블록의 높이 및 최소 높이를 기반으로 상기 NSST 인덱스의 범위가 도출되고,
    상기 최소 폭 및 상기 최소 높이는 기설정되는 것을 특징으로 하는 영상 디코딩 방법.
  7. 제1항에 있어서,
    상기 대상 블록의 샘플수 및 특정값을 기반으로 상기 NSST 인덱스의 범위가 도출되고,
    상기 샘플수는 상기 대상 블록의 폭과 높이를 곱한 값이고, 상기 특정값은 기설정되는 것을 특징으로 하는 영상 디코딩 방법.
  8. 제1항에 있어서,
    상기 대상 블록이 비정방형(non-square) 블록인지 여부를 기반으로 상기 NSST 인덱스의 범위가 도출되는 것을 특징으로 하는 영상 디코딩 방법.
  9. 제3항에 있어서,
    상기 NSST 인덱스가 상기 대상 블록의 루마 블록의 변환 계수들, 크로마 Cb 블록의 변환 계수들 및 크로마 Cr 블록의 변환 계수들에 대한 역변환에 사용되는 경우, 상기 루마 블록의 R+1번째부터 N번째의 변환 계수들, 상기 크로마 Cb 블록의 R+1번째부터 N번째의 변환 계수들 및 상기 크로마 Cr 블록의 R+1번째부터 N번째의 변환 계수들이 스캔되고,
    상기 스캔된 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스의 값은 0으로 도출되는 것을 특징으로 하는 영상 디코딩 방법.
  10. 제1항에 있어서,
    비트스트림으로부터 상기 대상 블록을 포함하는 대상 CTU 에 대한 NSST 인덱스 인디케이터(indicator)가 시그널링되고,
    상기 NSST 인덱스 인디케이터는 상기 대상 CTU 에 NSST 가 가용한지(enabled) 여부를 나타내는 것을 특징으로 하는 영상 디코딩 방법.
  11. 영상 디코딩 장치에 있어서,
    비트스트림으로부터 대상 블록의 변환 계수들을 도출하고, 상기 대상 블록에 대한 NSST(Non-Separable Secondary Transform) 인덱스를 도출하는 엔트로피 디코딩부;
    상기 NSST 인덱스를 기반으로 상기 대상 블록의 상기 변환 계수들에 대한 역변환(inversed transform)을 수행하여 상기 대상 블록의 레지듀얼 샘플들을 도출하는 역변환부; 및
    상기 레지듀얼 샘플들을 기반으로 복원 픽처를 생성하는 가산부를 포함하는 것을 특징으로 하는 영상 디코딩 장치.
  12. 인코딩 장치에 의하여 수행되는 영상 인코딩 방법에 있어서,
    대상 블록의 레지듀얼 샘플들을 도출하는 단계;
    상기 레지듀얼 샘플들에 대한 변환(transform)을 수행하여 상기 대상 블록의 변환 계수들을 도출하는 단계;
    상기 대상 블록에 대한 NSST 인덱스의 인코딩 여부를 결정하는 단계; 및
    상기 변환 계수들에 대한 정보를 인코딩하는 단계를 포함하되,
    상기 NSST 인덱스의 인코딩 여부를 결정하는 단계는,
    상기 대상 블록의 상기 변환 계수들 중 R+1번째부터 N번째의 변환 계수들을 스캔하는 단계; 및
    상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함된 경우, 상기 NSST 인덱스를 인코딩하지 않는 것으로 결정하는 단계를 포함하고,
    상기 N은 상기 대상 블록의 좌상단 대상 영역의 샘플수이고, 상기 R은 간소화 계수(reduced coefficient)이고, 상기 R은 상기 N 보다 작은 것을 특징으로 하는 영상 인코딩 방법.
  13. 제12항에 있어서,
    상기 NSST 인덱스의 인코딩 여부를 결정하는 단계는,
    상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 NSST 인덱스를 인코딩하는 것으로 결정하는 단계를 더 포함하고,
    상기 R+1번째부터 N번째의 변환 계수들에 0이 아닌 변환 계수가 포함되지 않은 경우, 상기 변환 계수들에 대한 정보는 상기 NSST 인덱스에 대한 신텍스 요소(syntax element)를 포함하는 것을 특징으로 하는 영상 인코딩 방법.
  14. 제12항에 있어서,
    상기 레지듀얼 샘플들에 대한 변환을 수행하여 상기 대상 블록의 상기 변환 계수들을 도출하는 단계는,
    상기 대상 블록에 대한 NSST 적용 여부를 결정하는 단계;
    상기 대상 블록에 대하여 상기 NSST 가 적용되는 경우, 상기 레지듀얼 샘플들에 대한 핵심 변환을 수행하여 수정된 변환 계수들을 도출하고, 간소화 변환 매트릭스를 기반으로 상기 좌상단 대상 영역에 위치하는 수정된 변환 계수들에 대한 NSST 를 수행하여 상기 대상 블록의 상기 변환 계수들을 도출하는 단계; 및
    상기 대상 블록에 대하여 상기 NSST 가 적용되지 않는 경우, 상기 레지듀얼 샘플들에 대한 핵심 변환을 수행하여 상기 대상 블록의 상기 변환 계수들을 도출하는 단계를 포함하는 것을 특징으로 하는 영상 인코딩 방법.
  15. 제12항에 있어서,
    상기 대상 블록의 폭 및 최소 폭, 상기 대상 블록의 높이 및 최소 높이를 기반으로 상기 NSST 인덱스의 범위가 도출되고,
    상기 최소 폭 및 상기 최소 높이는 기설정되는 것을 특징으로 하는 영상 인코딩 방법.
PCT/KR2018/015812 2017-12-15 2018-12-13 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치 WO2019117636A1 (ko)

Priority Applications (22)

Application Number Priority Date Filing Date Title
BR122021010330-5A BR122021010330B1 (pt) 2017-12-15 2018-12-13 Método de codificação de imagem com base em transformada secundária não separável e dispositivo para o mesmo
MX2020006313A MX2020006313A (es) 2017-12-15 2018-12-13 Metodo de codificacion de imagenes basado en transformacion secundaria no separable y dispositivo para el mismo.
KR1020237039915A KR20230164751A (ko) 2017-12-15 2018-12-13 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치
CN202311022201.7A CN116866599A (zh) 2017-12-15 2018-12-13 编解码设备和数据发送设备
JP2020532930A JP7007485B2 (ja) 2017-12-15 2018-12-13 非分離二次変換に基づいた画像コーディング方法及びその装置
EP23158773.4A EP4216549A1 (en) 2017-12-15 2018-12-13 Image coding method on basis of non-separable secondary transform and device therefor
KR1020207016879A KR102489150B1 (ko) 2017-12-15 2018-12-13 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치
CA3085844A CA3085844A1 (en) 2017-12-15 2018-12-13 Image coding method on basis of non-separable secondary transform and device therefor
RU2020121400A RU2748907C1 (ru) 2017-12-15 2018-12-13 Способ кодирования изображения на основе неразделимого вторичного преобразования и устройство для него
EP18889527.0A EP3716625A1 (en) 2017-12-15 2018-12-13 Image coding method on basis of non-separable secondary transform and device therefor
CN201880085166.4A CN111543058B (zh) 2017-12-15 2018-12-13 基于不可分离二次变换的图像编码方法和用于其的装置
CN202311023560.4A CN116866600A (zh) 2017-12-15 2018-12-13 视频编解码方法、存储介质和数据发送方法
BR112020012040-5A BR112020012040B1 (pt) 2017-12-15 2018-12-13 Método de decodificação de vídeo realizado por um aparelho de decodificação e método de codificação de vídeo realizado por um aparelho de codificação, e mídia de armazenamento legível por computador não transitória
CN202311023547.9A CN116886934A (zh) 2017-12-15 2018-12-13 编解码设备、存储介质和发送设备
CN202311022208.9A CN116886933A (zh) 2017-12-15 2018-12-13 视频编解码方法、存储介质和数据发送方法
BR122021010320-8A BR122021010320B1 (pt) 2017-12-15 2018-12-13 Método de codificação de imagem com base em transformada secundária não separável e dispositivo para o mesmo
KR1020237001152A KR102605673B1 (ko) 2017-12-15 2018-12-13 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치
US16/901,857 US11039140B2 (en) 2017-12-15 2020-06-15 Image coding method on basis of non-separable secondary transform and device therefor
US17/316,049 US11627320B2 (en) 2017-12-15 2021-05-10 Image coding method on basis of non-separable secondary transform and device therefor
JP2022001049A JP7235899B2 (ja) 2017-12-15 2022-01-06 非分離二次変換に基づいた画像コーディング方法及びその装置
US17/864,666 US11818350B2 (en) 2017-12-15 2022-07-14 Image coding method on basis of non-separable secondary transform and device therefor
US18/377,146 US20240040121A1 (en) 2017-12-15 2023-10-05 Image coding method on basis of non-separable secondary transform and device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762599021P 2017-12-15 2017-12-15
US62/599,021 2017-12-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/901,857 Continuation US11039140B2 (en) 2017-12-15 2020-06-15 Image coding method on basis of non-separable secondary transform and device therefor

Publications (1)

Publication Number Publication Date
WO2019117636A1 true WO2019117636A1 (ko) 2019-06-20

Family

ID=66819337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015812 WO2019117636A1 (ko) 2017-12-15 2018-12-13 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치

Country Status (10)

Country Link
US (4) US11039140B2 (ko)
EP (2) EP3716625A1 (ko)
JP (4) JP7007485B2 (ko)
KR (3) KR102489150B1 (ko)
CN (5) CN116886934A (ko)
BR (3) BR122021010330B1 (ko)
CA (2) CA3236099A1 (ko)
MX (1) MX2020006313A (ko)
RU (2) RU2760566C2 (ko)
WO (1) WO2019117636A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114747221A (zh) * 2019-10-04 2022-07-12 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762344A (zh) * 2019-10-08 2022-07-15 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762343A (zh) * 2019-10-08 2022-07-15 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114982239A (zh) * 2019-11-11 2022-08-30 Lg电子株式会社 基于变换的图像编码方法及其装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11665367B2 (en) * 2018-03-30 2023-05-30 Sony Corporation Image processing apparatus and method
US11218694B2 (en) 2018-09-24 2022-01-04 Qualcomm Incorporated Adaptive multiple transform coding
WO2020130577A1 (ko) * 2018-12-18 2020-06-25 엘지전자 주식회사 이차 변환에 기반한 영상 코딩 방법 및 그 장치
CN117354521A (zh) 2019-06-07 2024-01-05 北京字节跳动网络技术有限公司 视频比特流中的简化二次变换的有条件信令
CN114208190B (zh) 2019-08-03 2023-12-15 北京字节跳动网络技术有限公司 视频编解码中缩减二次变换的矩阵的选择
CN115633172A (zh) * 2020-12-06 2023-01-20 浙江大华技术股份有限公司 基于ibc模式编码方法、电子设备及存储介质
US20230112642A1 (en) * 2021-10-13 2023-04-13 Tencent America LLC Adaptive multiple transform set selection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170094313A1 (en) * 2015-09-29 2017-03-30 Qualcomm Incorporated Non-separable secondary transform for video coding
KR20170116043A (ko) * 2015-02-12 2017-10-18 엘지전자 주식회사 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2017196127A1 (ko) * 2016-05-12 2017-11-16 엘지전자 주식회사 임의 파티션 변환에 기초하여 비디오 신호를 처리하는 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2595385A4 (en) 2010-07-15 2014-06-25 Toshiba Inc Kk IMAGE ENCODING AND DECODING METHOD
JP2013542664A (ja) 2010-09-28 2013-11-21 サムスン エレクトロニクス カンパニー リミテッド 映像変換方法及びその装置、並びに映像逆変換方法及びその装置
GB2509670B (en) * 2011-10-18 2018-12-05 Kt Corp Method for encoding image, method for decoding image, image encoder, and image decoder
US20170034530A1 (en) 2015-07-28 2017-02-02 Microsoft Technology Licensing, Llc Reduced size inverse transform for decoding and encoding
US10735731B2 (en) * 2016-02-12 2020-08-04 Samsung Electronics Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus
US10708164B2 (en) * 2016-05-03 2020-07-07 Qualcomm Incorporated Binarizing secondary transform index

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170116043A (ko) * 2015-02-12 2017-10-18 엘지전자 주식회사 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
US20170094313A1 (en) * 2015-09-29 2017-03-30 Qualcomm Incorporated Non-separable secondary transform for video coding
WO2017196127A1 (ko) * 2016-05-12 2017-11-16 엘지전자 주식회사 임의 파티션 변환에 기초하여 비디오 신호를 처리하는 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN ET AL: "Algorithm Description of Joint Exploration Test Model 3", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, no. JVET-C1001 V.3, 1 June 2016 (2016-06-01), Geneva, CH, XP055577005 *
XIN ZHAO ET AL: "NSST: Non-Separable Secondary Transforms for Next Generation Video Coding", 2016 PICTURE CODING SYMPOSIUM (PCS), 7 December 2016 (2016-12-07), Nuremberg, Germany, pages 1 - 5, XP033086901, DOI: 10.1109/PCS.2016.7906344 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114747221A (zh) * 2019-10-04 2022-07-12 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114747221B (zh) * 2019-10-04 2023-11-21 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762344A (zh) * 2019-10-08 2022-07-15 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762343A (zh) * 2019-10-08 2022-07-15 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762343B (zh) * 2019-10-08 2023-11-10 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114762344B (zh) * 2019-10-08 2023-11-21 Lg电子株式会社 基于变换的图像编码方法及其装置
CN114982239A (zh) * 2019-11-11 2022-08-30 Lg电子株式会社 基于变换的图像编码方法及其装置

Also Published As

Publication number Publication date
EP3716625A4 (en) 2020-09-30
RU2748907C1 (ru) 2021-06-01
RU2760566C2 (ru) 2021-11-29
RU2021114893A (ru) 2021-06-10
CA3236099A1 (en) 2019-06-20
KR20200078652A (ko) 2020-07-01
CN116866599A (zh) 2023-10-10
KR20230164751A (ko) 2023-12-04
CN116866600A (zh) 2023-10-10
US20220377336A1 (en) 2022-11-24
BR112020012040B1 (pt) 2022-02-01
US11818350B2 (en) 2023-11-14
CN111543058B (zh) 2023-09-01
US20200314426A1 (en) 2020-10-01
JP2021507597A (ja) 2021-02-22
JP7423835B2 (ja) 2024-01-29
KR20230010068A (ko) 2023-01-17
EP4216549A1 (en) 2023-07-26
BR122021010330B1 (pt) 2023-03-14
MX2020006313A (es) 2020-09-18
CN111543058A (zh) 2020-08-14
US20210266549A1 (en) 2021-08-26
US11627320B2 (en) 2023-04-11
KR102605673B1 (ko) 2023-11-23
CN116886933A (zh) 2023-10-13
RU2021114893A3 (ko) 2021-09-17
BR122021010320B1 (pt) 2022-04-05
CN116886934A (zh) 2023-10-13
US20240040121A1 (en) 2024-02-01
EP3716625A1 (en) 2020-09-30
JP2024026805A (ja) 2024-02-28
CA3085844A1 (en) 2019-06-20
JP2022058519A (ja) 2022-04-12
US11039140B2 (en) 2021-06-15
JP7007485B2 (ja) 2022-01-24
BR112020012040A2 (pt) 2020-11-24
KR102489150B1 (ko) 2023-01-17
JP7235899B2 (ja) 2023-03-08
JP2023054320A (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
WO2019117636A1 (ko) 비분리 2차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2017209328A1 (ko) 영상 코딩 시스템에서 인트라 예측 방법 및 장치
WO2019177429A1 (ko) 인트라 예측 기반 영상/비디오 코딩 방법 및 그 장치
WO2019117634A1 (ko) 2차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020218793A1 (ko) Bdpcm에 기반한 영상 코딩 방법 및 그 장치
WO2020009556A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2019117639A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2019125035A1 (ko) 선택적 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020246849A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020184991A1 (ko) Ibc 모드를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020256344A1 (ko) 영상 코딩에서 변환 커널 세트를 나타내는 정보의 시그널링
WO2021137597A1 (ko) Ols에 대한 dpb 파라미터를 사용하는 영상 디코딩 방법 및 그 장치
WO2020116961A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020167097A1 (ko) 영상 코딩 시스템에서 인터 예측을 위한 인터 예측 타입 도출
WO2019225933A1 (ko) 영상 코딩 시스템에서 lut를 기반으로 도출된 mvd 를 사용하는 영상 디코딩 방법 및 그 장치
WO2020256346A1 (ko) 변환 커널 세트에 관한 정보에 대한 코딩
WO2020197274A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2019199093A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020130581A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020141856A1 (ko) 영상 코딩 시스템에서 레지듀얼 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2020013497A1 (ko) 영상 코딩 시스템에서 인트라 예측 정보를 사용하는 영상 디코딩 방법 및 그 장치
WO2020185005A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020256345A1 (ko) 영상 코딩 시스템에서 변환 커널 세트에 관한 정보에 대한 컨텍스트 코딩
WO2020130577A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2019194420A1 (ko) 변환 인디케이터에 기반한 영상 코딩 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18889527

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207016879

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3085844

Country of ref document: CA

Ref document number: 2020532930

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 122021010320

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018889527

Country of ref document: EP

Effective date: 20200622

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020012040

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112020012040

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200615